Открыто

LLM-инженер (часть 1 из 5) [Gigaschool] [Александр Потехин, Роман Соломатин]

Тема в разделе "Нейросети и искусственный интеллект", создана пользователем Топикстартер, 18 июл 2025.

Цена: 29942р.-96%
Взнос: 1145р.

Основной список: 31 участников

  1. 18 июл 2025
    #1
    Топикстартер
    Топикстартер ЧКЧлен клуба

    Складчина: LLM-инженер (часть 1 из 5) [Gigaschool] [Александр Потехин, Роман Соломатин]

    2025-07-21_193852.png

    Первая из пяти складчин на полный курс.

    Создавай, обучай и внедряй LLM‑проекты под руководством экспертов и практиков

    Что даст курс?
    • Возможность создать LLM-проект
      освоив технологии разработки LLM, вы сможете запускать свои проекты с нуля, создавая решения на базе передовых технологий.
    • Улучшить существующие сервисы
      возможность создавать и оптимизировать LLM для реальных задач, повышая эффективность бизнес-процессов и улучшая качество сервисов.
    В связи с высокой стоимостью (180 000 руб.) и продолжительностью (5,5 месяцев) курса, для удобства участников принято решение о его разделении на 5 частей. Каждая часть соответствует одному большому разделу программы. Каждая последующая складчина является продолжением предыдущей, и соответственно необходимо оплатить предыдущую.
    Это первая часть большого онлайн-курса, на которой вы научитесь создавать, дообучать и оптимизировать собственные большие языковые модели (LLM). Под руководством экспертов вы изучите современные архитектуры, методы дообучения PEFT, выравнивания моделей с помощью RLHF и способы уменьшения их размера для эффективного использования.

    Что вы освоите в этой части:
    Ключевые навыки:
    • Разбираться в архитектурах современных LLM (close vs open models)
    • Запускать и адаптировать open-source модели под свои задачи
    • Настраивать модели с помощью fine-tuning и PEFT (LoRA / QLoRA)
    • Использовать методы RLHF для выравнивания моделей (включая DPO, PPO)
    • Снижать ресурсоёмкость моделей через квантизацию и дистилляцию
    Основные инструменты:
    • Hugging Face Transformers
    • TRL (для RLHF)
    • LoRA / QLoRA
    Программа первой части курса
    Раздел 1. Своя LLM
    1. Современные LLM
      Лекция: современные LLM, close vs open models, оценка качества, бенчмарки, что выбрать для своих задач, прайсинг
      Лекция: оптимизации инференса в LLM - KV-caching, speculative decoding, MoE.
    2. PEFT
      Лекция: проблематика обучения LLM, обзор методов PeFT, нюансы применения
      Семинар: сравнение методов файнтюнинга - полный, LP, LP+FT, PEFT
    3. RLHF & Alignment
      Лекция: что это и зачем, базовая терминология RL и обзор методов: - RLHF, PPO, DPO.
      Семинар: TRL, RLHF для чат-модели - PPO или DPO
    4. Уменьшение размеров модели
      Лекция: обзор методов - дистилляция, квантование, прунинг, виды, применимость в LLM
      Семинар: сравнение инструментов и влияние «битности» на качество, Quantization + LoRA и прочие миксы
    Эксперты курса
    Потехин Александр. NLP Lead X5 Tech
    Соломатин Роман. ML Engineer (LLM, Ops) X5 Tech
    Андреева Дарья. ML Engineer (NLP) X5 Tech
    Желтова Кристина. Газпромбанк, директор по разработке моделей
    Кокуйкин Евгений. CEO Raft

    Цена 29942 рублей (за первую часть из пяти).
    Скрытая ссылка

    Следующие части курса:

     
    Последнее редактирование модератором: 24 июл 2025
    2 пользователям это понравилось.
  2. Последние события

    1. Gustavo Lopes
      Gustavo Lopes участвует.
      26 июл 2025
    2. Feckla
      Feckla не участвует.
      25 июл 2025
    3. Gregfili
      Gregfili участвует.
      22 июл 2025
    4. skladchik.com
      В складчине участвует 30 человек(а).
      22 июл 2025

    Последние важные события

    1. skladchik.com
      Цена составляет 29942р.
      22 июл 2025
    2. skladchik.com
      Назначен организатор.
      18 июл 2025
  3. Обсуждение
  4. 20 июл 2025
    #2
    wildcad
    wildcad ЧКЧлен клуба
    у меня вопрос Оргу про 5 частей, я ведь правильно понимаю, что части будут выкладываться постепенно.
    Хотелось бы еще примерно понимать периодичность, там примерно каждые 2 недели или месяц, или значительно большие интервалы?
    если читать описание - и продолжительностью (5,5 месяцев) - то можно ли рассчитывать, что после выдачи 1-й части примерно в течении 5 месяцев будет выдан весь материал.
    прошу дать хотя бы ориентировочные ответы, учитывая наши запреты на обсуждения :)

    ну и наверное есть смысл провести голосовалку на размер сбора, учитывая стоимость.
    курс реально интересный, но даже на складчике выходит около 10 тыс - многих отпугнет.