Доступно

[ML/Класс] DSCource 2. Data Mining с помощью Python

Тема в разделе "Курсы по программированию", создана пользователем HonestBrick, 15 ноя 2015.

Цена: 7000р.-96%
Взнос: 248р.
100%

Основной список: 63 участников

Резервный список: 9 участников

Статус обсуждения:
Комментирование ограничено.
  1. 15 ноя 2015
    #1
    HonestBrick
    HonestBrick ЧКЧлен клуба

    Складчина: [ML/Класс] DSCource 2. Data Mining с помощью Python

    Юрий Кашницкий, Data Mining с помощью Python
    Видео лекций, презентации, ссылки по второму курсу данной серии


    "Мы постарались сделать программу так, чтобы в нее входили только самые основные навыки, необходимые в реальной работе. Здесь не будет длинной теории, только практически важные вещи."
    • Юрий Кашницкий, преподаватель Высшей Школы Экономики, умеющий объяснять сложные вещи простым языком, познакомит слушателей сперва с основными инструментами, которые пригодятся начинающему Data Scientist'у, а после проведет курс по машинному обучению, в котором даст необходимые навыки для построения прогнозных моделей

    Data Mining (добыча данных, интеллектуальный анализ данных, глубинный анализ данных) – собирательное название, используемое для обозначения совокупности методов обнаружения в данных ранее неизвестных, нетривиальных, практически полезных и доступных интерпретации знаний, необходимых для принятия решений в различных сферах человеческой деятельности

    Kaggle – это платформа для исследователей разных уровней, где они могут опробовать свои модели анализа данных на серьезных и актуальных задачах. Суть такого ресурса – не только в возможности получить неплохой денежный приз в случае, если именно ваша модель окажется лучшей, но и в том (а, это, пожалуй, гораздо важнее), чтобы набраться опыта и стать специалистом в области анализа данных и машинного обучения.


    Данный курс освящает практическое применение алгоритмов обработки данных на примере решения одной из самых популярных задач платформы Kaggle, Titanic: Learning from Disaster (предсказание выживших в катастрофе пассажиров)

    Урок 1. Введение
    - Введение в машинное обучение, необходимые навыки
    - Задачи классификации, регрессии и кластеризации
    - Краткий обзор Kaggle
    - Открытие соревнования Kaggle Inclass
    - Знакомство с набором данных по автострахованию этого соревнования
    - Статистические распределения, нормализация признаков, приведение к нормальному распределению
    - Деревья решений
    - Применение дерева решений Scikit-learn к набору данных iris и данным из контеста Kaggle Inclass
    - Настройка параметров дерева, кросс-валидация

    Урок 2. Обзор инструментов
    - Работа с векторами и матрицами в библиотеке NumPy
    - Обзор библиотеки для научных выичслений SciPy
    - Тетрадки Jupyter (IPython) для презентации материала, содержащего код
    - Визуализация данных с Matplotlib
    - Чтение и обработка данных с библиотекой Pandas
    - Решение задачи соревнования Kaggle "Titanic: Learning from Disaster" c помощью Pandas
    - Обзор библиотеки машинного обучения Scikit-learn

    Урок 3. Обучение с учителем. Классификация
    - Работа с признаками – отбор, преобразование, построение
    - Метрики качества алгоритмов машинного обучения (accuracy, precision, recall, F-score). ROC-кривая, AUC
    - Метод максимального правдоподобия
    - Логистическая регрессия

    Урок 4. Обучение с учителем. Ансамбли. Переобучение
    - Случайный лес (Random Forest)
    - Случайный лес на примере набора данных Titanic
    - Случайный лес на примере набора данных по автострахованию
    - Бустинг (boosting) и бэггинг (bagging)
    - Сравнение бустинга и бэггинга на наборах данных репозитория UCI
    - Стекинг. Демонстрация решения задачи категоризации продуктов Otto (вкратце)
    - Переобучение, кросс-валидация, регуляризация
    - Пример регуляризации для логистической регрессии

    Урок 5. Обучение без учителя
    - Обзор методов кластеризации, снижения размерности, поиска аномалий в данных
    - Кластеризации городов России по социально-экономическим показателям
    - Сингулярное разложение матрицы
    - Пример снижения размерности изображений, сжатие изображений
    - Снижение размерности как способ визуализации даных
    - Решение задачи соревнования Kaggle "Titanic: Learning from Disaster" с помощью Python

    Урок 6. Продвинутые методы. API Scikit-learn
    - Нейронные сети, библиотеки nolearn и Lasagne NN
    - Библиотека XGBoost, сравнение с градиентным бустингом в Scikit-learn
    - Пример голосования между алгоритмами для повышения качества классификации
    - Смешивание (блендинг) алгоритмов на примере задачи Kaggle "Titanic: Learning from Disaster"
    - Стекинг. Пример для Titanic
    - Разработка собственного класса Scikit-learn Estimator для задачи по автострахованию Kaggle Inclass. kNN с подобранной метрикой.

    Цена инфопродукта - 7000 руб.

     
    Последнее редактирование модератором: 16 ноя 2015
    1 человеку нравится это.
  2. Последние события

    1. skladchik.com
      Складчина доступна.
      2 июл 2024
    2. skladchik.com
      Хранитель хранитель.
      2 июл 2024
    3. skladchik.com
      Складчина закрыта.
      1 июл 2024
    4. skladchik.com
      Складчина доступна.
      2 июн 2024

    Последние важные события

    1. skladchik.com
      Складчина доступна.
      2 июл 2024
    2. skladchik.com
      Хранитель хранитель.
      2 июл 2024
    3. skladchik.com
      Складчина закрыта.
      1 июл 2024
    4. skladchik.com
      Складчина доступна.
      2 июн 2024
  3. Обсуждение
  4. 15 ноя 2015
    #2
    HonestBrick
    HonestBrick ЧКЧлен клуба
    Спасибо за рекомендацию. Я бы в принципе с радостью, но никак не могу понять как можно отредактировать складчину, такое ощущение, что теперь только через модераторов
     
  5. 15 ноя 2015
    #3
    Monogatari
    Monogatari ЧКЧлен клуба
    Да, именно так.
    Я обычно делаю так: копирую все из первого сообщения в новое сообщение, дополняю, потом прошу переместить в первое сообщение.
     
  6. 16 ноя 2015
    #4
    MasterKirito
    MasterKirito БанЗабанен
    На хабре в статье пишут, что эти материалы можно будет приобрести до 30-го ноября.
     
  7. 16 ноя 2015
    #5
    nobody
    nobody ЧКЧлен клуба
    Значит надо ускоряться. В принципе все желающие уже, наверное, присоединились, учитывая что уже давно было создано несколько складчин по этой теме. Сумма уже вполне разумная за подобный материал.
     
  8. 16 ноя 2015
    #6
    MasterKirito
    MasterKirito БанЗабанен
    Тоже так считаю, особого наплыва на такие курсы ждать не стоит.
     
  9. 18 ноя 2015
    #7
    Incansable
    Incansable ЧКЧлен клуба
    А может и стоить подождать. Два года назад в складчине по бизнес-аналитике (SPSS) приняло участие около 100 желающих.
     
  10. 18 ноя 2015
    #8
    MasterKirito
    MasterKirito БанЗабанен
    Складчины связанные с mlclass весят уже не мало, так что имхо дальше ждать смысла нет. Да и они пишут, что материал можно будет купить только до 30, не факт конечно, что не врут, но лучше уже брать.
     
  11. 18 ноя 2015
    #9
    sklskl
    sklskl БанЗабанен
    Согласен, лучше брать. Причем лучше пораньше взять чем снова опоздать и прошляпить) только, тут орг уровня "Организатор" нужен.
     
    1 человеку нравится это.
  12. 24 ноя 2015
    #10
    pygame
    pygame ЧКЧлен клуба
    То что на первую часть собрали - это хорошо. Но там почти бесполезное "детство" - для тех, кто не знает питон. Как эту собрать-то? Как по мне, он ключевой.
     
    1 человеку нравится это.
  13. 24 ноя 2015
    #11
    sklskl
    sklskl БанЗабанен
    @pygame Так, наверное: или просить оргнуть складчиков со статусом организатор (мало шансов). Или кто-то чк попросит разрешить ему оргнуть модераторов/админов кто там в эмпиреях решает (тут шансы есть)
     
    1 человеку нравится это.
  14. 24 ноя 2015
    #12
    MasterKirito
    MasterKirito БанЗабанен
    Тоже хотелось бы знать про судьбу данной складчины.
     
    1 человеку нравится это.
  15. 26 ноя 2015
    #13
    MasterKirito
    MasterKirito БанЗабанен
    Будет крайне обидно если следующие складчины не организуются, так то первая без остальных бессмысленна чуть менее чем полностью))
     
  16. 26 ноя 2015
    #14
    dflas
    dflas ОргОрганизатор
    А шо старожили говорят, как быть в нашей ситуации, кому из членов клуба деньги платить?
     
    1 человеку нравится это.
Статус обсуждения:
Комментирование ограничено.