Машинное обучение: из грязи в Kaggle-князи

Регрессия, классификация, ансамбли и глубокие нейросети

4.25 (107 reviews)
Udemy
platform
Русский
language
Data Science
category
Машинное обучение: из грязи в Kaggle-князи
757
students
21.5 hours
content
Jun 2021
last update
$19.99
regular price

What you will learn

Процесс и модели машинного обучения

Ансамбли бэггинга, бустинга, стекинга

Обучение с учителем: 3 больших задачи Kaggle-соревнований

Линейная и нелинейная регрессия

Кластеризация и классификация

Регрессия и предсказание данных

Распознавание и сегментация изображений

Why take this course?

Внимание: для доступа к курсам ITtensive на Udemy напишите, пожалуйста, на support@ittensive.com с названием курса или группы курсов, которые хотите пройти.


Большой практический курс по всем аспектам машинного обучения на Python в решении задач соревнования Kaggle. Курс состоит из 4 больших частей:

Введение в машинное обучение

Последовательно пройдем все этапы работы с данными: от видов задач и их постановки до работы с моделями машинного обучения для минимизации предсказательной ошибки. Дополнительно рассмотрим фундаментальные основы построения моделей машинного обучения, базовые метрики и наиболее простые модели - линейную и логистическую регрессии.

Регрессия и предсказание данных

Рассмотрим базовые линейные модели и все практические аспекты применения линейной регрессии для предсказания числовых показателей энергопотребления ASHRAE.

  • Особенности процесса анализа данных (ETL): загрузка, очистка, объединение наборов данных с pandas.

  • Проведение исследовательского анализа данных для поиска зависимостей: EDA.

  • Использование sklearn для линейной регрессии.

  • Интерполяция и экстраполяция данных.

  • Расчет метрики качества RMSLE для моделей линейной регрессии.

  • Оптимизация линейной регрессии: выбор наилучших параметров и гиперпараметров.

  • Оптимизация потребления памяти при работе с большими данными.

  • Запасные модели линейной регрессии.

  • Ансамбли линейной регрессии для уточнения предсказания.

  • Экспорт и импорт данных, включая промежуточные.

Классификация и ансамбли

Разберем метрики и модели классификации, а затем отработаем прикладные подходы к классификации данных с помощью моделей и ансамблей машинного обучения для страхового скоринга Prudential.

  • Метрики классификации: точность, полнота, F1, квадратичная каппа и матрица неточностей.

  • Очистка данных и оптимизация потребления памяти.

  • Кластеризация данных и метод ближайших соседей.

  • Простая и иерархическая логистическая регрессия.

  • Метод ближайших соседей и поиск оптимальной модели.

  • Метод опорных векторов: SVM.

  • Дерево принятия решения и случайный лес (бэггинг).

  • XGBoost и градиентный бустинг.

  • LightGBM и CatBoost

  • Ансамбль стекинга для голосования и выбора лучшего результата.

Нейросети и глубокое обучение

Разберем сегментацию и классификацию изображений облаков с помощью сверточных, пирамидальных, остаточных и полносвязных нейронных сетей.

  • Метрики точности: оценка F1 и коэффициент Дайса.

  • Очистка данных и обработка изображений.

  • Загрузка и сохранение моделей и данных в HDF5.

  • Двухслойный и многослойный перцептрон.

  • Нейросети со сверточными слоями и слоями подвыборки.

  • Функции активации, инициализация и оптимизаторы нейросетей.

  • Преобразование и дополнение (аугментация) бинарных данных.

  • LeNet, AlexNet, GoogLeNet.

  • VGG, Inception, ResNet, DenseNet.

  • Сегментация изображений с MobileNet, Unet, PSPNet и FPN.

  • Ансамбль нейросетей.

Screenshots

Машинное обучение: из грязи в Kaggle-князи - Screenshot_01Машинное обучение: из грязи в Kaggle-князи - Screenshot_02Машинное обучение: из грязи в Kaggle-князи - Screenshot_03Машинное обучение: из грязи в Kaggle-князи - Screenshot_04

Reviews

Alexander
February 6, 2023
В теории по NN разобрано явно не все, где RNN, LSTM и пр? Практика - такое ощущение что женский голос накладывали отдельно и временами он вообще говорит о чем-то своем, никак не связано с тем что происходит на экране. И где-то в середине курса на некоторых пратикумах не понятно что вообще делается и главное - зачем?
Александр
July 28, 2022
Супер. Огонь. Именно то что надо. Единственный минус в коде хотелось бы больше комментариев, т.к. не всегда сразу понятно как код работает. Требуется определенный бэкгроунд и желательно в ML питоне . Но вообще за те деньги по-моему один из лучших вариантов.
Егор
June 18, 2021
Когда видишь название "Из грязи в Kaggle-Князи" ожидаешь увидеть много формул, какие-то фишки, которые помогут выигрывать в соревнованиях (или хотя бы увеличивать скор в каких-то задачах). Но по факту напарываешься на глобальное несоответствие. Курс предназначен для новичков, объяснения в нем поверхностные, тесты после видео по сложности пройдет даже детсадовец. Для вас будет большой удачей, если вы на Kaggle после него хотя бы в топ 10 попадете. Строго рекомендую даже не обращать на него внимания. Все то же самое (даже больше), вы найдете в бесплатных материалах от ODS на хабре + на курсах на степике. В общем, если вы совсем новенький в ML и хотите вкатиться, то этот курс поможет, в принципе. Да и то я бы все равно посмотрел бесплатные источники - там понятнее и лучше. В общем жалею о потраченных деньгах.
Суровкин
March 30, 2021
Только начал смотреть, но чувствую что оглушенный звук и надписи на доске, принесут немного дискомфорта. Учитель отличный
Малышев
January 10, 2021
Понятно что много чего устарело из самого синтаксиса функций, к этому претензий нет. Но, слишком мало объяснений, особенно в последнем видео
Yu.Andreev
October 22, 2020
Да. Когда готовил диссертацию, естественно занимался обработкой больших массивов данных. С тех пор прошло много времени. Это уже совсем другой уровень. Увлекло. Очень нравится сама подача учебного материала. Спасибо.

Charts

Price

Машинное обучение: из грязи в Kaggle-князи - Price chart

Rating

Машинное обучение: из грязи в Kaggle-князи - Ratings chart

Enrollment distribution

Машинное обучение: из грязи в Kaggle-князи - Distribution chart
2889506
udemy ID
3/20/2020
course created date
3/25/2020
course indexed date
Bot
course submited by