Фундаментальные концепции переобучения и недообучения в машинном обучении.

Этот модуль дает интуитивно понятное введение в очень фундаментальные концепции переобучения и недообучения в машинном обучении. Модели машинного обучения никогда не могут делать идеальные прогнозы: ошибка теста никогда не равна нулю. Этот провал происходит из-за фундаментального компромисса между гибкостью моделирования и ограниченным размером обучающего набора данных .

Image alt

“Это и ежу понятно!” - картинка, сгенерированная нейросетью. Оригинал взят из теграмм-канала @ai_drowing

Первая презентация определит эти проблемы и охарактеризует, как и почему они возникают.

Затем мы представим методологию количественной оценки этих проблем путем сравнения ошибки train с ошибкой test для различного выбора семейства моделей и параметров

модели. Что еще более важно, мы подчеркнем влияние размера обучающей выборки на этот компромисс .

Наконец, мы свяжем переобучение и недообучение с понятиями статистической дисперсии и систематической ошибки.

Готовый ноутбук с датасетом - здесь.

Written on February 6, 2023
  • Возврат на главную страницу