На этом шаге мы перечислим алгоритмы, входящие в вероятностное моделирование.
Вероятностное моделирование - применение принципов статистики к анализу данных. Это одна из самых ранних форм машинного обучения, которая до сих пор находит широкое использование. Одним из наиболее известных алгоритмов в данной категории является наивный байесовский алгоритм. Наивный байесовский алгоритм - это вид классификатора машинного обучения, основанный на применении теоремы Байеса со строгими (или "наивными" - отсюда и название алгоритма) предположениями о независимости входных данных.
Настоящая форма анализа данных предшествовала появлению компьютеров и десятилетиями применялась вручную, пока не появилась ее первая реализация на компьютере (в 1950-х годах). Теорема Байеса и основы статистики были заложены в XVIII столетии - это все, что нужно было для использования наивных байесовских классификаторов.
С байесовским алгоритмом тесно связана модель логистической регрессии (сокращенно logreg), которую иногда рассматривают как аналог примера Hello World в машинном обучении. Пусть вас не вводит в заблуждение название. Модель логистической регрессии - это алгоритм классификации. Так же как наивный байесовский алгоритм, модель логистической регрессии была разработана задолго до появления компьютеров, но до сих пор остается востребованной благодаря своей простоте и универсальной природе. Часто это первое, что пытается сделать исследователь со своим набором данных, чтобы получить представление о классификации.
На следующем шаге мы рассмотрим первые нейронные сети.