Шаг 210.
Глубокое обучение на Python. ... . Целесообразность глубокого обучения для решения задач с небольшими наборами данных

    На этом шаге мы рассмотрим, почему можно использовать глубокое обучение в таких случаях.

    Понятие "достаточное количество образцов" весьма относительно - в первую очередь, относительно размера и глубины обучаемой модели. Нельзя обучить сверточную нейронную сеть решению сложной задачи на нескольких десятках образцов, а вот нескольких сотен вполне может хватить, если модель невелика и хорошо регуляризована, а решаемая задача проста. Так как сверточные нейронные сети изучают локальные признаки, инвариантные в отношении переноса, они обладают высокой эффективностью в решении задач распознавания. Обучение сверточной нейронной сети с нуля на очень небольшом наборе изображений дает вполне неплохие результаты, несмотря на относительную нехватку данных, без необходимости конструировать признаки вручную. В дальнейшем мы убедимся в этом на практике.

    Более того, модели глубокого обучения по своей природе очень гибкие: можно, к примеру, обучить модель для классификации изображений или распознавания речи на очень большом наборе данных и затем использовать ее для решения самых разных задач с небольшими модификациями. В частности, в распознавании образов многие предварительно обученные модели (обычно на наборе данных ImageNet) теперь доступны всем желающим для загрузки и могут применяться как основа для создания очень мощных моделей распознавания образов на небольших объемах данных. Возможность повторного использования признаков - одна из самых замечательных особенностей глубокого обучения. Мы исследуем ее в следующем разделе.

    А пока начнем с получения данных.

    На следующем шаге мы рассмотрим загрузку данных.




Предыдущий шаг Содержание