На этом шаге мы рассмотрим, почему можно использовать глубокое обучение в таких случаях.
Понятие "достаточное количество образцов" весьма относительно - в первую очередь, относительно размера и глубины обучаемой модели. Нельзя обучить сверточную нейронную сеть решению сложной задачи на нескольких десятках образцов, а вот нескольких сотен вполне может хватить, если модель невелика и хорошо регуляризована, а решаемая задача проста. Так как сверточные нейронные сети изучают локальные признаки, инвариантные в отношении переноса, они обладают высокой эффективностью в решении задач распознавания. Обучение сверточной нейронной сети с нуля на очень небольшом наборе изображений дает вполне неплохие результаты, несмотря на относительную нехватку данных, без необходимости конструировать признаки вручную. В дальнейшем мы убедимся в этом на практике.
Более того, модели глубокого обучения по своей природе очень гибкие: можно, к примеру, обучить модель для классификации изображений или распознавания речи на очень большом наборе данных и затем использовать ее для решения самых разных задач с небольшими модификациями. В частности, в распознавании образов многие предварительно обученные модели (обычно на наборе данных ImageNet) теперь доступны всем желающим для загрузки и могут применяться как основа для создания очень мощных моделей распознавания образов на небольших объемах данных. Возможность повторного использования признаков - одна из самых замечательных особенностей глубокого обучения. Мы исследуем ее в следующем разделе.
А пока начнем с получения данных.
На следующем шаге мы рассмотрим загрузку данных.