алгоритмы RMSProp (отличается от SGD тем, что у каждого параметра адаптируемая
скорость обучения) и Adam Optimizer (позволяет устанавливать гиперпараметры НС).
o
Скорость обучения
. Размер «шага» на каждой итерации алгоритма, стремящегося
к минимизации функции потерь. Слишком большой шаг ведёт к повышению риска,
что алгоритм «промахнётся» мимо оптимума, а слишком маленький – к увеличению
времени обучения НС. В настоящее время существуют алгоритмы, способные с
определённым успехом варьировать этот шаг в зависимости от
«кривизны» функции потерь в текущей точке.
o
Эпохи обучения
. Отражает заданную продолжительность обучения НС. Может
задаваться инженером исходя из вычислительной сложности модели, но может и
определяться
алгоритмом.
Например,
обучение
может
автоматически
останавливаться в случае, когда ошибка (значение функции потерь) перестаёт
уменьшаться в течение какого-либо количества эпох.
Архитектуры
– это то, как организованы слои в НС и установлены связи между нейронами.
Схема, представленная в Приложении А, даёт некоторое представление о сложности и
разнообразии современных архитектур НС. В настоящее время для решения реальныхзадач
наиболее популярны две архитектуры:
Достарыңызбен бөлісу: