В качестве базовой архитектуры обеих нейронных сетей был выбран двухслойных персептрон с сигмоидной функцией активации в скрытом слое и pureline (x=y) функцией активации в выходном слое (см. рис. 2).
Рисунок 2. Графическое изображение архитектуры нейронной сети.
Все переменные рассчитываются в нормированном виде. Общий вид модели одного нейрона скрытого слоя
(1)
Общий вид модели одного (единственного) нейрона выходного слоя
, (2)
где – весовые коэффициенты входов каждого нейрона;
– весовые коэффициенты нейрона выходного слоя;
– нейрон скрытого слоя (Hidden Layer Neuron);
– нейрон выходного слоя (Output Layer Neuron), он является выходом всей сети (O);
i – номер нейрона скрытого слоя, i=20;
Расчет весовых коэффициентов и поправок будет производиться методом обратного распространения ошибки.
В качестве обучающего множества выступят статистические данные, собранные в процессе эксплуатации объекта.
В качестве целевой функции выберем суммарную квадратическую ошибку
где – целевое значение выхода сети;
– нейрон выходного слоя (Output Layer Neuron), он является выходом всей сети;
d – номер обучающего примера;
m – количество обучающих примеров;
Все весовые коэффициенты будут подправляться после каждого тестового примера, величина поправки будет выглядеть следующим образом
где – коэффициент скорости обучения, он выбирается произволно;
Нейрон, для которого рассчитывается весовой коэффициент, находится в выходном слое
где k – номер нейрона выходного слоя (в этом слое у нас только один нейрон);
i – номер нейрона скрытого слоя;
– выходное значение i-го нейрона (оно равно);
– весовой коэффициент, соединяющий i-ый нейрон скрытого слоя и k- ый нейрон выходного слоя.
Теперь введем величину : , тогда расчет весового
коэффициента на данной итерации будет выглядеть так:
.
Нейрон, для которого рассчитывается весовой коэффициент, находится в скрытом слое
где i – номер нейрона скрытого слоя; j – номер входной переменной; – нормированное значение входной переменной; – весовой коэффициент, соединяющий i-ый нейрон скрытого слоя и j-ю входную переменную.
Теперь введем величину
,
тогда расчет весового коэффициента на данной итерации будет выглядеть так
Поиск весовых коэффициентов методом обратного распространения ошибки, хоть и позволяет довольно точно рассчитать параметры нейронной сети, но вручную, это сделать невозможно. Поэтому обе нейронные сети были реализованы в пакете Matlab 7.7
Реализация первой нейронной сети, которая осуществляет вывод объемной скорость подачи продуктивного раствора дала функцию активации двадцати нейронов скрытого слоя, которая в соответствии с (1) имеет вид:
…
Функция активации нейрона выходного слоя в соответствии с (1) примет вид:
Реализация второй нейронной сети, которая осуществляет вывод суммарной высота рабочего слоя сорбента производится аналогично. Функция активации двадцати нейронов скрытого слоя при этом будет:
…
Функция активации нейрона выходного слоя второй нейронной сети имеет вид
Достарыңызбен бөлісу: |