Б. О. Джолдошева из Института автоматики и информационных технологий нан кр, г. Бишкек; «Cинтез кибернетических автоматических систем с использованием эталонной модели»



бет289/320
Дата06.02.2022
өлшемі28,25 Mb.
#34664
түріСборник
1   ...   285   286   287   288   289   290   291   292   ...   320

Построение нейронных сетей


В качестве базовой архитектуры обеих нейронных сетей был выбран двухслойных персептрон с сигмоидной функцией активации в скрытом слое и pureline (x=y) функцией активации в выходном слое (см. рис. 2).

Рисунок 2. Графическое изображение архитектуры нейронной сети.

Все переменные рассчитываются в нормированном виде. Общий вид модели одного нейрона скрытого слоя


(1)
Общий вид модели одного (единственного) нейрона выходного слоя
, (2)
где – весовые коэффициенты входов каждого нейрона;
– весовые коэффициенты нейрона выходного слоя;
– нейрон скрытого слоя (Hidden Layer Neuron);
– нейрон выходного слоя (Output Layer Neuron), он является выходом всей сети (O);
i – номер нейрона скрытого слоя, i=20;
Расчет весовых коэффициентов и поправок будет производиться методом обратного распространения ошибки.
В качестве обучающего множества выступят статистические данные, собранные в процессе эксплуатации объекта.
В качестве целевой функции выберем суммарную квадратическую ошибку



где – целевое значение выхода сети;
– нейрон выходного слоя (Output Layer Neuron), он является выходом всей сети;
d – номер обучающего примера;
m – количество обучающих примеров;
Все весовые коэффициенты будут подправляться после каждого тестового примера, величина поправки будет выглядеть следующим образом



где – коэффициент скорости обучения, он выбирается произволно;
Нейрон, для которого рассчитывается весовой коэффициент, находится в выходном слое


где k – номер нейрона выходного слоя (в этом слое у нас только один нейрон);
i – номер нейрона скрытого слоя;
– выходное значение i-го нейрона (оно равно);
– весовой коэффициент, соединяющий i-ый нейрон скрытого слоя и k- ый нейрон выходного слоя.



Теперь введем величину : , тогда расчет весового
коэффициента на данной итерации будет выглядеть так:
.
Нейрон, для которого рассчитывается весовой коэффициент, находится в скрытом слое


где i – номер нейрона скрытого слоя; j – номер входной переменной; – нормированное значение входной переменной; – весовой коэффициент, соединяющий i-ый нейрон скрытого слоя и j-ю входную переменную.


Теперь введем величину
,
тогда расчет весового коэффициента на данной итерации будет выглядеть так

Поиск весовых коэффициентов методом обратного распространения ошибки, хоть и позволяет довольно точно рассчитать параметры нейронной сети, но вручную, это сделать невозможно. Поэтому обе нейронные сети были реализованы в пакете Matlab 7.7
Реализация первой нейронной сети, которая осуществляет вывод объемной скорость подачи продуктивного раствора дала функцию активации двадцати нейронов скрытого слоя, которая в соответствии с (1) имеет вид:





Функция активации нейрона выходного слоя в соответствии с (1) примет вид:

Реализация второй нейронной сети, которая осуществляет вывод суммарной высота рабочего слоя сорбента производится аналогично. Функция активации двадцати нейронов скрытого слоя при этом будет:





Функция активации нейрона выходного слоя второй нейронной сети имеет вид



Достарыңызбен бөлісу:
1   ...   285   286   287   288   289   290   291   292   ...   320




©engime.org 2024
әкімшілігінің қараңыз

    Басты бет