перейти к полному списку дипломных проектов
Ссылка на скачивания файла в формате .doc находится в конце странички
В сетях с обратным распространением, например, обучающие векторы подаются на вход сети последовательно до тех пор, пока сеть не обучится всему входному набору
7а, где (1 входные функции, Ф ((1, (2, (3,… (n) — семейство входных функций, {а(1, а(2, а(3, ..., а(n} — набор чисел (весовых коэффициентов), ( — пороговая функция, ( — выходная функция. Пусть X— набор признаков внешних стимулов, воздействующих на рецепторы, генерирующие входные функции (i. В дискретном пороговом варианте ((Х) = 1 тогда и только тогда, когда (((i(i(Х) > (. На интуитивном уровне ясно, что каждое (i из семейства Ф содержит определенные сведения о том, будет ли истинной или ложной выходная функция ( для каждой внешней ситуации X. Если в целом ((Х) имеет положительную корреляцию с семейством ((Х), то можно ожидать, что и веса будут положительными, тогда как при отрицательной корреляции отрицательными будут и веса ((. Однако идею корреляции в данном случае следует воспринимать не буквально, а лишь как аналогию. В нейронных сетях, как будет ясно из дальнейшего изложения, возможны более сложные зависимости, нежели просто корреляционные соотношения. В зависимости от решаемой задачи элементы нейронной сети могут с различной степенью детализации имитировать принципы функционирования отдельных нейронов, нейронных популяций (например, тормозных и возбуждающих) или нейронных структур. В классических нейрофизиологических экспериментах этим уровням детализации соответствуют импульсная активность одиночных нейронов, локальный полевой потенциал нейронных ансамблей и электроэнцефалограммы (ЭЭГ), получаемые методом многоэлектродного отведения от мозга в целом.
Рис7а, б. Простейший вариант нейронной сети (а) и его механическая аналогия (б)
Простейшей механической аналогией вычислений в нейронных сетях являются в одномерном случае "качели с распределенным расположением груза", в двумерном — "скатывание шарика по поверхности, испещренной оврагами". На рисунке 76 в качестве примера показаны "качели". Допустим, что внешняя ситуация X отображена в виде расположения грузов в некоторых зонах {p1, p2 , … , рп}- Пусть (i(X) = 1, когда груз находится в i-й точке. Для случая, изображенного на рис. 76, имеем (i = (i — 4), ( = 0, результат вычисления будет: ((i — 4) (I(X) > 0, а логическое заключение о ситуации — "доска наклонится вправо", т.е. при распознавании двух ситуаций, будет выбрана одна.
Мозг человека выполняет трудную задачу обработки непрерывного потока сенсорной информации, получаемой из окружающего мира. Из потока тривиальной информации он должен выделить жизненно важную информацию, обработать ее и, возможно, зарегистрировать в долговременной памяти. Понимание процесса человеческой памяти представляет собой серьезную проблему; новые образы запоминаются в такой форме, что ранее запомненные не модифицируются и не забываются. Это создает дилемму: каким образом память остается пластичной, способной к восприятию новых образов, и в то же время сохраняет стабильность, гарантирующую, что образы не уничтожатся и не разрушатся в процессе функционирования?
Традиционные искусственные нейронные сети оказались не в состоянии решить проблему стабильности-пластичности. Очень часто обучение новому образу уничтожает или изменяет результаты предшествующего обучения. В некоторых случаях это не существенно. Если имеется только фиксированный набор обучающих векторов, они могут предъявляться при обучении циклически. В сетях с обратным распространением, например, обучающие векторы подаются на вход сети последовательно до тех пор, пока сеть не обучится всему входному набору. Если, однако, полностью обученная сеть должна запомнить новый обучающий вектор, он может изменить веса настолько, что потребуется полное переобучение сети.
Итак, основной целью данной работы является создание нейронной сети, являющейся одним из способов решения проблемы стабильности-пластичности.
Одним из результатов исследования этой проблемы является Адаптивная резонансная теория (APT) Гроссберга.
2.2 Постановка задачи
2.2.1 Неформальная постановка задачи
Создание нейронной сети, которая:
распознает входной сигнал, если была ему ранее обучена;
в случае не распознавания входного сигнала, запоминает его;
совершает эти действия с учетом проблемы стабильности-пластичности.
скачать бесплатно ВОЛНОВАЯ РЕЗОНАНСНАЯ ТЕОРИЯ
Содержание дипломной работы
2 Основные определения и Леммы
2
В первых же работах выяснилось, что эти модели не только повторяют функции мозга, но и способны выполнять функции, имеющие свою собственную ценность
Их используют для дифференциации кодирующих и некодирующих участков ДНК (экзонов и интронов) и предсказания структуры белков
Мозг включает: ствол головного мозга (задний мозг), мозжечок, лимбическую систему, диэнцифалон и кору головного мозга (рис
Рисунок мозга в разрезе демонстрирует доли коры головного мозга и их функции
Мембрана концевой пуговки называется пресинаптической мембраной, а мембрана той, клетки, на которую передается импульс, - постсинаптической
В нейрокомпьютере решение принимается интуитивно;
каждый нейрокомпьютер индивидуален
В сетях с обратным распространением, например, обучающие векторы подаются на вход сети последовательно до тех пор, пока сеть не обучится всему входному набору
3 Теорема о стабильности
Теорема (о стабильности): X :
2
АРТ-1 разработана для обработки двоичных входных векторов, в то время как АРТ-2, более позднее обобщение АРТ-1, может классифицировать как двоичные, так и непрерывные векторы
Упрощенный слой сравнения
Чтобы получить на выходе нейрона единичное значение, как минимум два из трех его входов должны равняться единице; в противном случае его выход будет нулевым
Затем на вход сети подается входной вектор X, который должен быть классифицирован
В результате другой нейрон выигрывает соревнование в слое распознавания и другой запомненный образ P возвращается в слой сравнения
После определения выигравшего нейрона в сети не будет возбуждений других нейронов в результате изменения векторов выхода слоя сравнения С; только сигнал сброса может вызвать такие изменения
Здесь параметр е < 1, поскольку постоянные времени для торможения, как правило, больше характерных времен возбуждения, F – функция сигмоидного типа: F=l/(l+e-x) или F= 1/2 + (1/р) arctanx
Таблица 1
Библиотека событий приведена в таблице 2
Таблица 2
Для оценки временных и стоимостных параметров используем метод сетевого планирования и управления (СПУ)
Беспокойство вызывают крайне низкие частоты - КНЧ (5 Гц – 2000 Гц) и очень низкие частоты - ОНЧ (2 – 400 кГц) спектра
Под действием электростатического поля поляризуются частицы, которые «собирают» на себя микробы и пыль
Рабочий стул должен быть подъемно-поворотным и регулируемым по высоте и углам наклона сиденья и спинки, а также по расстоянию спинки от переднего края сиденья
В непосредственной близости друг от друга располагаются соединительные провода, кабели
Пользуйтесь специальными принадлежностями – подставками для ладоней или запястий, подставками для ног и т