Дипломная работа на тему "Волновая резонансная теория"

ГлавнаяКоммуникации и связь → Волновая резонансная теория




Не нашли то, что вам нужно?
Посмотрите вашу тему в базе готовых дипломных и курсовых работ:

(Результаты откроются в новом окне)

Текст дипломной работы "Волновая резонансная теория":


Реферат

Отчет состоит из 70 машинописных листов, содержит 16 пояснительных иллюстраций, 6 таблицу, 6 принт-скринов и.. используемых источников.

ВОЛНОВАЯ РЕЗОНАНСНАЯ ТЕОРИЯ

В данной работе разрабатывается волновая резонансная нейронная сеть, выполняющая задачи распознавания и обучения. В качестве прототипа рассмотрена Адаптивно Резонансная Теория Гроссберга. Для выбора модели нейрона для разработанной сети, рассмотрены пять существующих моделей нейронов. Так же разработана модель импульсного двухпорогового нейрона и обоснован ее выбор.

В качестве результата проделанной работы, представлена нейронная сеть, написанная с помощью пакета Simulink в программе Matlab, которая выполняет задачи распознавания и обучения.

Оглавление

1. Анализ поставленной задачи в предметной области

1.1 Актуальность поставленной задачи

1.2 Некоторые сведения из анатомии мозга и нейрона

Основная часть

2.1 Введение

2.2 Постановка задачи

2.2.1 Неформальная постановка задачи

2.2.2 Формальная постановка задачи

2.3 Волновая Резонансная Теория

2.3.1 Описание ВPT

2.3.2 Основные определения и Леммы

2.3.3 Теорема о стабильности

2.3.4 Доказательство

2.3.5 Архитектура ВPT

2.3.6 Принцип работы

2.4 Адаптивная резонансная теория

2.4.1 АРХИТЕКТУРА APT

Заказать написание дипломной - rosdiplomnaya.com

Новый банк готовых защищённых на хорошо и отлично дипломных работ предлагает вам скачать любые работы по желаемой вами теме. Высококлассное написание дипломных проектов под заказ в Новосибирске и в других городах России.

2.4.2 Описание APT

2.4.3 Упрощенная архитектура APT

2.4.4 Функционирование сети APT в процессе классификации

2.4.5 Теоремы APT

2.5 Выбор модели нейрона.

2.6 Результат работы

2.6.1 Реализация ВРТ в среде Matlab с использованием пакета Simulink

2.6.2 Тестирование

Заключение

Список использованных источников:

Экономическая часть

3.1 План разработки программы

3.2 Определение затрат на разработку программы

Охрана труда и безопасность жизнедеятельности

4.1 Введение

4.2 Излучение и эргономика

4.3 Проблема освещенности и зрительные нагрузки

4.4 Микроклимат в помещении

4.5 Шум

4.6 Физиологические факторы

4.7 Пожарная и взрывопожарная безопасность

Заключение

1. Анализ поставленной задачи в предметной области

  1.1 Актуальность поставленной задачи

Людей всегда интересовало их собственное мышление. Это самовопрошение, думание мозга о себе самом является, возможно, отличительной чертой человека. Имеется множество размышлений о природе мышления, простирающихся от духовных до анатомических. Обсуждение этого вопроса, протекавшее в горячих спорах философов и теологов с физиологами и анатомами, принесло мало пользы, так как сам предмет весьма труден для изучения. Те, кто опирался на самоанализ и размышление, пришли к выводам, не отвечающим уровню строгости физических наук. Экспериментаторы же нашли, что мозг труден для наблюдения и ставит в тупик своей организацией. Короче говоря, мощные методы научного исследования, изменившие наш взгляд на физическую реальность, оказались бессильными в понимании самого человека.

Нейробиологи и нейроанатомы достигли значительного прогресса. Усердно изучая структуру и функции нервной системы человека, они многое поняли в «электропроводке» мозга, но мало узнали о его функционировании. В процессе накопления ими знаний выяснилось, что мозг имеет ошеломляющую сложность. Сотни миллиардов нейронов, каждый из которых соединен с сотнями или тысячами других, образуют систему, далеко превосходящую наши самые смелые мечты о суперкомпьютерах. Тем не менее мозг постепенно выдает свои секреты в процессе одного из самых напряженных и честолюбивых исследований в истории человечества.

Лучшее понимание функционирования нейрона и картины его связей позволило исследователям создать математические модели для проверки своих теорий. Эксперименты теперь могут проводиться на цифровых компьютерах без привлечения человека или животных, что решает многие практические и морально-этические проблемы. В первых же работах выяснилось, что эти модели не только повторяют функции мозга, но и способны выполнять функции, имеющие свою собственную ценность. Поэтому возникли и остаются в настоящее время две взаимно обогащающие друг-друга цели нейронного моделирования: первая – понять функционирование нервной системы человека на уровне физиологии и психологии и вторая – создать вычислительные системы (искусственные нейронные сети), выполняющие функции, сходные с функциями мозга.

Быстрое накопление экспериментальных данных в последней четверти XX века подготовило фундамент, если не для создания окончательной версии ответа на вопрос: "Как мыслит человек!", то, по крайней мере, для того чтобы попытаться построить с учетом последних достижений физики, биофизики и компьютерной техники новую концепцию работы мозга, которая не противоречила бы экспериментальным данным. Существуют и другие стремления к ускоренному развитию нейронаук, диктуемые практическими запросами медицины и поиском нетрадиционных путей создания "интеллектуальной" техники.

Актуальность данной проблемы очевидна. Ежегодно тысячи людей становятся жертвами заболеваний и нетрудоспособности вследствие повреждения мозга, включающих основные психические, наследственные и дегенеративные заболевания, инсульты, нарушения в связи с наркоманиями, влияние пренаталъных факторов, нейротоксинов в окружающей среде и травм, а также нарушений речи, слуха и других когнитивных расстройств. Разработка искусственных моделей нейронных сетей позволит вылечить большое число таких заболеваний.

Нейронные сети можно использовать не только для лечения болезней непосредственно связанных с мозгом, но и в более широкой сфере, например в диагностике.

В 1990 году Вильям Бакст из Калифорнийского университета в Сан-Диего использовал нейронную сеть - многослойный персептрон - для распознавания инфаркта миокарда у пациентов, поступающих в приемный покой с острой болью в груди. Его целью было создание инструмента, способного помочь врачам, которые не в силах справиться с потоком данных, характеризующих состояние поступившего больного. Другой целью может быть совершенствование диагностики. Свою задачу исследователь усложнил, поскольку анализировал данные только тех пациентов, кого уже направили в кардиологическое отделение. Бакст использовал лишь 20 параметров, среди которых были возраст, пол, локализация боли, реакция на нитроглицерин, тошнота и рвота, потение, обмороки, частота дыхания, учащенность сердцебиения, предыдущие инфаркты, диабет, гипертония, вздутие шейной вены, ряд особенностей ЭКГ и наличие значительных ишемических изменений.

Сеть продемонстрировала точность 92% при обнаружении инфаркта миокарда и дала только 4% случаев сигналов ложной тревоги, ошибочно подтверждая направление пациентов без инфаркта в кардиологическое отделение. Итак, налицо факт успешного применения искусственных нейронных сетей в диагностике заболевания.

Нейросети также можно использовать и для прогноза действия различных разрабатываемых средств лечения. Они уже успешно применяются в химии для прогноза свойств соединений на основе их молекулярной структуры. Исследователи из Национального института рака в США использовали нейросети для предсказания механизма действия препаратов, применяемых при химиотерапии злокачественных опухолей. Заметим, что существуют миллионы различных молекул, которые необходимо исследовать на предмет их антираковой активности. Специалисты Института рака разбили известные онкологические препараты на шесть групп в соответствии с механизмом их действия на раковые клетки и обучили многослойные сети классифицировать новые вещества и распознавать их действие. В качестве исходных данных использовались результаты экспериментов по подавлению роста клеток из различных опухолей. Нейросетевая классификация позволяет определить, какие из сотен ежедневно апробируемых молекул стоит изучать далее в весьма дорогих экспериментах in vitro и in vivo. Для решения аналогичной задачи использовались и сети Кохонена. Эти обучаемые без учителя самоорганизующиеся нейросети разбивали вещества на заранее неизвестное число кластеров и поэтому дали исследователям возможность идентифицировать вещества, обладающие новыми цитотоксическими механизмами воздействия.

Диагностика и лечение онкологических заболеваний, а также разработка новых медикаментозных средств несомненно представляют собой важнейшую область применения нейросетевых технологий. Однако в последнее время среди исследователей и врачей растет осознание того факта, что будущие успехи должны быть тесно связаны с изучением молекулярных и генетических причин развития заболеваний.

Не случайно в апреле 1997 года эксперты Национального института здоровья (США) выступили с рекомендациями по усилению исследований, связанных с выявлением причин, вызывающих рак, и разработок, направленных на предупреждение болезней. Нейросети уже довольно давно активно применяются в анализе геномных последовательностей ДНК, в частности для распознавания промоторов - участков, предшествующих генам и связываемых с белком РНК-полимераза, который инициирует транскрипцию. Их используют для дифференциации кодирующих и некодирующих участков ДНК (экзонов и интронов) и предсказания структуры белков.

География исследовательских групп, применяющих нейросети для разработки медицинских приложений, очень широка. О США нечего и говорить - в университете каждого штата ведутся подобные исследования, причем главное их направление - рак молочной железы. Да что там университеты - военные академии этим тоже занимаются. В Чехии Иржи Шима разработал теорию обучения нейронных сетей, способных эффективно работать с так называемыми интервальными данными (когда известны не значения параметра, а интервал его изменения), и использует их в различных медицинских приложениях. В Китае сотрудники Института атомной энергии обучили нейросеть отличать больных с легкими и тяжелыми заболеваниями эпителия пищевода от тех, кто страдает раком пищевода, на основе элементного анализа ногтей. В России в НИИЯФ МГУ нейросети применяются для анализа заболеваний органов слуха. Наконец, в Австралии Джордж Христос использовал теорию нейронных сетей для построения первой гипотезы о причинах загадочного синдрома внезапной смерти новорожденных.

И это только в медицине. А возможности, предоставляющиеся при использовании нейронных сетей в других сферах жизни, порою трудно вообразить. Например, компания Psynapse, стартап-компания из Вашингтона, утверждает, что, комбинируя науки о поведении и о компьютерах, удалось создать первую анти-хакерскую систему. Разработчики обещают, что новая система сетевого мониторинга, не будет впускать хакеров в сеть и отключит их еще до того, как они смогут как-либо навредить.

Система защиты от вторжений Checkmate компании Psynapse в реальном времени оценивает действия каждого посетителя сети, и если она замечает поведение, указывающее на попытки взлома безопасности, автоматически ограничивает доступ взломщика. По словам основателя и СЕО Psynapse Гарри Джексона это большой прогресс по сравнению с существующими системами, которые обычно лишь посылают сигналы тревоги сетевым администраторам. Система Checkmate отличается от существующих систем мониторинга, которые в основном представляют собой системы на основе продукционных правил или на основе распознавания подписей. Такие технологии ограничены, поскольку базируются на распознавании известных алгоритмов взлома и последовательных обновлениях баз данных.

Для создания Checkmate Джексон обратился к наукам о поведении и в основу системы заложил нейронную сеть. Используя процесс, сходный с тем, который протекает при развитии психологических оценок, эксперты по компьютерной безопасности Psynapse описали алгоритмы поведения, о которых программа будет сообщать администраторам. "Однажды столкнувшись с явлением, обучившись", - говорит Джексон, - "Checkmate может обобщить его и использовать в ситуациях, с которыми она раньше никогда не сталкивалась". По данным компании тестирование показывает, что Checkmate так же аккуратна, как и человек – и намного быстрее. По сравнению с людьми-экспертами, Checkmate "гораздо стремительнее, тот есть может оценить намерения пользователей сети в реальном времени," говорит Джексон. Checkmate, продажи которой начнутся в январе, будет продаваться как готовое к использованию приложение. Ожидаемая начальная цена - $30,000 за единицу товара.

О возможностях использования нейронных сетей можно говорить бесконечно. Они используются в финансовом прогнозировании,….И в первую очередь в построении искусственного интеллекта и интеллектуальных роботов. Актуальность развития этой сферы науки очевидна.

Развитие искусственных нейронных сетей вдохновляется биологией. То есть рассматривая сетевые конфигурации и алгоритмы, исследователи мыслят их в терминах организации мозговой деятельности. Но на этом аналогия может и закончиться. Наши знания о работе мозга столь ограничены, что мало бы нашлось руководящих ориентиров для тех, кто стал бы ему подражать. Поэтому разработчикам сетей приходится выходить за пределы современных биологических знаний в поисках структур, способных выполнять полезные функции. Во многих случаях это приводит к необходимости отказа от биологического правдоподобия, мозг становится просто метафорой, и создаются сети, невозможные в живой материи или требующие неправдоподобно больших допущений об анатомии и функционировании мозга. Несмотря на то что связь с биологией слаба и зачастую несущественна, искусственные нейронные сети продолжают сравниваться с мозгом.

Для лучшего понимания задачи и ее решения необходимы некоторые знания из анатомии.

1.2 Некоторые сведения из анатомии мозга и нейрона

Мозг состоит из нескольких больших участков, каждый из которых отвечает за какие-то жизненные функции. Мозг включает: ствол головного мозга (задний мозг), мозжечок, лимбическую систему, диэнцифалон и кору головного мозга (рис.1).

Ствол головного мозга – часть мозга, соединяющая головной и спинной мозг. Он контролирует многие основные функции, такие как биение сердца, дыхание, прием пищи, сон. Осуществляет он это с помощью указаний спинному мозгу, другим частям мозга и тела о том, что необходимо делать для выполнения основных функций.

Мозжечок, который составляет всего одну восьмую веса головного мозга, координирует инструкции мозга по привычным повторяющимся действиям и по поддержанию равновесия и сохранению позы. Это выпуклый рельефный участок, расположенный над стволом головного мозга.

На вершине ствола головного мозга под корой расположен участок более эволюционно примитивной структуры – лимбической системы (рис. 2). Лимбическая система задействована во многих наших эмоциях и мотивациях, особенно в тех, что относятся к выживанию, например, страх и гнев, и тех, что связаны с сексуальным поведением.

Рисунок убран из работы и доступен только в оригинальном файле.

Рис.1. Этот рисунок мозга в разрезе демонстрирует некоторые основные области мозга.

Рисунок убран из работы и доступен только в оригинальном файле.

Рис.2. Рисунок мозга в разрезе демонстрирует некоторые внутренние структуры мозга. Амигдалоид и гиппокамп находятся глубоко в мозге, но показано так, чтобы было видно в какой части.

Две крупных структуры лимбической системы – амигдалоид и гиппокамп также отвечают за память.

Гиппокамп - (от греч. Hippocampos - мифическое существо Гиппокамп) небольшая часть мозга, одна из функций которой, кратковременная память и сохранение вновь возникающих воспоминаний. Гиппокамп занимается перекодировкой информации в краткосрочной памяти человека для её последующей записи в долговременной памяти.

Диэнцифалон, который также расположен под корой головного мозга, содержит таламус и гипоталамус (рис.2). Таламус задействован в сенсорном восприятиии и регулировании моторных функций (то есть движений). Он соединяет области коры головного мозга, которые отвечают за сенсорное восприятие и движение, с другими частями головного и спинного мозга, у которых также свои роли в ощущениях и движениях.

Гипоталамус очень маленький, но важный компонент диэнцифалона. Он играет главную роль в регулировании гормонов, гипофиза, температуры тела, надпочечника и прочего.

Кора головного мозга, разделенная на правое и левое полушария, составляет около двух третей массы мозга и покрывает большую часть остальных структур мозга. Это самая развитая часть человеческого мозга, ответственная за мышление, восприятие, употребление и понимание языка. Это также самая молодая структура в плане эволюции мозга. Кора головного мозга может быть разделена на области, каждая из которых выполняет свою функцию (рис. 3). Например, есть области, ответственные за зрение, слух, осязание, движение, обоняние. Другие области отвечают за мышление и объяснение причин. Хотя многие функции, такие как осязание, регулируются и правым и левым полушариями, есть такие, которые управляются только одним полушарием. Например, у многих людей способности к языку зависят только от левого полушария.

Рисунок убран из работы и доступен только в оригинальном файле.

Рис. 3. Рисунок мозга в разрезе демонстрирует доли коры головного мозга и их функции.

Мозг состоит из миллиардов нервных клеток – нейронов. Нейрон (от греч. neuron -нерв ), нервная клетка, состоящая из тела и отходящих от него отростков -относительно коротких дендритов и длинного аксона; основная функциональная и структурная единица нервной системы. Нейрон проводит нервные импульсы от рецепторов в центральную нервную систему (чувствительные нейроны); от центральной нервной системы к исполнительным органам (двигательные нейроны); соединяют между собой другие нервные клетки (вставочные нейроны).

Рисунок убран из работы и доступен только в оригинальном файле.

Рис.4. Схема нейрона

Нейрон проводит электрические импульсы, находясь в возбужденном состоянии. Рассмотрим строение нейрона. В природе не существует "типичного" нейрона, поэтому постараюсь схематически описать свойства, общие для большинства нейронов, хотя в каждом специальном случае эту обобщенную картину придется соответственно модифицировать. Возбуждение нейронов изменяет потенциал дендритов и тела клетки. Эффекты этих изменений сходятся на аксонном холмике. В результате чего, при соответствующей пространственно-временной конфигурации пришедших сигналов, импульс мембранного потенциала начинает распространяться по аксону, расходится по концевым разветвлениям и активизирует концевые синаптические луковички, которые в свою очередь изменяют мембранный потенциал других нейронов или мышечных волокон. Луковички так же называют пуговками. Пуговки лежат на других нейронах или на эффекторах. Места соприкосновения этих веточек с другими клетками называются синапсами.

Хоть и указано направление передачи информации от дендритов к аксону, нейрон может "проводить" в обоих направлениях, но, в большинстве случаев, возбуждение передается на дендрит или сому (соматические - клетки животных или растений, кроме половых) той клетки, с которой он образует синапс (рис. 5). При этом возбуждение сначала передается на холмик, а за тем распространяется по аксону, пока не достигнет концевого разветвления.

Рисунок убран из работы и доступен только в оригинальном файле.

Рис.5. Синапс

Рассмотрим клетку как живое существо, помещенное в мембрану, между наружной и внутренней поверхностью которой существует разность потенциалов. Если изменить эту разность, то это изменение распространяется пассивным образом (как распространяется тепло от нагретого конца к другим частям металлического стержня). Для клеток с короткими отростками этого достаточно чтобы передать сигнал об изменении потенциала из одного конца системы в другой. Но если аксон достаточно длинный, то этого механизма не достаточно.

У клеточных мембран есть дополнительное свойство: когда разность потенциалов превышает так называемый порог, то в цилиндрических образованиях типа аксона возникает импульс, который активно распространяется, сохраняет постоянную амплитуду, то есть не затухает (подобно горению пороха в металлической трубке, то есть происходит цепная реакция передачи энергии от одного слоя пороха другому, регенеративный процесс). Но в трубке порох прогорит и в дальнейшем возможен только пассивный теплообмен. Поэтому аксон лучше сравнивать с перезаряжающимся запалом: представим, что после распространения каждого такого импульса по аксону происходят химические процессы - аналог - перезарядка запала. Поэтому имеется короткий рефрактерный период (рис. 6), во время которого аксон не может передавать импульс; именно в этот период происходит химическое восстановление.

Рисунок убран из работы и доступен только в оригинальном файле.

Рис.6. Осциллограмма колебаний, снятая с изолированного живого нейрона. Запись сделана с LP-нейрона стоматогастрального ЦГР омара, когда активность всех остальных нейронов подавлена. Характерное периодичное затухание является рефрактерным периодом.

Если бы внести разряжение в каком-либо участке по длине аксона, то возбуждение пошло бы в обе стороны. Однако, если импульс возникает на одном конце аксона (обычно на холмике), то он может распространяться лишь в одном направлении, так как возбужденный конец становится рефракторным и остается в таком состоянии довольно долго. Передвигаясь по аксону, он вызывает новые импульсы в каждом из ответвлений (или коллатералий), а те, в свою очередь, вызывают новые импульсы в каждой из более тонких веточек. Когда же импульс доходит до концевой пуговки, то после небольшой задержки на мембране клетки, с которой аксон образует синапс, возникает разность потенциалов. Мембрана концевой пуговки называется пресинаптической мембраной, а мембрана той, клетки, на которую передается импульс, - постсинаптической. В большинстве случаев непосредственная причина изменения потенциала постсинаптической мембраны имеет не электрическую, а химическую природу. В некоторых синапсах изменение поляризации происходит без химических медиаторов. Но, как правило, электрический импульс, достигнув концевой пуговки, вызывает выделение из так называемых синаптических пузырьков вещества, называемого медиатором, которое диффундирует через небольшую синаптическую щель к постсинаптической мембране. Попав на эту мембрану, медиатор вызывает изменение ее поляризации. Медиатор по своему действию может быть двух основных типов: возбуждающим, если он изменяет разность потенциалов на постсинаптической мембране в направлении к пороговому значению, или тормозным, то есть изменяет разность потенциалов в обратную сторону. Здесь действует закон Дейла: если проследить за всеми ветвлениями одного и того же аксона, то все синапсы, образуемые этим аксоном с другими клетками, окажутся либо только возбуждающими, либо только тормозными. Но закон Дейла выведен для беспозвоночных, и может оказаться неверным даже для млекопитающих.

Импульс, достигший концевой пуговки аксона, обычно вызывает лишь предпороговое возбуждение постсинаптической мембраны. Но синапсов обычно много и от одного, и от многих нейронов, и поэтому, накапливаясь, потенциалы, передаваясь пассивным методом, подойдут к аксонному холмику, и суммарное возбуждение может превзойти пороговое, то есть получаем, так называемый, резонанс. Когда согласованный эффект многих таких подпороговых изменений в аксоном холмике превысит порог, и, если это происходит в момент, когда рефрактерный период после предыдущего возбуждения уже закончился, то вдоль аксона начнет распространяться следующий импульс. Если же кумулятивный эффект окажется гораздо больше нормального, то он может превысить и текущее значение порога, прежде чем тот вернется к своему нормальному значению. Период, в течение которого никакое повторное раздражение, не зависимо от его силы, не может вызвать второй импульс, называется абсолютным рефракторным периодом. Когда же очень сильное входное возбуждение может привести к возникновению в аксоне второго импульса, то говорят об относительном рефракторном периоде.

Таким образом, нейрон воспринимает химический сигнал, и реагирует на него повышением или понижением ответов. В этих процессах восприятия химических сигналов и генерации импульсов нейроном важную роль играют перестройки надмолекулярных структур в различных частях данной нервной клетки, а также волны структурных перестроек, сопровождающие передачу информации в пределах данного нейрона и от одного нейрона к другому. Процессы метаболизма (обеспечивающие, в частности, клетку энергией) восстанавливают эти надмолекулярные структуры перестраивающиеся в процессе передачи информации.

2. Основная часть 2.1 Введение

От процесса мышления можно провести аналогию к процессу распознавания. Процесс распознавания образа в нейрокомпьютерах обладает почти всеми свойствами мышления. Действительно:

— он происходит в нейросетях, у человека — в реальных, в компьютере — в искусственных. Основные принципы функционирования тех и других можно считать одинаковыми;

— в нем происходит обработка информации;

— принятие решения в данном случае сводится к выбору класса (из числа обученных), к которому принадлежит данный объект;

—при недостатке информации принятие решения — акт творчества. Для этого в нейрокомпьютере есть все необходимое, включая аппарат рецепции информации, перемешивающий слой (больцмановский шум) и запоминание результата. Момент принятия решения нейро-процессор умеет выбирать сам. В нейрокомпьютере решение принимается интуитивно;

—каждый нейрокомпьютер индивидуален. Это проявляется на разных стадиях обучения. Так, локализация образа в процессоре Гроссберга происходит в элементе, выбранном случайно. В исходно одинаковых процессорах эти элементы, как правило, не совпадают. Это немешает работе процессора, но определяет его индивидуальность.

Нейронная сеть представляет собой систему динамически взаимодействующих элементов с набором входных и выходных сигналов. Простейший вариант такого дискретного элемента показан на рис. 7а, где j1 входные функции, Ф (j1, j2, j3,… jn) — семейство входных функций, j1, аj2, аj3, ..., аjn} — набор чисел (весовых коэффициентов), q — пороговая функция, y — выходная функция. Пусть X— набор признаков внешних стимулов, воздействующих на рецепторы, генерирующие входные функции ji. В дискретном пороговом варианте y(Х) = 1 тогда и только тогда, когда Sajiji(Х) > q. На интуитивном уровне ясно, что каждое ji из семейства Ф содержит определенные сведения о том, будет ли истинной или ложной выходная функция y для каждой внешней ситуации X. Если в целом y(Х) имеет положительную корреляцию с семейством j(Х), то можно ожидать, что и веса будут положительными, тогда как при отрицательной корреляции отрицательными будут и веса aj. Однако идею корреляции в данном случае следует воспринимать не буквально, а лишь как аналогию. В нейронных сетях, как будет ясно из дальнейшего изложения, возможны более сложные зависимости, нежели просто корреляционные соотношения. В зависимости от решаемой задачи элементы нейронной сети могут с различной степенью детализации имитировать принципы функционирования отдельных нейронов, нейронных популяций (например, тормозных и возбуждающих) или нейронных структур. В классических нейрофизиологических экспериментах этим уровням детализации соответствуют импульсная активность одиночных нейронов, локальный полевой потенциал нейронных ансамблей и электроэнцефалограммы (ЭЭГ), получаемые методом многоэлектродного отведения от мозга в целом.

Рисунок убран из работы и доступен только в оригинальном файле.

Рис7а, б. Простейший вариант нейронной сети (а) и его механическая аналогия (б)

Простейшей механической аналогией вычислений в нейронных сетях являются в одномерном случае "качели с распределенным расположением груза", в двумерном — "скатывание шарика по поверхности, испещренной оврагами". На рисунке 76 в качестве примера показаны "качели". Допустим, что внешняя ситуация X отображена в виде расположения грузов в некоторых зонах {p1, p2 , … , рп}- Пусть ji(X) = 1, когда груз находится в i-й точке. Для случая, изображенного на рис. 76, имеем ai = (i4), q = 0, результат вычисления будет: S(i4) jI(X) > 0, а логическое заключение о ситуации — "доска наклонится вправо", т. е. при распознавании двух ситуаций, будет выбрана одна.

Мозг человека выполняет трудную задачу обработки непрерывного потока сенсорной информации, получаемой из окружающего мира. Из потока тривиальной информации он должен выделить жизненно важную информацию, обработать ее и, возможно, зарегистрировать в долговременной памяти. Понимание процесса человеческой памяти представляет собой серьезную проблему; новые образы запоминаются в такой форме, что ранее запомненные не модифицируются и не забываются. Это создает дилемму: каким образом память остается пластичной, способной к восприятию новых образов, и в то же время сохраняет стабильность, гарантирующую, что образы не уничтожатся и не разрушатся в процессе функционирования?

Традиционные искусственные нейронные сети оказались не в состоянии решить проблему стабильности-пластичности. Очень часто обучение новому образу уничтожает или изменяет результаты предшествующего обучения. В некоторых случаях это не существенно. Если имеется только фиксированный набор обучающих векторов, они могут предъявляться при обучении циклически. В сетях с обратным распространением, например, обучающие векторы подаются на вход сети последовательно до тех пор, пока сеть не обучится всему входному набору. Если, однако, полностью обученная сеть должна запомнить новый обучающий вектор, он может изменить веса настолько, что потребуется полное переобучение сети.

Итак, основной целью данной работы является создание нейронной сети, являющейся одним из способов решения проблемы стабильности-пластичности.

Одним из результатов исследования этой проблемы является Адаптивная резонансная теория (APT) Гроссберга.

2.2 Постановка задачи 2.2.1 Неформальная постановка задачи

Создание нейронной сети, которая:

-   распознает входной сигнал, если была ему ранее обучена;

-   в случае не распознавания входного сигнала, запоминает его;

-   совершает эти действия с учетом проблемы стабильности-пластичности. Т. е. при подаче на вход сигнала схожего с одним из запомненных ранее, классифицирует его, как узнанный. Если входной сигнал сильно отличается от запомненных ранее, не уничтожая результаты предыдущего обучения, запоминает его.

Программную реализацию осуществить в среде Matlab.

2.2.2 Формальная постановка задачи

Введем обозначения:

– множество входных векторов

Рисунок убран из работы и доступен только в оригинальном файле. – входной вектор

X = (x1,..,xr )

Ai – нейронный ансамбль

aij – j-й нейрон в i-ом ансамбле

M – множество обученных ансамблей нейронов

B – множество порогов

Рисунок убран из работы и доступен только в оригинальном файле. B – вектор порогов, соответствующий одному нейронному ансамблю

Bi = [b1,..br]

bi – порог одного нейрона

n – номер первого необученного ансамбля

Ii – выходной импульс i-го нейронного ансамбля

I = {0;1}

Ii = 1 , когда входной сигнал соответствует запомненному в i-м ансамбле образу, или обучен ему

c – командная переменная

c = {0;1}

T – время полного цикла, Т = Т1 + Т2

T1 – время процесса распознавания

T2 – время процесса обучения

Постановка задачи:

Создать нейронную сеть удовлетворяющую теореме:

T: X :

2.3 Волновая Резонансная Теория 2.3.1 Описание ВPT

Сеть ВPT - это классификатор кривых. В качестве которых могут выступать звуковые кривые (кривые зависимости интенсивности от времени, спектр звука), синусоиды, и т. д.

Входной вектор является аппроксимацией классифицируемой кривой. Один из способов его получения – это дискретизация величины интенсивности по времени. Он классифицируется в зависимости от того, на какой из множества ранее запомненных образов он похож. Свое классификационное решение сеть ВPT выражает в форме генерации единичного импульса одним из ансамблей распознающего слоя. Если входной вектор не соответствует ни одному из запомненных образов, создается новая категория посредством запоминания образа, идентичного новому входному вектору. Если входной вектор мало отличается от какого-либо из ранее запомненных, то произойдет его распознавание, если хотя бы одна компонента входного вектора сильно (не допустимо) отличается от запомненного образа, то узнавания не произойдет. Запомненный образ не будет изменяться, если текущий входной вектор не окажется достаточно похожим на него. Таким образом решается дилемма стабильности-пластичности. Новый образ может создавать дополнительные классификационные категории, однако новый входной образ не может заставить измениться существующую память.

2.3.2 Основные определения и Леммы

Опр1: n – номер 1-го необученного нейрона,

n1 = 1;

Рисунок убран из работы и доступен только в оригинальном файле.при t = T1

Опр2: c – командная переменная,

Рисунок убран из работы и доступен только в оригинальном файле. при t = T1

Опр3: i-й ансамбль обучен Рисунок убран из работы и доступен только в оригинальном файле.:

Рисунок убран из работы и доступен только в оригинальном файле. X

Лемма 1 (об обучении): Рисунок убран из работы и доступен только в оригинальном файле.

Лемма 2 (о командном блоке): Пусть Ii = 1 (при t = T1), => c = 0, Рисунок убран из работы и доступен только в оригинальном файле.

2.3.3 Теорема о стабильности

Теорема (о стабильности): X :

2.3.4 Доказательство

1.  Существование:

X1 : B1 = X1 => I1 = 1 (из Леммы об обучении)

Рисунок убран из работы и доступен только в оригинальном файле.

Рисунок убран из работы и доступен только в оригинальном файле.

Ч. т.д.

2.  Единственность:

От противного

Предположим Рисунок убран из работы и доступен только в оригинальном файле.

Из (1) по Л2 следует, что т. к. Ik = 1 Рисунок убран из работы и доступен только в оригинальном файле., т. е. пункт (2) не возможен

Ч. т.д.

2.3.5 Архитектура ВPT

На рис. 8 показана схема сети ВPT, представленная в виде четырех функциональных модулей. Она включает Блок Управления, N фильтров, N ансамблей нейронов и Командный Модуль. Блок Управления и Командный Модуль обеспечивают управляющие функции, необходимые для обучения и классификации.

Рисунок убран из работы и доступен только в оригинальном файле.

Рис. 8. Схема ВРТ


2.3.6 Принцип работы

Блок управления (БУ) получает на вход вектор x и пропускает его в параллельно во все ансамбли. Вместе с сигналом БУ пропускает номер первого необученного ансамбля n, который при инициализации сети равен 1; и командную переменную c. В случае, если сигнал проходит впервые, т. е. идет его распознавание, командная переменная равна 0.

Перед каждым нейронным ансамблем установлен фильтр. Его функция заключается в том, чтобы не пропускать сигнал в еще не обученный ансамбль. Эта функция реализуется благодаря переменной n. В том случае, если n превышает номер ансамбля, сигнал пропускается и командная переменная обнуляется. В случае, если n равна номеру ансамбля, командная переменная проходит без изменений и входной сигнал пропускается. Если же n меньше номера ансамбля, не пропускается ни входной вектор, ни командная переменная.

В нейронном ансамбле проверяется величина командной переменной. Если она нулевая, то в каждом отдельном нейроне идет сравнение величины элемента входного вектора с ранее запомненной. Если же c=1, то происходит запоминание.

В процессе сравнения, как описывалось ранее, каждый элемент входного вектора проверяется на совпадение с ранее запомненным. Т. е. образ распознается только в случае резонанса входного и сигнала, которому был обучен ансамбль (рис.8).

Рисунок убран из работы и доступен только в оригинальном файле.

Рис.9. Не резонанс.

После процесса сравнения мы получаем сигналы со всех ансамблей. В случае успешного распознавания или обучения, сигнал будет равен единице, в другом случае – нулю. В контрольном блоке идет проверка сигналов со всех ансамблей. Если с одного из них пришел положительный ответ, посылается сигнал об окончании процесса, если ответ нулевой, посылается команда о переходе к обучению.

Блок БУ при получении из контрольного блока команды об обучении, увеличивает номер n на единицу, устанавливает командную переменную в единицу и посылает повторный сигнал. В случае прихода с контрольного блока сигнала об успешном распознавании или обучении, процесс останавливается.

Одной из главных задач при создании нейронной сети является выбор модели нейрона, наиболее подходящей для решаемой сетью задачи. Для этого рассмотрим несколько наиболее известных из разработанных моделей.

2.4 Адаптивная резонансная теория

Сети и алгоритмы APT сохраняют пластичность, необходимую для изучения новых образов, в то же время предотвращая изменение ранее запомненных образов. Эта способность стимулировала большой интерес к APT, но многие исследователи нашли теорию трудной для понимания. Математическое описание APT является сложным, но основные идеи и принципы реализации достаточно просты для понимания. Мы сконцентрируемся далее на общем описании APT; математически более подготовленные читатели смогут найти изобилие теории в литературе, список которой приведен в конце главы. Нашей целью является обеспечение достаточно конкретной информацией, чтобы читатель мог понять основные идеи и возможности, а также провести компьютерное моделирование с целью исследования характеристик этого важного вида сетей.

2.4.1 АРХИТЕКТУРА APT

Адаптивная резонансная теория включает две парадигмы, каждая из которых определяется формой входных данных и способом их обработки. АРТ-1 разработана для обработки двоичных входных векторов, в то время как АРТ-2, более позднее обобщение АРТ-1, может классифицировать как двоичные, так и непрерывные векторы. В данной работе рассматривается только АРТ-1. Читателя, интересующегося АРТ-2, можно отослать к работе [3] для полного изучения этого важного направления. Для краткости АРТ-1 в дальнейшем будем обозначать как APT.

2.4.2 Описание APT

Сеть APT представляет собой векторный классификатор. Входной вектор классифицируется в зависимости от того, на какой из множества ранее запомненных образов он похож. Свое классификационное решение сеть APT выражает в форме возбуждения одного из нейронов распознающего слоя. Если входной вектор не соответствует ни одному из запомненных образов, создается новая категория посредством запоминания образа, идентичного новому входному вектору. Если определено, что входной вектор похож на один из ранее запомненных векторов с точки зрения определенного критерия сходства, запомненный вектор будет изменяться (обучаться) под воздействием нового входного вектора таким образом, чтобы стать более похожим на этот входной вектор.

Запомненный образ не будет изменяться, если текущий входной вектор не окажется достаточно похожим на него. Таким образом решается дилемма стабильности-пластичности. Новый образ может создавать дополнительные классификационные категории, однако новый входной образ не может заставить измениться существующую память.

2.4.3 Упрощенная архитектура APT

На рис. 9 показана упрощенная конфигурация сети APT, представленная в виде пяти функциональных модулей. Она включает два слоя нейронов, так называемых «слой сравнения» и «слой распознавания». Приемник 1, Приемник 2 и Сброс обеспечивают управляющие функции, необходимые для обучения и классификации.

Перед рассмотрением вопросов функционирования сети в целом необходимо рассмотреть отдельно функции модулей; далее обсуждаются функции каждого из них.

Слой сравнения. Слой сравнения получает двоичный входной вектор Х и первоначально пропускает его неизмененным для формирования выходного вектора. На более поздней фазе в распознающем слое вырабатывается двоичный вектор, модифицирующий вектор, как описано ниже.

Каждый нейрон в слое сравнения (рис. 10) получает три двоичных входа (0 или I): (1) компонента хi входного вектора ; (2) сигнал обратной связи Ri – взвешенная сумма выходов распознающего слоя; (3) вход от Приемника 1 (один и тот же сигнал подается на все нейроны этого слоя).

Рисунок убран из работы и доступен только в оригинальном файле.

Рис. 9. Упрощенная сеть АРТ

Рисунок убран из работы и доступен только в оригинальном файле.

Рис. 10. Упрощенный слой сравнения

Чтобы получить на выходе нейрона единичное значение, как минимум два из трех его входов должны равняться единице; в противном случае его выход будет нулевым. Таким образом реализуется правило двух третей, описанное в [З]. Первоначально выходной сигнал G1 Приемника 1 установлен в единицу, обеспечивая один из необходимых для возбуждения нейронов входов, а все компоненты вектора установлены в 0; следовательно, в этот момент вектор идентичен двоичному входному вектору .

Слой распознавания. Слой распознавания осуществляет классификацию входных векторов. Каждый нейрон в слое распознавания имеет соответствующий вектор весов j Только один нейрон с весовым вектором, наиболее соответствующим входному вектору, возбуждается; все остальные нейроны заторможены.

Как показано на рис. 11, нейрон в распознающем •слое имеет, максимальную реакцию, если вектор, являющийся выходом слоя сравнения, соответствует набору его весов, следовательно, веса представляют запомненный образ или экземпляр для категории входных векторов. Эти веса являются действительными числами, а не двоичными величинами. Двоичная версия этого образа также запоминается в соответствующем наборе весов слоя сравнения (рис. 10); этот набор состоит из весов связей, соединяющих определенные нейроны слоя распознавания, один вес на каждый нейрон слоя сравнения.

В процессе функционирования каждый нейрон слоя распознавания вычисляет свертку вектора собственных весов и входного вектора. Нейрон, имеющий веса, наиболее близкие вектору, будет иметь самый большой выход, тем самым выигрывая соревнование и одновременно затормаживая все остальные нейроны в слое.

Как показано на рис. 12, нейроны внутри слоя распознавания взаимно соединены в латерально-тормозящую сеть. В простейшем случае (единственном, рассмотренном в данной работе) предусматривается, что только один нейрон в слое возбуждается в каждый момент времени (т. е. только нейрон с наивысшим уровнем активации будет иметь единичный выход; все остальные нейроны будут иметь нулевой выход). Эта конкуренция реализуется введением связей с отрицательными весами lij с выхода каждого нейрона ri на входы остальных нейронов. Таким образом, если нейрон имеет большой выход, он тормозит все остальные нейроны в слое. Кроме того, каждый нейрон имеет связь с положительным весом со своего выхода на свой собственный вход. Если нейрон имеет единичный выходной уровень, эта обратная связь стремится усилить и поддержать его.

Рисунок убран из работы и доступен только в оригинальном файле.

Рис. 11. Упрощенный слой распознавания

Приемник 2. G2, выход Приемника 2, равен единице, если входной вектор имеет хотя бы одну единичную компоненту. Более точно, G2 является логическим ИЛИ от компонента вектора.

Приемник 1. Как и сигнал G2, выходной сигнал G1 Приемника 1 равен 1, если хотя бы одна компонента двоичного входного вектора равна единице; однако если хотя бы одна компонента вектора равна единице, G1 устанавливается в нуль. Таблица, определяющая эти соотношения:

Рисунок убран из работы и доступен только в оригинальном файле.

Рис. 12. Слой распознавания с латеральным торможением

--------------------------------------------------

ИЛИ от компонента вектора

|

ИЛИ от компонента вектора

| G1 |
---------------------------------------------------------
0 | 0 | 0 |
---------------------------------------------------------
1 | 0 | 1 |
---------------------------------------------------------
1 | 1 | 0 |
---------------------------------------------------------
0 | 1 | 0 |
--------------------------------------------------------- --------------------------------------------------

Сброс. Модуль сброса измеряет сходство между векторами и. Если они отличаются сильнее, чем требует параметр сходства, вырабатывается сигнал сброса возбужденного нейрона в слое распознавания.

В процессе функционирования модуль сброса вычисляет сходство как отношение количества единиц в векторе к их количеству в векторе. Если это отношение ниже значения параметра сходства, вырабатывается сигнал сброса.

2.4.4 Функционирование сети APT в процессе классификации

Процесс классификации в APT состоит из трех основных фаз: распознавание, сравнение и поиск.

Фаза распознавания. В начальный момент времени входной вектор отсутствует на входе сети; следовательно, все компоненты входного вектора можно рассматривать как нулевые. Тем самым сигнал G2 устанавливается в 0 и, следовательно, в нуль устанавливаются выходы всех нейронов слоя распознавания. Поскольку все нейроны слоя распознавания начинают работу в одинаковом состоянии, они имеют равные шансы выиграть в последующей конкуренции.

Затем на вход сети подается входной вектор, который должен быть классифицирован. Этот вектор должен иметь одну или более компонент, отличных от нуля, в результате чего и G1, и G2 становятся равными единице. Это «подкачивает» нейроны слоя сравнения, обеспечивая один из двух единичных входов, необходимых для возбуждения нейронов в соответствии с правилом двух третей, тем самым позволяя нейрону возбуждаться, если соответствующая компонента входного вектора равна единице. Таким образом, в течение данной фазы вектор в точности дублирует вектор.

Далее для каждого нейрона в слое распознавания вычисляется свертка вектора его весов Вj и вектора (рис. 11). Нейрон с максимальным значением свертки имеет веса, наилучшим образом соответствующие входному вектору. Он выигрывает конкуренцию и возбуждается, одновременно затормаживая все остальные нейроны этого слоя. Таким образом, единственная компонента rj вектора (рис. 10) становится равной единице, а все остальные компоненты становятся равными нулю.

В результате, сеть APT запоминает образы в весах нейронов слоя распознавания, один нейрон для каждой категории классификации. Нейрон слоя распознавания, веса которого наилучшим образом соответствуют входному вектору, возбуждается, его выход устанавливается в единичное значение, а выходы остальных нейронов этого слоя устанавливаются в нуль.

Фаза сравнения. Единственный возбужденный в слое распознавания нейрон возвращает единицу обратно в слой сравнения в виде своего выходного сигнала rj. Эта единственная единица может быть визуально представлена в виде «веерного» выхода, подающегося через отдельную связь с весом tij на каждый нейрон в слое сравнения, обеспечивая каждый нейрон сигналом рj, равным величинеtij (нулю или единице) (рис. 13).

Рисунок убран из работы и доступен только в оригинальном файле.

Рис. 13. Путь сигнала отдельного возбужденного нейрона в слое распознавания

Алгоритмы инициализации и обучения построены таким образом, что каждый весовой вектор Тj имеет двоичные значения весов; кроме того, каждый весовой вектор Вj представляет собой масштабированную версию соответствующего вектора Тj. Это означает, что все компоненты (вектора возбуждения слоя сравнения) также являются двоичными величинами.

Так как вектор не является больше нулевым, сигнал G1 устанавливается в нуль. Таким образом, в соответствии с правилом двух третей, возбудиться могут только нейроны, получающие на входе одновременно единицы от входного вектора и вектора.

Другими словами, обратная связь от распознающего слоя действует таким образом, чтобы установить компоненты в нуль в случае, если входной вектор не соответствует входному образу, т. е. если и не имеют совпадающих компонент.

Если имеются существенные различия между и (малое количество совпадающих компонент векторов), несколько нейронов на фазе сравнения будут возбуждаться и будет содержать много нулей, . в то время как содержит единицы. Это означает, что возвращенный вектор не является искомым и возбужденные нейроны в слое распознавания должны быть заторможены. Это торможение производится блоком сброса (рис. 9), который сравнивает входной вектор и вектор и вырабатывает сигнал сброса, если степень сходства этих векторов меньше некоторого уровня. Влияние сигнала сброса заключается в установке выхода возбужденного нейрона в нуль, отключая его на время текущей классификации.

Фаза поиска. Если не выработан сигнал сброса, сходство является адекватным, и процесс классификации завершается. В противном случае другие запомненные образы должны быть исследованы с целью поиска лучшего соответствия. При этом торможение возбужденного нейрона в распознающем слое приводит к установке всех компонент вектора в 0, G1 устанавливается в 1 и входной вектор опять прикладывается в качестве. В результате другой нейрон выигрывает соревнование в слое распознавания и другой запомненный образ возвращается в слой сравнения. Если не соответствует, возбужденный нейрон в слое распознавания снова тормозится. Этот процесс повторяется до тех пор, пока не встретится одно из двух событий:

1.  Найден запомненный образ, сходство которого с вектором выше уровня параметра сходства, т. е. S>r. Если это происходит, проводится обучающий цикл, в процессе которого модифицируются веса векторов j и j, связанных с возбужденным нейроном в слое распознавания.

2.  Все запомненные образы проверены, определено, что они не соответствуют входному вектору, и все нейроны слоя распознавания заторможены. В этом случае предварительно не распределенный нейрон в распознающем слое выделяется этому образу и его весовые векторы j и j устанавливаются соответствующими новому входному образу.

Проблема производительности. Описанная сеть должна производить последовательный поиск среди всех запомненных образов. В аналоговых реализациях это будет происходить очень быстро; однако при моделировании на обычных цифровых компьютерах этот процесс может оказаться очень длительным. Если же сеть APT реализуется на параллельных процессорах, все свертки на распознающем уровне могут вычисляться одновременно. В этом случае поиск может быть очень быстрым.

Время, необходимое для стабилизации сети с латеральным торможением, может быть длительным при моделировании на последовательных цифровых компьютерах. Чтобы выбрать победителя в процессе латерального торможения, все нейроны в слое должны быть вовлечены в одновременные вычисления и передачу. Это может потребовать проведения большого объема вычислений перед достижением сходимости. Латеральные тормозящие сети, аналогичные используемым в неокогнитронах, могут существенно сократить это время.

2.4.5 Теоремы APT

Наиболее важные теоремы, показывающие характеристики сетей APT:

1.  После стабилизации процесса обучения предъявление одного из обучающих векторов (или вектора с существенными характеристиками категории) будет активизировать требуемый нейрон слоя распознавания без поиска. Эта характеристика «прямого доступа» определяет быстрый доступ к предварительно изученным образам.

2.  Процесс поиска является устойчивым. После определения выигравшего нейрона в сети не будет возбуждений других нейронов в результате изменения векторов выхода слоя сравнения ; только сигнал сброса может вызвать такие изменения.

3.  Процесс обучения является устойчивым. Обучение не будет вызывать переключения с одного возбужденного нейрона слоя распознавания на другой.

4.  Процесс обучения конечен. Любая последовательность произвольных входных векторов будет производить стабильный набор весов после конечного количества обучающих серий; повторяющиеся последовательности обучающих векторов не будут приводить к циклическому изменению весов.

2.5 Выбор модели нейрона.

Рисунок убран из работы и доступен только в оригинальном файле.

Рис. 14. (а) Схематическое изображение нейрона: 1 – тело клетки (сома), 2 – мембрана, 3 – дендриты, 4 – аксон, 5 – синаптическое окончание, (б) Ионные каналы в мембране нейрона: К, Na, Са – ионы калия, натрия, кальция, (в) Эквивалентная электрическая схема мембраны нейрона: GNa, GK, GCa,…— нелинейные ионные проводимости; Rm сопротивление утечки; Ст – емкость мембраны; ENa, EK,…–равновесные потенциалы для соответствующих токов.

На рис. 14 схематически изображены нервная клетка и клеточная мембрана. Для построения адекватной динамической модели нейрона принципиально, что окружающая его мембрана нередко представляет собой эквипотенциальную поверхность. Поэтому, несмотря на вполне макроскопические размеры нейрона, при анализе его электрической активности (частота 4-60 Гц) нервную клетку можно рассматривать как сосредоточенную в пространстве систему. Другими словами, переменные, описывающие состояние нейрона (мембранный потенциал, концентрацию тех или иных ионов и т. д.), можно рассматривать как функции только времени. Другой важный вопрос связан со способом описания активности нейронов. Поскольку состояние нейрона определяется неравновесной диффузией различных заряженных ионов, для моделирования его активности, вообще говоря, следует использовать кинетическое описание. Однако, когда мы интересуемся нейроном как генератором низкочастотных электрических пульсаций, такое описание, очевидно, избыточно. Для построения соответствующей теории вполне достаточно уравнений для средних по времени t0 << Т (Т — характерный период электрической активности нейрона) динамических переменных: мембранного потенциала и макроскопических ионных токов. При этом нейрон можно рассматривать как нелинейную электрическую цепь из RC-элементов. Источником энергии для работы этой диссипативной системы служат биохимические процессы, связанные со взаимодействием внутриклеточной и межклеточной сред.

Осцилляторная активность нейрона определяется тем, что это неравновесная система с разнообразными обратными связями, в том числе и запаздывающими. Именно благодаря этим обратным связям, закрывающим или открывающим ионные каналы в соответствующей фазе электрической активности мембраны, состояние нейрона, отвечающее потенциалу покоя, может стать неустойчивым, и он превращается в генератор. Такой генератор можно рассматривать как динамическую систему, в рамках которой микроскопическая кинетика проявляется лишь как малые флуктуации.

Нелинейные динамические модели нейронов, которые строятся для объяснения обнаруживаемых феноменов и предсказания новых (в чем, собственно, и состоит назначение теории), в значительной степени зависят от того нейрофизиологического эксперимента, на который они опираются. Так, для описания нейронов ЦГ обычно используются варианты классической модели Ходжкина-Хаксли (1952 г.), включая ее разнообразные обобщения, учитывающие дополнительные мембранные токи, или, наоборот, более упрощенные, использующие в качестве переменных мембранный потенциал V(t) и некоторые вспомогательные токи, описывающие процессы двух типов быстрые Ie(t) и медленные IM(t) (см., например, [13-15]).

Типичная обобщенная модель Ходжкина-Хаксли (в широком смысле conductance-based model) имеет вид

Рисунок убран из работы и доступен только в оригинальном файле.

где V(t) — электрический потенциал клеточной мембраны, С характеризует электрическую емкость мембраны, i обозначает вид тока, текущего через мембрану, или, как говорят, тип ионного канала (калиевого, натриевого, кальциевого канала, канала утечки), gi — максимальная проводимость, Vi — равновесный потенциал (потенциал реверсии) для i-го канала, ai и bi — переменные, характеризующие активацию и инактивацию i-го канала, эти переменные можно рассматривать, например, как вероятности открытия или закрытия того или иного канала, a pi и qi представляют собой число управляющих частиц, достаточное, чтобы открыть или закрыть канал (обычно это целые числа от нуля до четырех). ai (V) и bi(V) — стационарные состояния уровня активации и инактивации, они зависят от V сигмоидным образом, так же как и характерные времена релаксации фai(V) и фai(V). В классической работе Ходжкина и Хаксли [14] N = 3.

Сейчас популярны и более простые модели подобного типа. Одна из них — модель Морриса-Лекара [15]:

Рисунок убран из работы и доступен только в оригинальном файле.

где m(V), W(V), ф(V) — функции сигмоидного типа. Здесь учтена всего лишь одна переменная W, описывающая активацию нейрона. Естественно, что в рамках динамической модели с двумерным фазовым пространством невозможно описать все детали динамики нейрона и, в первую очередь, хаотические колебания мембранного потенциала клетки, наблюдаемые в различных экспериментах [16, 17] (поскольку странный аттрактор не может быть вложен в двумерное пространство). Поэтому сейчас весьма широко используются трехмерные модели, также опирающиеся на формализм Ходжкина-Хаксли. Это, например, модель Чэй [18] и др.

Формализм Ходжкина и Хаксли, основанный на детальном анализе ионного транспорта через мембрану, получил широкое распространение. Но весьма продуктивны и феноменологические модели, описывающие основные особенности динамики нейронов. Одна из моделей такого типа — модель Розе-Хиндмарш [19] (более подробно см. раздел 3):

Рисунок убран из работы и доступен только в оригинальном файле.

где х – мембранный потенциал, у характеризует "быстрые" токи (например, калиевые и натриевые), а z "медленные" токи, I внешний ток, а, Ь, с, d, r, s, х0 – постоянные параметры.

При обсуждении динамических процессов в коре головного мозга наиболее часто используется модель нейронной активности Вилсона и Кована (1972 г.), учитывающая взаимодействие двух связанных популяций нейронов подавляющих и возбуждающих [20]:

Рисунок убран из работы и доступен только в оригинальном файле.

где Е и I – безразмерные величины, характеризующие активность возбуждающих и тормозящих нейронов соответственно. Здесь параметр е < 1, поскольку постоянные времени для торможения, как правило, больше характерных времен возбуждения, F функция сигмоидного типа: F=l/(l+e-x) или F= 1/2 + (1/р) arctanx.

При моделировании больших ансамблей нейронов часто используют и совсем простые точечные модели в виде фазовых осцилляторов, к которым сводятся системы осцилляторов общего вида с периодическим поведением и слабыми парными связями (см., например, [21], обзор [22]):

Рисунок убран из работы и доступен только в оригинальном файле.

или еще более простые модели переключательного, спинового, типа, подобные тем, которые широко применяются в теории фазовых переходов.

Описанные выше модели нейронов дублируют именно физиологические и анатомические особенности отдельного нейрона. Но при создании нейронной сети нет необходимости в таком точном воспроизведении естественного нейрона. Необходим нейрон, удовлетворяющий поставленным требованиям, и не усложненный реализацией лишних в рамках поставленной задачи физиологических особенностей, так как это будет негативно отражаться на быстродействии сети. Необходима упрощенная, но подходящая для поставленной задачи распознавания модель.

В поставленной задаче необходим пороговый, импульсный нейрон, удовлетворяющий требованию пластичности и стабильности. Для решения этой задачи я взяла двухпороговый нейрон (рис. 15).

Рисунок убран из работы и доступен только в оригинальном файле.

Рис.15. Двухпороговый нейрон.

При прохождении входным сигналом нижнего порога, и не превышении верхнего, нейрон срабатывает и генерирует импульс.

После обучения нейронного ансамбля, он будет узнавать только сигнал, мало отличающийся от запомненного. Т. е. ансамбль будет генерировать положительный импульс только в случае резонанса входного сигнала и сигнала, которому обучен ансамбль (рис. 16).

Рисунок убран из работы и доступен только в оригинальном файле.

Рис.16. Резонанс.

2.6 Результат работы 2.6.1 Реализация ВРТ в среде Matlab с использованием пакета Sim

Здесь опубликована для ознакомления часть дипломной работы "Волновая резонансная теория". Эта работа найдена в открытых источниках Интернет. А это значит, что если попытаться её защитить, то она 100% не пройдёт проверку российских ВУЗов на плагиат и её не примет ваш руководитель дипломной работы!
Если у вас нет возможности самостоятельно написать дипломную - закажите её написание опытному автору»


Просмотров: 409

Другие дипломные работы по специальности "Коммуникации и связь":

«Реклама и связи с общественностью», «Маркетинг»

Смотреть работу >>

Ремонт системы управления видеокамер аналогового формата

Смотреть работу >>

Теория электрических цепей

Смотреть работу >>

Роботизированные комплексы (РТК) предназначенные для технологического процесса сборки

Смотреть работу >>

Моделирование и методы измерения параметров радиокомпонентов электронных схем

Смотреть работу >>