ИНСТИТУТ ВЫЧИСЛИТЕЛЬНОГО МОДЕЛИРОВАНИЯ СО РАН КРАСНОЯРСКИЙ ГОСУДАРСТВЕННЫЙ ТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ На правах рукописи МИРКЕС ЕВГЕНИЙ МОИСЕЕВИЧ Функциональные Модели универсального нейрокомпьютера 05.13.11 – Математическое и программное обеспечение вычислительных машин, комплексов и компьютерных сетей Диссертация на соискание ученой степени доктора технических наук Консультант: д.ф.-м.н., профессор А.Н. Горбань Красноярск 2001 Оглавление Общая характеристика работы Введение к диссертации 1. Функциональные компоненты 1.1. Краткий обзор нейрокомпьютеров 1.2. Выделение компонентов 1.3. Запросы компонентов нейрокомпьютера 1.3.1. Запросы к задачнику 1.3.2. Запрос к предобработчику 1.3.3. Запрос к исполнителю 1.3.4. Запросы к учителю 1.3.5. Запрос к контрастеру 1.3.6. Запрос к оценке 1.3.7. Запрос к интерпретатору ответа 1.3.8. Запросы к сети 1.4. Запросы общие для всех компонентов 1.4.1. Стандарт типов данных 1.4.2. Переменные типа цвет и операции с цветами 1.4.2.1. Значение переменной типа цвет (Color) 1.4.2.2. Операции с переменными типа цвет (Color) 1.4.3. Предопределенные константы 1.4.4. Использование памяти 1.4.5. Обработка ошибок 1.4.5.1. Процедура обработки ошибок 1.4.5.2. Установить обработчик ошибок (OnError) 1.4.5.3. Дать номер ошибки (GetError) 1.4.6. Запросы, однотипные для всех компонентов 1.4.6.1. Запрос на установление текущего компонента Сделать текущей (xxSetCurrent) 1.4.6.2. Запросы, работающие со структурой компонента Добавление нового экземпляра (xxAdd) Удаление экземпляра компонента (xxDelete) Запись компонента (xxWrite) Вернуть имена структурных единиц (xxGetStructNames) Вернуть тип структурной единицы (xxGetType) 1.4.6.3. Запросы на изменение параметров Получить параметры (xxGetData) Получить имена параметров (xxGetName) Установить параметры (xxSetData) 1.4.6.4. Инициация редактора компоненты Редактировать компонента (xxEdit) 2. Задачник и обучающее множество 2.1. Структуры данных задачника 2.2. Поля задачника 2.3. Состав данных задачника 2.3.1. Цвет примера и обучающая выборка 2.3.2. Входные данные 2.3.3. Комментарии 2.3.4. Предобработанные данные 2.3.5. Правильные ответы 2.3.6. Полученные ответы 2.3.7. Оценки 2.3.8. Вес примера 2.3.9. Достоверность ответа 2.3.10. Уверенность в ответе 2.4. Запросы к компоненту задачник 2.4.1. Чтение и запись задачника 2.4.1.1. Прочитать задачник (tbAdd) 2.4.1.2. Записать задачник (tbWrite) 2.4.1.3. Закрыть задачник (tbDelete) 2.4.2. Начало и конец сеанса 2.4.2.1. Начало сеанса (InitSession) 2.4.2.2. Конец сеанса (EndSession) 2.4.3. Перемещение по примерам 2.4.3.1. В начало (Home) 2.4.3.2. В конец (End) 2.4.3.3. Следующий (Next) 2.4.3.4. Предыдущий (Prev) 2.4.3.5. Конец (Last) 2.4.3.6. Начало (First) 2.4.3.7. Пример номер (Example) 2.4.4. Определение, получение и изменение данных 2.4.4.1. Дать пример (Get) 2.4.4.2. Обновить данные (Put) 2.4.4.3. Сбросить предобработку (RemovePrepare) 2.4.5. Окраска примеров 2.4.5.1. Дать цвет примера (GetColor) 2.4.5.2. Покрасить пример (PaintCurrent) 2.4.6. Ошибки компонента задачника 3. Предобработчик 3.1. Нейрон 3.2. Различимость входных данных 3.3. Классификация компонентов входных данных 3.4. Кодирование бинарных признаков 3.5. Кодирование неупорядоченных качественных признаков 3.6. Кодирование упорядоченных качественных признаков 3.7. Числовые признаки 3.8. Простейшая предобработка числовых признаков 3.9. Оценка способности сети решить задачу 3.9.1. Оценка константы Липшица сети 3.9.2. Способ вычисления константы Липшица 3.9.3. Синапс 3.9.4. Умножитель 3.9.5. Точка ветвления 3.9.6. Сумматор 3.9.7. Нелинейный Паде преобразователь 3.9.8. Нелинейный сигмоидный преобразователь 3.9.9. Адаптивный сумматор 3.9.10. Константа Липшица сигмоидной сети 3.10. Предобработка, облегчающая обучение 3.11. Другие способы предобработки числовых признаков 3.11.1. Модулярная предобработка 3.11.2. Функциональная предобработка 3.11.3. Позиционная предобработка 3.12. Составной предобработчик 3.13. Запросы к компоненту предобработчик 3.13.1. Запрос на предобработку 3.13.1.1. Предобработать вектор сигналов (Prepare) 3.13.2. Остальные запросы 3.13.3. Ошибки компонента предобработчик 4. Описание нейронных сетей 4.1. Конструирование нейронных сетей 4.1.1. Элементы нейронной сети 4.1.2. Составные элементы 4.1.3. Функционирование сети 4.1.4. Методы построения двойственных сетей 4.1.5. Элементы самодвойственных сетей 4.1.5.1. Синапс 4.1.5.2. Умножитель 4.1.5.3. Точка ветвления 4.1.5.4. Сумматор 4.1.5.5. Нелинейный Паде преобразователь 4.1.5.6. Нелинейный сигмоидный преобразователь 4.1.5.7. Произвольный непрерывный нелинейный преобразователь 4.1.5.8. Пороговый преобразователь 4.1.6. Правила остановки работы сети 4.1.7. Архитектуры сетей 4.1.8. Модификация синаптической карты (обучение) 4.1.9. Контрастирование и нормализация сети 4.2. Примеры сетей и алгоритмов их обучения 4.2.1. Сети Хопфилда 4.2.2. Сеть Кохонена 4.2.3. Персептрон Розенблатта 4.3. Язык описания нейронных сетей 4.3.1. Структура компонента 4.3.2. Сигналы и параметры 4.3.3. Обучаемые и не обучаемые параметры и сигналы 4.3.4. Дополнительные переменные 4.3.5. Приведение и преобразование типов 4.3.6. Операции 4.3.7. Язык описания нейронных сетей 4.3.7.1. Ключевые слова языка 4.3.7.2. Передача аргументов функциям 4.3.7.3. Имена структурных единиц 4.3.7.4. Способ описания синтаксических конструкций 4.3.7.5. Описание общих синтаксических конструкций 4.3.7.6. Комментарии 4.3.7.7. Область действия переменных 4.3.7.8. Основные операторы 4.3.7.9. Описание распределения сигналов 4.3.7.10. Функции управления памятью 4.3.7.11. БНФ языка описания сетей 4.3.7.12. Описание языка описания сетей Описание и область действия переменных Методы Forw и Back для блоков Описание элементов Пример описания элементов Описание блоков Пример описания блоков 4.3.7.13. Сокращение описания сети Раздел описания сигналов и параметров Раздел описания связей Частично сокращенное описание Пример сокращенного описания блоков 4.4. Запросы к компоненту сеть 4.4.1. Запросы к компоненту сеть 4.4.2. Запросы на функционирование 4.4.2.1. Выполнить прямое Функционирование (Forw) 4.4.2.2. Выполнить обратное Функционирование (Back) 4.4.3. Запросы на изменение параметров 4.4.3.1. Провести обучение (Modify) 4.4.3.2. Изменить маску обучаемости (ModifyMask) 4.4.3.3. Обнулить градиент (NullGradient) 4.4.3.4. Случайное направление спуска (RandomDirection) 4.4.4. Запросы, работающие со структурой сети 4.4.4.1. Вернуть параметры сети (nwGetData) 4.4.4.2. Установить параметры сети (nwSetData) 4.4.4.3. Нормализовать сеть (NormalizeNet) 4.4.5. Остальные запросы 4.4.6. Ошибки компонента сеть 5. Оценка и интерпретатор ответа 5.1. Интерпретатор ответа 5.2. Уровень уверенности 5.3. Построение оценки по интерпретатору 5.4. Оценка обучающего множества. Вес примера 5.5. Глобальные и локальные оценки 5.6. Составные интерпретатор ответа и оценка 5.7. Запросы к компоненту интерпретатор ответа 5.7.1. Запрос на интерпретацию 5.7.1.1. Интерпретировать массив сигналов (Interpretate) 5.7.2. Остальные запросы 5.7.3. Ошибки компонента интерпретатор ответа 5.8. Запосы к компоненту оценка 5.8.1. Запрос на оценивание 5.8.1.1. Оценить массив сигналов (Estimate) 5.8.2. Остальные запросы 5.8.2.1. Установить параметры (SetEstIntParameters) 5.8.3. Ошибки компонента оценка 6. Исполнитель 6.1. Описание компонента исполнитель 6.2. Запросы к компоненту исполнитель 6.2.1. Позадачная обработка (TaskWork) 6.2.2. Обработка обучающего множества (TaskSetWork) 6.2.3. Ошибки компонента исполнитель 7. Учитель 7.1. Что можно обучать методом двойственности 7.2. Задача обучения сети 7.3. Описание алгоритмов обучения 7.3.1. Краткий обзор макрокоманд учителя 7.3.2. Неградиентные методы обучения 7.3.2.1. Метод случайной стрельбы 7.3.2.2. Метод покоординатного спуска 7.3.2.3. Подбор оптимального шага 7.3.2.4. Метод случайного поиска 7.3.2.5. Метод Нелдера-Мида 7.3.3. Градиентные методы обучения 7.3.3.1. Метод наискорейшего спуска 7.3.3.2. kParTan 7.3.3.3. Квазиньютоновские методы 7.4. Запросы к компоненту учитель 7.4.1. Обучение сети 7.4.1.1. Обучить сеть (InstructNet) 7.4.1.2. Провести N шагов обучения (NInstructSteps) 7.4.1.3. Прервать обучение (CloseInstruction) 7.4.2. Чтение/запись учителя 7.4.2.1. Прочитать учителя (inAdd) 7.4.2.2. Удаление учителя (inDelete) 7.4.2.3. Запись компонента (inWrite) 7.4.3. Инициация редактора учителя 7.4.3.1. Редактировать компонент (inEdit) 7.4.4. Работа с параметрами учителя 7.4.4.1. Получить параметры (inGetData) 7.4.4.2. Получить имена параметров (inGetName) 7.4.4.3. Установить параметры (inSetData) 7.4.5. Обработка ошибок 8. Контрастер 8.1. Задачи для контрастера 8.1.1. Упрощение архитектуры нейронной сети 8.1.2. Уменьшение числа входных сигналов 8.1.3. Сведение параметров нейронной сети к выделенным значениям 8.1.4. Снижение требований к точности входных сигналов 8.1.5. Получение явных знаний из данных 8.1.5.1. Построение логически прозрачных сетей 8.1.5.2. Получение явных знаний 8.2. Множества повышенной надежности 8.2.1. Формальная постановка задачи 8.2.2. Классификация дублей 8.2.3. Прямой дубль первого рода 8.2.4. Косвенный дубль первого рода 8.2.5. Прямой дубль второго рода 8.2.6. Косвенный дубль второго рода 8.2.7. Косвенный супердубль 8.3. Процедура контрастирования 8.3.1. Контрастирование на основе показателей значимости 8.3.2. Контрастирование без ухудшения 8.3.3. Гибридная процедура контрастирования 8.3.4. Контрастирование при обучении 8.4. Определение показателей значимости 8.4.1. Определение показателей значимости через градиент 8.4.2. Усреднение по обучающему множеству 8.4.3. Накопление показателей значимости 8.5. Запросы к компоненту контрастер 8.5.1. Контрастирование сети 8.5.1.1. Контрастировать сеть(ContrastNet) 8.5.1.2. Прервать контрастирование (CloseContrast) 8.5.1.3. Контрастировать пример (ContrastExample) 8.5.2. Чтение/запись контрастера 8.5.2.1. Прочитать контрастера (cnAdd) 8.5.2.2. Удаление контрастера (cnDelete) 8.5.2.3. Запись контрастера (cnWrite) 8.5.3. Инициация редактора контрастера 8.5.3.1. Редактировать контрастера (cnEdit) 8.5.4. Работа с параметрами контрастера 8.5.4.1. Получить параметры (cnGetData) 8.5.4.2. Получить имена параметров (cnGetName) 8.5.4.3. Установить параметры (cnSetData) 8.5.5. Обработка ошибок 9. Нейронные сети ассоциативной памяти, функционирующие в дискретном времени 9.1. Описание задачи 9.2. Формальная постановка задачи 9.3. Сети Хопфилда 9.4. Функционирование сети. 9.5. Ортогональные сети 9.6. Тензорные сети 9.7. Сети для инвариантной обработки изображений 9.8. Численный эксперимент 9.9. Доказательство теоремы 10. Заключение 11. Приложение 1. Логически прозрачная сеть для прогнозирования шизофрении 12. Приложение 2. Краткое описание возможностей программы NEUROPRO 12.1. Общие сведения 12.2. Требования к аппаратуре 12.3. Основные возможности программы 12.4. Форматы файлов 12.5. Нейросетевая парадигма 12.6. Подача и снятие сигналов 12.7. Точность решения задачи 12.8. Обучение нейронной сети 12.9. Упрощение нейронной сети 12.10. Вербализация нейронной сети 13. Приложение 3. Акты о внедрении ЛИТЕРАТУРА Введение Общая характеристика работы Актуальность темы. В 80-е годы развитие информатики и средств вычислительной техники во многом определялось программой «Пятое поколение компьютеров». Основной целью данной программы было развитие систем искусственного интеллекта на базе алгоритмических языков. В 1992 году на смену программе «Пятое поколение компьютеров» пришла программа «Вычисления в Реальном мире». Основная цель новой программы – обеспечить возможность вычислительным системам взаимодействовать с реальным миром без посредства человека. Довольно большая часть программы – 30-40% – отведена исследованию естественных нейронных сетей и разработки искусственных нейронных сетей и нейросетевых систем. Искусственные нейронные сети являются вычислительными устройствами, основанными на использовании большого числа очень простых нейронов. Все навыки искусственных нейронных сетей рассредоточены в синаптических связях. Канадский физиолог Д.Хебб в 1949 году описал такой синапс, как основу возможных механизмов памяти и поведения. Таким образом искусственные нейронные сети были предложены фактически сразу, после возникновения кибернетики. Уже сейчас искусственные нейронные сети применяются для решения очень многих задач обработки изображений, управления роботами и непрерывными производствами, для понимания и синтеза речи, для диагностики заболеваний людей и технических неполадок в машинах и приборах, для предсказания курсов валют и результатов скачек. Нейрокибернетика объединяет многие науки и технологии, связанные с изучением устройства нейронных систем и применением полученных знаний в технике и медицине. Та часть работ по нейрокибернетике, которая связана с разработкой устройств переработки информации на основе принципов работы естественных нейронных систем получила название нейроинформатика. Несмотря на то, что термин нейроинформатика возник в середине 80-х годов, сравнение электронного и биологического мозга ведется постоянно на протяжении всей истории существования вычислительной техники. Знаменитая книга Н.Винера "Кибернетика", ознаменовавшая рождение этой науки в 1948 г., имеет подзаголовок "Управление в живых системах, технике и обществе". В середине 80-х размеры элементарных деталей вычислительных устройств стали сравнимы по размерам с нейронами человеческого мозга. Однако, не смотря на то, что быстродействие электронных элементов в миллионы раз выше, с задачами ориентации и принятие решений в естественной среде биологические системы справляются намного эффективнее. Возникла гипотеза, что мозг выигрывает это соревнование за счет специфических механизмов обработки информации. Это послужило основой для активизации фундаментальных и прикладных исследований в области механизмов переработки информации в биологических системах и породило нейроинформатику. Основная задача нейроинформатики – разработка методов создания (синтеза) нейронных схем, решающих те или иные задачи. Нейрон в искусственных нейронных сетях является достаточно простым устройством. Например, нечто вроде усилителя с большим числом входов и одним выходом. Различие между подходами и методами - в деталях представлений о работе нейрона, и, конечно, в представлениях о работе связей. Основное отличие нейрокомпьютеров от обычных компьютеров состоит в том, что в обычных компьютерах есть такие четко выделенные элементы как память и универсальный процессор. В нейрокомпьютере вся память рассредоточена в весах связей между простыми процессорами – нейронами. Таким образом основная нагрузка при решении нейрокомпьютером задачи ложится на структуру связей, задающую архитектуру нейронной сети. Значительную роль в общем подъеме интереса к нейропроблемам сыграла теория, предложенная Джоном Хопфилдом в 1982 г. Другой важный класс нейронных систем введен в рассмотрение финном Тейво Кохоненом. Еще один класс нейроподобных моделей представляют сети с обратным распространением ошибки. Метод имеет длительную историю. В развитии его современных модификаций ведущую роль сыграли французский исследователь ле Кун и профессор А.Н.Горбань из Красноярска. Средства для решения задач нейроинформатики обычно называют нейрокомпьютерами. Нейрокомпьютеры могут быть аппаратными, программными имитаторами или программно-аппаратными комплексами. В данный момент любой нейрокомпьютер не претендует на звание универсального компьютера, а создается для решения определенного круга задач. В мире имеется несколько десятков специализированных фирм, выпускающих продукцию в области нейроинформатики и, кроме того, многие гиганты индустрии (IBM, Siemence, Mitsubishi и др.) ведут исследования и разработки в этой области. Сейчас можно уже говорить о традиционных задачах нейроинформатики. К таковым относятся задачи распознавания образов, речи, радарных сигналов, медицинской диагностики и другие трудно формализуемые задачи. Постоянно появляются все новые области приложений. Одним из наиболее значимых можно назвать задачу первичной обработки данных в физике элементарных частиц. Суть этого приложения состоит в том, что с датчиков поступает огромный поток данных о различных частицах. Необходимо с высокой скоростью отобрать данные об интересующих исследователя частицах и отсеять остальные. Большой интерес к нейрокомпьютерам проявляют также военные ведомства многих стран. Однако основной областью применения нейронных сетей и основанных на их использовании устройств будут по всей видимости системы управления роботов. По мнению одного из ведущих исследователей в области нейроинформатики Р. Хехт-нильсена основной продукцией промышленных фирм через 10 лет будут "нейровычислительные роботы". Цели работы. На основе анализа различных нейросетевых парадигм построить модель универсального нейрокомпьютера. Универсальный нейрокомпьютер должен иметь структуру, позволяющую реализовать большинство нейросетевых парадигм. Разработать метод описания конструирования нейронных сетей и язык записи архитектур нейронных сетей. Метод должен позволять описывать любые нейронные сети, функционирующие в дискретном времени. Описание должно позволять автоматически выделять фрагменты сети, которые могут функционировать параллельно. Разработать тип оценок, позволяющих интерпретатору ответа оценивать уровень уверенности сети в ответе. Разработать методы получения явных алгоритмов решения задачи с помощью нейронных сетей. Разработать метод определения минимального набора входных данных, устойчивого к искажениям во входных данных. Разработать сеть ассоциативной памяти максимальной информационной емкости. Научная новизна и практическая ценность. В данной работе разработана функциональная модель универсального нейрокомпьютера. Определены принципы выделения функциональных компонентов. Проведена декомпозиция нейрокомпьютера на функциональные компоненты в соответствии с предложенными принципами. Показана универсальность разработанной модели – возможность реализации в рамках данной модели всех основных видов нейронных сетей. Предложенная модель позволяет проводить аргументированное сравнение различных реализаций отдельных компонентов нейрокомпьютера, отслеживать взаимосвязи между компонентами. Для каждого компонента разработан полный (исчерпывающий) список запросов. Это позволяет при разработке больших программных комплексов разрабатывать каждый компонент независимо от других. Более того, в пределах одной вычислительной платформы возможно использование один раз запрограммированного компонента в различных программных комплексах (например, при помощи динамически связываемых библиотек (DLL)). Четкое определение функций каждого компонента позволяет разрабатывать для каждого компонента наиболее эффективные реализации независимо от других компонентов. Разработан принцип построения нового типа оценок, названный эффективной функцией оценки. Эффективность предложенного типа оценок состоит в том, что их использование позволяет ускорить обучение нейронной сети, оценить уровень уверенности нейронной сети в полученном ответе, обучить с малой надежностью сеть решению тех задач, которые сеть данной архитектуры не может решить с высокой надежностью, учесть при обучении различие в достоверности ответов в разных примерах. Разработан метод получения явных знаний из данных с помощью логически прозрачных нейронных сетей, получаемых из произвольных обученных сетей специальной процедурой контрастирования (скелетонизации). Этот метод позволяет получить явные зависимости выходных сигналов нейронной сети от входных. В случае решения задач классификации в большинстве случаев удается получить схему логического вывода. Разработан метод построения минимально необходимых наборов входных данных и построения на их основе наборов входных данных повышенной надежности (устойчивости к искажениям во входных данных). Доказаны теоремы, устанавливающие соотношения между такими наборами, построенными различными способами. Разработан метод конструирования нейронных сетей из простейших элементов и более простых сетей. Предложен способ описания процесса конструирования и язык для записи его результата. Сформулировано три метода построения двойственных сетей и проведено их сравнение. Получены оценки способности сети ассоциативной памяти к точному воспроизведению эталонов. В работе рассмотрена сеть Хопфилда, функционирующая в дискретном времени. Разработаны методы, позволяющие повысить ее информационную емкость. С помощью этих методов построены три сети ассоциативной памяти, имеющие большую информационную емкость и менее зависящие от степени коррелированности эталонов. Предложен метод конструирования сетей ассоциативной памяти со свойствами, необходимыми для решения конкретной задачи. Доказана теорема об информационной емкости ортогональной тензорной сети. Предложенная функциональная модель была частично реализована в ряде программных продуктов, разработанных Красноярской группой Нейрокомп. Так в программе Eye, разработанной автором в 1989 году, впервые были реализованы и опробованы эффективные функции оценки. Данная программа широко использовалась в учебном процессе и послужила одной из базовых программ при проведении Первой Всесоюзной олимпиады по нейрокомпьютингу (Омск, 1991 год). В 1993 году автором была разработана серия программ, под общим названием «Нейроучебник», которые до сих пор используются в учебном процессе в ряде красноярских вузов. В программе Sigmoid1 из этой серии впервые было реализовано контрастирование. На этой программе была получена первая логически прозрачная нейронная сеть. В программе Hopfield из той же серии впервые была реализована ортогональная сеть ассоциативной памяти. В 1993-1995 годах на ВЦ СО РАН в г. Красноярске под руководством автора работал программистский семинар по разработке нейросетевых приложений. Одним из результатов работы семинара явилось появление программы MultyNeuron. Результаты использования программы в медицине опубликованы различными исследователями более чем в 50 работах. В 1996-2000 годах по проекту «Разработка и программная реализация технологии производства явных знаний из данных с помощью обучаемых нейронных сетей» № 05.04.1291 подпрограммы «Перспективные информационные технологии» Федеральной целевой программы на 1996-2000 годы «Исследования и разработки по приоритетным направлениям развития науки и техники гражданского назначения» под руководством автора были разработаны три программы FAMaster [186], NeuroPro [237] и GISNNA [180]. На базе этих программ защищено три кандидатские диссертации. В приложении к диссертации приведены 26 актов о внедрении. На защиту выносятся. 1. Функциональная модель универсального нейрокомпьютера. Принципы выделения функциональных компонентов. Декомпозиция нейрокомпьютера на функциональные компоненты в соответствии с предложенными принципами. 2. Принцип построения эффективных функций оценки, позволяющих ускорить обучение нейронной сети, оценить уровень уверенности нейронной сети в полученном ответе, обучить с малой надежностью сеть решению тех задач, которые сеть данной архитектуры не может решить с высокой надежностью. 3. Метод получения явных знаний из данных с помощью логически прозрачных нейронных сетей, получаемых из произвольных обученных сетей специальной процедурой контрастирования. 4. Метод построения минимально необходимых наборов входных данных и построения на их основе наборов входных данных повышенной устойчивости к искажениям во входных данных. Теоремы о соотношениях между различными видами таких наборов. 5. Метод описания процедуры конструирования нейронных сетей из простейших элементов и более простых сетей. Язык описания результатов конструирования. 6. Методы повышения информационной емкости сетей ассоциативной памяти, функционирующих в дискретном времени. Метод конструирования сетей ассоциативной памяти со свойствами, необходимыми для решения конкретной задачи. Теорема об информационной емкости ортогональной тензорной сети. Публикации. По теме диссертации опубликовано более 40 работ, в том числе одна монография без соавторов, одна коллективная монография (сборник лекций) и одно учебное пособие. Апробация работы. Основные положения и результаты работы докладывались на 1 Всероссийском рабочем семинаре «Нейроинформатика и нейрокомпьютеры», Красноярск (1993); 2, 3, 4, 5, 6, 7, 8 Всероссийских рабочих семинарах «Нейроинформатика и ее приложения», Красноярск (1994 – 2000); научно-технической конференции «Проблемы техники и технологий XXI века», Красноярск (1994); межрегиональной конференции «Проблемы информатизации региона» (1995); 1, 2 IEEE-RNNS Symposium, Rostov-on-Don (1992, 1995); IEEE International Conference on Neural Networks, Houston, IEEE (1997); III Международной конференции "Математика, компьютер, образование". - Москва (1996); International Joint Conference on Neural Networks, Washington, DC, USA, 1999; 10th International. Congress of chemical engineering, chemical equipment design and automation, Praha (1990); Международном конгрессе «Индустриальная и прикладная математика», Новосибирск (1998).
|