ÑоÑÐ¼Ð°Ñ Adobe PDF, ÑÐ°Ð·Ð¼ÐµÑ 2173 Ðб - ÐнÑоÑмаÑионно ...
ÑоÑÐ¼Ð°Ñ Adobe PDF, ÑÐ°Ð·Ð¼ÐµÑ 2173 Ðб - ÐнÑоÑмаÑионно ... ÑоÑÐ¼Ð°Ñ Adobe PDF, ÑÐ°Ð·Ð¼ÐµÑ 2173 Ðб - ÐнÑоÑмаÑионно ...
ISBN 5–7262–0471–9ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕэтой системы, т. е. ее динамическое описание, диффеоморфизм, отвечающий(по-возможности) всем временным рядам, которые могли бы бытьпорождены исследуемой системой-оригиналом при всех возможных значенияхначальных условий и возмущающих воздействий.Надежда на успешное решение такого рода задач появилась после публикацииФ. Такенсом в 1981 году статьи 6 , где доказывалась теорема о типичномвложении временного ряда в n-мерное евклидово пространство. Влекции Н. Г. Макаренко отмечается: «Так возник новый способ построениямодели из наблюдаемого сигнала (или реализации), который тут же инициировалсовершенно новую область численных методов топологическойдинамики — эмбедологию 7 ». И далее: «С ее помощью наконец-то удалосьподойти к проблеме моделирования динамики с “правильного конца”: модельначиналась с “ответа” — наблюдений, а затем ставился “правильный”вопрос: что их продуцирует?»Лекция Н. Г. Макаренко как раз и посвящена изложению основных идейэмбедологии — этого многообещающего подхода, который приводит к получениюмногомерного варианта авторегрессионного прогноза временныхрядов.Здесь следует отметить, что «стандартный» авторегрессионный прогноз(см., например, [25]) основан на линейной комбинации прошлых значений.«Предсказательные возможности» прогноза можно, очевидно, повысить,если перейти от использования линейной комбинации к некоторой нелинейнойфункции. Именно такой подход и осуществляется в рамках эмбедологии.Поиск предиктора при этом сведен к проблеме аппроксимациифункции нескольких переменных с использованием искусственной нейроннойсети.При определенных условиях, подробно обсуждаемых в лекции, эмбедологияпозволяет: из временного ряда восстановить фазовый портрет неизвестнойсистемы, порождающей ряд; оценить размерность аттрактора истохастичность системы; восстановить (хотя и не всегда) уравнения системы;реализовать нелинейную схему прогноза; обнаружить и оценитьвзаимодействие двух систем.По материалу лекции Н. Г. Макаренко можно рекомендовать для ознакомленияпомимо тех источников, что указаны в списке литературы к лекции,еще и книги: [16–23], а также его лекцию на Школе 2002 года [15].6 Ссылка на нее есть в списке литературы к лекции Н. Г. Макаренко.7 Название данной области происходит от английского термина embedology, которыйпроизошел, в свою очередь, от названия теоремы Такенса: embedding theorem.10 УДК 004.032.26 (06) Нейронные сети
Ю. В. ТЮМЕНЦЕВКроме того, довольно много публикаций (статей, препринтов и т. п.)можно найти в библиотеке ResearchIndex [72], если задать, например, поискпо терминам “embedding theorem”, “Takens theorem”.6. В лекции «Введение в байесовы сети» С. А. Терехов возвращается ктеме, лишь вскользь затронутой им в лекции на Школе 2002 года [24] приобсуждении подходов к аппроксимации плотности распределения вероятностив рамках задачи информационного моделирования.Моделирование интеллектуальных процессов, создание интеллектуальныхсистем различного назначения в рамках как парадигмы искусственногоинтеллекта, так и парадигмы мягких вычислений 8 , всегда существенноопиралось на понятие неопределенности, понимаемой традиционно какнеопределенность невероятностного характера (нечеткость, недоопределенность,неполнота, неточность и т. п.). Отношение к неопределенностивероятностного типа в ИИ- и МВ-сообществе стало меняться в последние10–15 лет и произошло это вследствие появления байесовых сетей 9 — графическихмоделей для представления неопределенностей и взаимосвязеймежду ними.В математическом плане байесова сеть представляет собой ориентированныйациклический граф специального вида. Каждая вершина в немотвечает некоторой переменной из решаемой задачи, распределение вероятностейдля которой интерпретируется как «значение ожидания» (beliefvalue) 10 , а каждая дуга — как зависимость между переменными-вершинами,численно выражаемая таблицей условных вероятностей.Можно соглашаться или не соглашаться с оценкой степени значимости8 Согласно первоначальному определению мягких вычислений (МВ), которое далЛ. Заде ( [28, 29]; см. также о развитии этого направления в [28, 29]), в перечень дисциплин,объединяемых в составе МВ, традиционный искусственный интеллект (ИИ) какобласть, где изучаются проблемы представления, извлечения и использования знаний, невходил. Однако, к настоящему времени грань между МВ и ИИ все больше размываетсяи их вместе можно считать «расширенным ИИ» или «расширенными МВ».9 Первооткрывателем модели, получившей впоследствии наименование «байесова сеть»,был американский статистик С. Райт (S. Wright), предложивший соответствующую модельв 1921 году (ссылка на его работу есть в списке литературы к лекции С. А. Терехова).Как это часто бывало в истории науки, данную модель несколько раз «переоткрывали»,давая ей различные имена: сети причинности (causal nets), сети вывода (inference nets),сети ожиданий (belief networks), диаграммы влияния (influence diagrams).10 Belief — слово многозначное, в контексте байесовых сетей (и шире — систем ИИ) можетпереводиться как «ожидание» (ожидание того, что произойдет то или иное событие),«вера», «доверие», означая при этом степень ожидания (веры, уверенности) в том, чтопроизойдет то или иное событие.УДК 004.032.26 (06) Нейронные сети 11
- Page 1 and 2: МИНИСТЕРСТВО ОБРАЗ
- Page 4 and 5: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 6 and 7: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 8 and 9: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 12 and 13: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 14 and 15: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 16 and 17: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 18 and 19: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 20 and 21: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 22 and 23: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 24 and 25: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 26 and 27: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 28 and 29: А. А. ФРОЛОВ 1) , Д. ГУ
- Page 30 and 31: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 32 and 33: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 34 and 35: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 36 and 37: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 38 and 39: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 40 and 41: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 42 and 43: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 44 and 45: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 46 and 47: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 48 and 49: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 50 and 51: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 52 and 53: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 54 and 55: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 56 and 57: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
- Page 58 and 59: ISBN 5-7262-0471-9ЛЕКЦИИ ПО
ISBN 5–7262–0471–9ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕэтой системы, т. е. ее динамическое описание, диффеоморфизм, отвечающий(по-возможности) всем временным рядам, которые могли бы бытьпорождены исследуемой системой-оригиналом при всех возможных значенияхначальных условий и возмущающих воздействий.Надежда на успешное решение такого рода задач появилась после публикацииФ. Такенсом в 1981 году статьи 6 , где доказывалась теорема о типичномвложении временного ряда в n-мерное евклидово пространство. Влекции Н. Г. Макаренко отмечается: «Так возник новый способ построениямодели из наблюдаемого сигнала (или реализации), который тут же инициировалсовершенно новую область численных методов топологическойдинамики — эмбедологию 7 ». И далее: «С ее помощью наконец-то удалосьподойти к проблеме моделирования динамики с “правильного конца”: модельначиналась с “ответа” — наблюдений, а затем ставился “правильный”вопрос: что их продуцирует?»Лекция Н. Г. Макаренко как раз и посвящена изложению основных идейэмбедологии — этого многообещающего подхода, который приводит к получениюмногомерного варианта авторегрессионного прогноза временныхрядов.Здесь следует отметить, что «стандартный» авторегрессионный прогноз(см., например, [25]) основан на линейной комбинации прошлых значений.«Предсказательные возможности» прогноза можно, очевидно, повысить,если перейти от использования линейной комбинации к некоторой нелинейнойфункции. Именно такой подход и осуществляется в рамках эмбедологии.Поиск предиктора при этом сведен к проблеме аппроксимациифункции нескольких переменных с использованием искусственной нейроннойсети.При определенных условиях, подробно обсуждаемых в лекции, эмбедологияпозволяет: из временного ряда восстановить фазовый портрет неизвестнойсистемы, порождающей ряд; оценить размерность аттрактора истохастичность системы; восстановить (хотя и не всегда) уравнения системы;реализовать нелинейную схему прогноза; обнаружить и оценитьвзаимодействие двух систем.По материалу лекции Н. Г. Макаренко можно рекомендовать для ознакомленияпомимо тех источников, что указаны в списке литературы к лекции,еще и книги: [16–23], а также его лекцию на Школе 2002 года [15].6 Ссылка на нее есть в списке литературы к лекции Н. Г. Макаренко.7 Название данной области происходит от английского термина embedology, которыйпроизошел, в свою очередь, от названия теоремы Такенса: embedding theorem.10 УДК 004.032.26 (06) Нейронные сети