ÑоÑÐ¼Ð°Ñ Adobe PDF, ÑÐ°Ð·Ð¼ÐµÑ 2173 Ðб - ÐнÑоÑмаÑионно ...
ÑоÑÐ¼Ð°Ñ Adobe PDF, ÑÐ°Ð·Ð¼ÐµÑ 2173 Ðб - ÐнÑоÑмаÑионно ...
ÑоÑÐ¼Ð°Ñ Adobe PDF, ÑÐ°Ð·Ð¼ÐµÑ 2173 Ðб - ÐнÑоÑмаÑионно ...
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
ISBN 5–7262–0471–9ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕПримечания1. Регрессия — это взгляд назад, на прошлое какого-то временного ряда,авторегрессия — это собственное прошлое. Идеи авторегрессионной(AR)-модели восходят к пионерской работе английского статистикаДж. Юла (1927 г.), посвященной исследованию вариаций солнечныхпятен [39–40]. Предтечей AR-моделей была модель скользящегосреднего (Moving average — MA), предложенная Е. Слуцким, вкоторой случайный процесс X n моделировался как линейная комбинациябелого шума R n : X n = ∑ i C iR n−i . AR-модель выражаетбудущие значение через линейные комбинации своего прошлого:X n = R n + ∑ i B iR n−i , где B i — постоянные коэффициенты. КомбинацияAR- и MA-моделей называется ARMA-моделью [40].2. Для нахождения порядка авторегрессии p используют различные подходы.Чаще всего используются критерии Акаике [40]. Согласно первомуиз них — Окончательной ошибке предсказания (ООП),p выбирается так, чтобы средняя дисперсия ошибки на каждом шагепредсказания была минимальна. Второй — Информационный критерийАкаике (ИКА) оценивает порядок модели посредством минимизациинекоторой информационной функции. Если AR-процесс имеетгауссовские статистики, то ИКА[p] = Nln(ρ p ) + 2p, где ρ p -оценкадисперсии белого шума, которая используется в качестве ошибки линейногопредсказания. Следует упомянуть еще критерий Риссанена —ДМО, который основан на минимизации длины минимального описаниямодели: ДМО [ p ] = N ln(ρ p ) + p ln N.3. Поскольку число соседей k должно быть больше числа коэффициентовполинома (это число в R m растет как m n ), обычно используютполиномы степени n 2. Дело еще и в том, что при чрезмерномувеличении числа ближайших соседей в их число попадают фазовыеточки с далеких соседних траекторий реконструкции; динамическийсмысл локальной окрестности поэтому теряется.4. Вообще говоря, следует различать три разные проблемы [45]:• задача выбора аппроксимации (или задача представления): какиеклассы функций f(x) могут быть эффективно аппроксимированыи какими аппроксимирующими функциями F (w, x)?• проблема выбора алгоритма поиска оптимальных значений параметровw для данного F ;122 УДК 004.032.26 (06) Нейронные сети