19.11.2014 Views

На правах рукописи

На правах рукописи

На правах рукописи

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

линейные комбинации входных. В этом случае эффективное число дескрипторов<br />

равно числу линейно независимых дескрипторов в базе, и это число не может<br />

превышать числа входных нейронов. По мере обучения нейросети значения<br />

настраиваемых параметров растут по абсолютной величине, и в разложении в<br />

ряд Тейлора-Маклорена функции активации все большую роль начинают играть<br />

члены со второй, третьей и более высокими степенями. В результате этого<br />

нейросеть постепенно переходит к моделированию квадратичных, кубических<br />

и более сложных зависимостей, которые описываются все более возрастающим<br />

числом параметров. Таким образом, по ходу обучения нейросети эффективное<br />

число параметров постоянно возрастает, пока не достигает определенного максимального<br />

числа, которое равно числу настраиваемых параметров нейросети<br />

(т.е. суммарного числа синаптических весов и порогов активации), деленному<br />

на порядок группы автоморфизмов помеченного графа, соответствующего нейросети.<br />

Параллельно с эффективным числом дескрипторов при обучении нейросети<br />

растет и емкость класса моделируемых функций, которая в теории статистического<br />

обучения выражается размерностью Вапника-Червоненкиса. Упрощенно<br />

можно сказать, что в тот момент времени, когда емкость этого класса<br />

начнет превышать объем используемых для обучения данных, и наступает «переучивание».<br />

4.1.2. Методы предотвращения «переучивания» нейросетей<br />

В литературе описано несколько методов предотвращения «переучивания»<br />

[338]. Наиболее простым из них является уменьшение общего числа настраиваемых<br />

параметров нейросети за счет уменьшения числа входных и скрытых<br />

нейронов. В исследованиях, проведенных в рамках настоящей диссертационной<br />

работы, уменьшение числа входных нейронов осуществлялось за счет<br />

предварительного отбора дескрипторов при помощи линейно-регрессионного<br />

метода БПМЛР (см. подраздел 4.1.5), а числа скрытых нейронов – за счет варьирования<br />

их числа и определения из них оптимального. Тем не менее, этот метод<br />

предотвращения «переучивания» не является панацеей – его недостатком<br />

113

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!