Ðа пÑÐ°Ð²Ð°Ñ ÑÑкопиÑи
Ðа пÑÐ°Ð²Ð°Ñ ÑÑкопиÑи
Ðа пÑÐ°Ð²Ð°Ñ ÑÑкопиÑи
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
линейные комбинации входных. В этом случае эффективное число дескрипторов<br />
равно числу линейно независимых дескрипторов в базе, и это число не может<br />
превышать числа входных нейронов. По мере обучения нейросети значения<br />
настраиваемых параметров растут по абсолютной величине, и в разложении в<br />
ряд Тейлора-Маклорена функции активации все большую роль начинают играть<br />
члены со второй, третьей и более высокими степенями. В результате этого<br />
нейросеть постепенно переходит к моделированию квадратичных, кубических<br />
и более сложных зависимостей, которые описываются все более возрастающим<br />
числом параметров. Таким образом, по ходу обучения нейросети эффективное<br />
число параметров постоянно возрастает, пока не достигает определенного максимального<br />
числа, которое равно числу настраиваемых параметров нейросети<br />
(т.е. суммарного числа синаптических весов и порогов активации), деленному<br />
на порядок группы автоморфизмов помеченного графа, соответствующего нейросети.<br />
Параллельно с эффективным числом дескрипторов при обучении нейросети<br />
растет и емкость класса моделируемых функций, которая в теории статистического<br />
обучения выражается размерностью Вапника-Червоненкиса. Упрощенно<br />
можно сказать, что в тот момент времени, когда емкость этого класса<br />
начнет превышать объем используемых для обучения данных, и наступает «переучивание».<br />
4.1.2. Методы предотвращения «переучивания» нейросетей<br />
В литературе описано несколько методов предотвращения «переучивания»<br />
[338]. Наиболее простым из них является уменьшение общего числа настраиваемых<br />
параметров нейросети за счет уменьшения числа входных и скрытых<br />
нейронов. В исследованиях, проведенных в рамках настоящей диссертационной<br />
работы, уменьшение числа входных нейронов осуществлялось за счет<br />
предварительного отбора дескрипторов при помощи линейно-регрессионного<br />
метода БПМЛР (см. подраздел 4.1.5), а числа скрытых нейронов – за счет варьирования<br />
их числа и определения из них оптимального. Тем не менее, этот метод<br />
предотвращения «переучивания» не является панацеей – его недостатком<br />
113