Re[8]: Нейронный сети
От: Gaperton http://gaperton.livejournal.com
Дата: 20.07.03 23:01
Оценка: :))
Здравствуйте, Аноним, Вы писали:

А>Да, да. Если есть что-то в математике хуже нейронных сетей, так это генетические алгоритмы. Хотя может еще и нечеткую логику сюда стоит добавить.

А>Дело в том, что за всеми этими модными штучками не стоит никакой сильной математической теории. А без этого невозможно ничего по нормальному сделать — ни дать оценки алгоритмам, ни оценить скорость сходимости и т.д. Можно только размахивать руками и стучать в бубен, надеясь, что изменив некоторые параметры определенным образом мы добьемся хорошего результата. Меня, как математика это просто бесит. Я не могу принимать в серьез вещи, которые по сути основаны на эксперименте.

Бесит, говорите? А можно и посмеятся . Мне вот, к примеру, пришла в голову гениальная идея! А что если применить генетику для обучения нейросети? Это же получится, блин, что крутость нейросетей будет таки умножена на немеряную крутизну генетических алгоритмов! Ультра-турбо-сега-мега-драйв, все инвесторы наши! Назовем результат в честь скромного изобретателя (меня): многослойный Гапертрон.

А что? Вот вам правдоподобное объяснение. Нейросети "обучаются" минимизацией функции ошибки методом сопряженного градиента. Этот метод во первых, склонен застревать в локальных минимумах, во вторых очень медленно работает из-за ступенчатого характера функции ошибки (маленький модуль градиента на плоских участках приводит к "пробуксовке"). Ну и в конце концов, требуется дифференцируемость персептрона, из-за чего мы вынуждены применять гладкие финкции в персептронах вместо ступеньки (что делает персептрон менее "персептронистым"), да и расчет самой производной отнимает немало времени.

Если мы применим ГА, то убьем всех зайцев сразу. Дифференцируемость не требуется, ну и типа ГА то будет всяко быстрее "сопряженного градиента". Ведь ГА
1) Модный и современный
2) Не завязан на градиент, а посему не подвержен пробуксовкам.
3) Не застревает в локальных минимумах (ну он, типа, имеет шанс оттуда выбраться, для этого есть "мутации" и "скрещивание").
4) Ну что они там еще обычто говорят? Ах да, ну ГА же типа это ну совсем как естественный отбор в природе, а посему просто стопудово должно сработать ("Гоги, докажи теорему!" — "Мамой клянусь!" .

Вроде здорово должно получится . Вроде как раз та самая ситуация, когда непонятно как решать. Но что-то подсказывает мне, что работать не будет. Совсем. Как раз из-за того, что качество одного умножится на качество другого. Have fun, господа математики!
 
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.