Здравствуйте, Аноним, Вы писали:
А>Да, да. Если есть что-то в математике хуже нейронных сетей, так это генетические алгоритмы. Хотя может еще и нечеткую логику сюда стоит добавить.
А>Дело в том, что за всеми этими модными штучками не стоит никакой сильной математической теории. А без этого невозможно ничего по нормальному сделать — ни дать оценки алгоритмам, ни оценить скорость сходимости и т.д. Можно только размахивать руками и стучать в бубен, надеясь, что изменив некоторые параметры определенным образом мы добьемся хорошего результата. Меня, как математика это просто бесит. Я не могу принимать в серьез вещи, которые по сути основаны на эксперименте.
Бесит, говорите? А можно и посмеятся

. Мне вот, к примеру, пришла в голову гениальная идея! А что если применить генетику для обучения нейросети? Это же получится, блин, что крутость нейросетей будет таки умножена на немеряную крутизну генетических алгоритмов! Ультра-турбо-сега-мега-драйв, все инвесторы наши! Назовем результат в честь скромного изобретателя (меня): многослойный Гапертрон.
А что? Вот вам правдоподобное объяснение. Нейросети "обучаются" минимизацией функции ошибки методом сопряженного градиента. Этот метод во первых, склонен застревать в локальных минимумах, во вторых очень медленно работает из-за ступенчатого характера функции ошибки (маленький модуль градиента на плоских участках приводит к "пробуксовке"). Ну и в конце концов, требуется дифференцируемость персептрона, из-за чего мы вынуждены применять гладкие финкции в персептронах вместо ступеньки (что делает персептрон менее "персептронистым"), да и расчет самой производной отнимает немало времени.
Если мы применим ГА, то убьем всех зайцев сразу. Дифференцируемость не требуется, ну и типа ГА то будет всяко быстрее "сопряженного градиента". Ведь ГА
1) Модный и современный
2) Не завязан на градиент, а посему не подвержен пробуксовкам.
3) Не застревает в локальных минимумах (ну он, типа, имеет шанс оттуда выбраться, для этого есть "мутации" и "скрещивание").
4) Ну что они там еще обычто говорят? Ах да, ну ГА же типа это ну совсем как естественный отбор в природе, а посему просто стопудово должно сработать ("Гоги, докажи теорему!" — "Мамой клянусь!"

.
Вроде здорово должно получится

. Вроде как раз та самая ситуация, когда непонятно как решать. Но что-то подсказывает мне, что работать не будет. Совсем. Как раз из-за того, что качество одного умножится на качество другого. Have fun, господа математики!