Сообщение Re[3]: Бустинг для чайников от 13.08.2018 18:19
Изменено 14.08.2018 9:24 Erop
Re[3]: Бустинг для чайников
Здравствуйте, Khimik, Вы писали:
K>Итого получится столбец из примерно 30 цифр. Далее этот столбец прогоняется через нейросеть, и выдаётся итоговый результат.
K>Поскольку нейросеть будет небольшая, для её оптимизации, возможно, даже не придётся применять градиентный спуск, а хватит банального перебора.
Получится простая распознавалка в пространстве признаков.
Соответственно, в качестве классификатора можно взять что-то более простое, чем NN, ну EM, например, или VRM...
K>Итого получится столбец из примерно 30 цифр. Далее этот столбец прогоняется через нейросеть, и выдаётся итоговый результат.
K>Поскольку нейросеть будет небольшая, для её оптимизации, возможно, даже не придётся применять градиентный спуск, а хватит банального перебора.
Получится простая распознавалка в пространстве признаков.
Соответственно, в качестве классификатора можно взять что-то более простое, чем NN, ну EM, например, или VRM...
Re[3]: Бустинг для чайников
Здравствуйте, Khimik, Вы писали:
K>Итого получится столбец из примерно 30 цифр. Далее этот столбец прогоняется через нейросеть, и выдаётся итоговый результат.
K>Поскольку нейросеть будет небольшая, для её оптимизации, возможно, даже не придётся применять градиентный спуск, а хватит банального перебора.
Получится простая распознавалка в пространстве признаков.
Соответственно, в качестве классификатора можно взять что-то более простое, чем NN, ну EM, например, или SVM...
K>Итого получится столбец из примерно 30 цифр. Далее этот столбец прогоняется через нейросеть, и выдаётся итоговый результат.
K>Поскольку нейросеть будет небольшая, для её оптимизации, возможно, даже не придётся применять градиентный спуск, а хватит банального перебора.
Получится простая распознавалка в пространстве признаков.
Соответственно, в качестве классификатора можно взять что-то более простое, чем NN, ну EM, например, или SVM...