Дистилляция LLM в код
От: TheBeginner  
Дата: 23.03.26 05:04
Оценка: 2 (1) +1
Была такая статья: https://sysblok.ru/blog/gorkij-urok-abbyy-kak-lingvisty-proigrali-poslednjuju-bitvu-za-nlp/
Это про компанию ABBYY и ее попытку построить "вавилонскую башню" моделей описания языков для своего переводчика над которым работали сотни лингвистов и проигрыш сначала google translate с его статистическими методами и big data, а затем и llm. В общем, ABBYY не потянула масштаб задачи и "необъяснимая эффективность больших данных" победила.

А вот интересно — с развитием генерацией кода llm (вайб кодинг) у первого подхода (т.е. больших детерминированных алгоритмов и моделей) есть шанс? Это же практически дистилляция знаний в конкретной области llm в код.
И этот код работает намного быстрее топовых llm. Что думаете, был бы у ABBYY сейчас шанс?
 
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.