Сообщение идея для разработчиков облачных LLM: систематизация ошибок от 09.03.2026 23:37
Изменено 09.03.2026 23:46 xma
«Марш девяток» Карпати: как инженерные ошибки подрывают надёжность ИИ-систем
https://www.ixbt.com/news/2026/03/09/marsh-devjatok-karpati-kak-inzhenernye-oshibki-podryvajut-nadjozhnost-iisistem.html
Даже 99% успешных операций ИИ недостаточно для реальных задач
По данным опроса McKinsey за 2025 год, более половины компаний, использующих ИИ, столкнулись с негативными последствиями из-за недостаточной надёжности, а треть — с ошибками, связанными с неточностью моделей. Поэтому переход от «первых девяток» к промышленной надёжности становится ключевым фактором для массового внедрения ИИ в бизнес-процессы.
ну чё, дело говорит — только надо как то стимулировать разработчиков подробно описывать, как возникающие проблемы (при использовании ИИ), так и то какими образом они были решены (подробно) ..
и в идеале чтобы облачная LLM самостоятельно переобучалась (и/или до обучалась) на этих данных, с отслеживанием (и репортами) о том сколько таких же (или схожих кейсов) — уже успешно решено (или ещё нет)
тогда можно будет сортирануть список по самым часто встречающимся ошибкам (схожим) которые ещё не решены (в автоматизированном режиме), и натравливая LLM на них с генерацией отсчётов о том как нейросеть предполагает их решать — выяснить в чём проблема (в ручном режиме и с чтением отчётов пользователей, о том как всё таки решена была проблема)
(и так пока все ошибки не рассосутся, от самых массовых до единичных — ну или хотя бы, главное шоб, список сокращался — хотя бы общее число удельное на единицу использования ИИ инструмента)
P.S.:
ну и комментами всё покрывать как в промышленной разработке (чтоб точно знать что где и куда делает код)
я про это уже писал, но идея с систематизацией наиболее часто встречающихся схожих (и т.п.) ошибок мне пока ещё кажется свежей
«Марш девяток» Карпати: как инженерные ошибки подрывают надёжность ИИ-систем
https://www.ixbt.com/news/2026/03/09/marsh-devjatok-karpati-kak-inzhenernye-oshibki-podryvajut-nadjozhnost-iisistem.html
Даже 99% успешных операций ИИ недостаточно для реальных задач
По данным опроса McKinsey за 2025 год, более половины компаний, использующих ИИ, столкнулись с негативными последствиями из-за недостаточной надёжности, а треть — с ошибками, связанными с неточностью моделей. Поэтому переход от «первых девяток» к промышленной надёжности становится ключевым фактором для массового внедрения ИИ в бизнес-процессы.
ну чё, дело говорит — только надо как то стимулировать разработчиков подробно описывать, как возникающие проблемы (при использовании ИИ), так и то какими образом они были решены (подробно) ..
и в идеале чтобы облачная LLM самостоятельно переобучалась (и/или до обучалась) на этих данных, с отслеживанием (и репортами) о том сколько таких же (или схожих кейсов) — уже успешно решено (или ещё нет)
тогда можно будет сортирануть список по самым часто встречающимся ошибкам (схожим) которые ещё не решены (в автоматизированном режиме), и натравливая LLM на них с генерацией отсчётов о том как нейросеть предполагает их решать — выяснить в чём проблема (в ручном режиме и с чтением отчётов пользователей, о том как всё таки решена была проблема)
(и так пока все ошибки не рассосутся, от самых массовых до единичных — ну или хотя бы, главное шоб, список сокращался — хотя бы общее число удельное на единицу использования ИИ инструмента)
P.S.:
ну и комментами всё покрывать как в промышленной разработке (чтоб точно знать что где и куда делает код)
я про это уже писал, но идея с систематизацией наиболее часто встречающихся схожих (и т.п.) ошибок мне пока ещё кажется свежей