Сообщение Re[2]: Юрий Панчул: ИИ лажает там, где должен сиять от 20.01.2026 21:56
Изменено 20.01.2026 21:57 _ilya_
Re[2]: Юрий Панчул: ИИ лажает там, где должен сиять
Здравствуйте, LaptevVV, Вы писали:
LVV>
Это не ИИ (там нет интеллекта, можно заложить при обучении что угодно и на выходе получать релевантный этим данным результат). Это LLM — пока черный ящик где на входе какой-то запрос и на выходе результат. А вся обработка зависит от модели и как ее обучали. Могут обучать как хотят и будет выдавать — чему обучили.
Не думаю, что современные версии LLM не справятся со студенческими задачками — они могут попасть в интернет и будут в дальнейшем более большими моделями "изучены". Слабые модели естественно в узких предметных задачках никогда нормальный результат не выдадут.
Просто запостите задачку, можно даже на старых но больших моделях посмотреть — могут ли справится, взять тот же старый deepseek (он в 2025 году вышел, но обучался на знаниях собранных ранее — в 2024. Все новое у него не было заложено). Я могу запустить дома и старый и вообще любой опен сорс, кончно чем дневнее и меньше модель тем хуже даже ЕГЭ решает. Но тут интересно — ведь старые модели обучены на данных до новых ЕГЭ, т.е. при их обучении не было решений и в них не заложены результаты (если ранее в интернете такая задача не засветилась).
Еще моделям если не справляются — можно доп пояснения вводить и тогда может быть существенный прорыв, т.е. не просто LLM а + студент чуть знающий и направляющий LLM... Сама LLM тупа — она выдает наиболее подходящий по статистике ответ среди всех данных на которых ее обучали. Искусственным интеллектом тут и не пахнет, это модель основанная на статистических данных. Что заправили — на этом и едет. Тут чудовищно что это заменит обычный интернет поиск, и в обучение можно заложить свои политические данные, которые далее будут выдаваться как истина.
LVV>
...я описываю, как ИИ лажает в микроархитектурных задачках на SystemVerilog, которые я даю студентам на интервью.
Это не ИИ (там нет интеллекта, можно заложить при обучении что угодно и на выходе получать релевантный этим данным результат). Это LLM — пока черный ящик где на входе какой-то запрос и на выходе результат. А вся обработка зависит от модели и как ее обучали. Могут обучать как хотят и будет выдавать — чему обучили.
Не думаю, что современные версии LLM не справятся со студенческими задачками — они могут попасть в интернет и будут в дальнейшем более большими моделями "изучены". Слабые модели естественно в узких предметных задачках никогда нормальный результат не выдадут.
Просто запостите задачку, можно даже на старых но больших моделях посмотреть — могут ли справится, взять тот же старый deepseek (он в 2025 году вышел, но обучался на знаниях собранных ранее — в 2024. Все новое у него не было заложено). Я могу запустить дома и старый и вообще любой опен сорс, кончно чем дневнее и меньше модель тем хуже даже ЕГЭ решает. Но тут интересно — ведь старые модели обучены на данных до новых ЕГЭ, т.е. при их обучении не было решений и в них не заложены результаты (если ранее в интернете такая задача не засветилась).
Еще моделям если не справляются — можно доп пояснения вводить и тогда может быть существенный прорыв, т.е. не просто LLM а + студент чуть знающий и направляющий LLM... Сама LLM тупа — она выдает наиболее подходящий по статистике ответ среди всех данных на которых ее обучали. Искусственным интеллектом тут и не пахнет, это модель основанная на статистических данных. Что заправили — на этом и едет. Тут чудовищно что это заменит обычный интернет поиск, и в обучение можно заложить свои политические данные, которые далее будут выдаваться как истина.
Re[2]: Юрий Панчул: ИИ лажает там, где должен сиять
Здравствуйте, LaptevVV, Вы писали:
LVV>
Это не ИИ (там нет интеллекта, можно заложить при обучении что угодно и на выходе получать релевантный этим данным результат). Это LLM (большая языковая модель) — пока черный ящик где на входе какой-то запрос и на выходе результат. А вся обработка зависит от модели и как ее обучали, на каких данных. Могут обучать как хотят и будет выдавать — чему обучили.
Не думаю, что современные версии LLM не справятся со студенческими задачками — они могут попасть в интернет и будут в дальнейшем более большими моделями "изучены". Слабые модели естественно в узких предметных задачках никогда нормальный результат не выдадут.
Просто запостите задачку, можно даже на старых но больших моделях посмотреть — могут ли справится, взять тот же старый deepseek (он в 2025 году вышел, но обучался на знаниях собранных ранее — в 2024. Все новое у него не было заложено). Я могу запустить дома и старый и вообще любой опен сорс, кончно чем дневнее и меньше модель тем хуже даже ЕГЭ решает. Но тут интересно — ведь старые модели обучены на данных до новых ЕГЭ, т.е. при их обучении не было решений и в них не заложены результаты (если ранее в интернете такая задача не засветилась).
Еще моделям если не справляются — можно доп пояснения вводить и тогда может быть существенный прорыв, т.е. не просто LLM а + студент чуть знающий и направляющий LLM... Сама LLM тупа — она выдает наиболее подходящий по статистике ответ среди всех данных на которых ее обучали. Искусственным интеллектом тут и не пахнет, это модель основанная на статистических данных. Что заправили — на этом и едет. Тут чудовищно что это заменит обычный интернет поиск, и в обучение можно заложить свои политические данные, которые далее будут выдаваться как истина.
LVV>
...я описываю, как ИИ лажает в микроархитектурных задачках на SystemVerilog, которые я даю студентам на интервью.
Это не ИИ (там нет интеллекта, можно заложить при обучении что угодно и на выходе получать релевантный этим данным результат). Это LLM (большая языковая модель) — пока черный ящик где на входе какой-то запрос и на выходе результат. А вся обработка зависит от модели и как ее обучали, на каких данных. Могут обучать как хотят и будет выдавать — чему обучили.
Не думаю, что современные версии LLM не справятся со студенческими задачками — они могут попасть в интернет и будут в дальнейшем более большими моделями "изучены". Слабые модели естественно в узких предметных задачках никогда нормальный результат не выдадут.
Просто запостите задачку, можно даже на старых но больших моделях посмотреть — могут ли справится, взять тот же старый deepseek (он в 2025 году вышел, но обучался на знаниях собранных ранее — в 2024. Все новое у него не было заложено). Я могу запустить дома и старый и вообще любой опен сорс, кончно чем дневнее и меньше модель тем хуже даже ЕГЭ решает. Но тут интересно — ведь старые модели обучены на данных до новых ЕГЭ, т.е. при их обучении не было решений и в них не заложены результаты (если ранее в интернете такая задача не засветилась).
Еще моделям если не справляются — можно доп пояснения вводить и тогда может быть существенный прорыв, т.е. не просто LLM а + студент чуть знающий и направляющий LLM... Сама LLM тупа — она выдает наиболее подходящий по статистике ответ среди всех данных на которых ее обучали. Искусственным интеллектом тут и не пахнет, это модель основанная на статистических данных. Что заправили — на этом и едет. Тут чудовищно что это заменит обычный интернет поиск, и в обучение можно заложить свои политические данные, которые далее будут выдаваться как истина.