Здравствуйте, WolfHound, Вы писали:
WH>Может, я чего не понимаю. Но, чем больше я смотрю на то как устроен GPT тем больше прихожу к мнению что работать он не может в принципе. WH>Нет, он не работает. Галлюцинации неприемлемы. ИИ должен либо давать верный ответ, либо честное "я не знаю". WH>Ибо если я должен проверять каждый ответ, то зачем такой ИИ вообще нужен? Не проще ли сразу обратиться к надёжному источнику?
Ущербны люди, которые уверовали в приход сильного ИИ. А LLM не ущербны, а лишь выполняют свою задачу. А принцип работы понять проще, если обратиться к классическим языковым моделям, например, N-gram. Даже при ширине контекста 3 или 4 уже можно генерировать вполне связные тексты, а LLM просто кратно увеличивает это значение (это если по-простому объяснять), от чего создаётся впечатление, что у машины появился разум.