Re: GPT фундаментально ущербен?
От: viellsky  
Дата: 27.03.24 15:12
Оценка: +1
Здравствуйте, WolfHound, Вы писали:

WH>Нет, он не работает. Галлюцинации неприемлемы. ИИ должен либо давать верный ответ, либо честное "я не знаю".


Основанные на LLM-ках системы — это просто очередной этап развития поисковиков, еще одна технология в стеке. Собственно, и всё — это суть. И если рассматривать эту суть (а не побочную шелуху/обертку "ответ поисковика с LLM-кой внутри выглядит как сказанный человеком") — то всё встаёт на свои места. И не будет неоправданных ожиданий.

Кстати, всё что ты пишешь, применимо и к поисковикам, построенным на "классическом" стеке. Они тоже умеют "галлюцинировать" — т.е. находят море информации, которая не отвечает на твой вопрос. И тоже не могут найти информацию, которая отсутствует в базе.
Отредактировано 27.03.2024 15:13 viellsky . Предыдущая версия .
Re[2]: GPT фундаментально ущербен?
От: jhfrek Россия  
Дата: 27.03.24 15:48
Оценка:
C>Ущербны люди, которые уверовали в приход сильного ИИ. А LLM не ущербны, а лишь выполняют свою задачу. А принцип работы понять проще, если обратиться к классическим языковым моделям, например, N-gram. Даже при ширине контекста 3 или 4 уже можно генерировать вполне связные тексты, а LLM просто кратно увеличивает это значение (это если по-простому объяснять), от чего создаётся впечатление, что у машины появился разум.

люди ущербны и так, сами по себе. Их способ решения задач не сильно отличается — они так же генерируют варианты и потом их перебирают. ЛЛМ просто позволяет сделать сложную для человека часть — генерации вариантов.

В облака ЛЛМ-ки вознесли не желающие учиться навыкам и знаниям, которые и позволяют выполнить вторую часть задачи. Они надеялись что можно ничего не знать и ЛЛМ все сделает за них. Она может, но для этого ее опять же надо учить, для чего все таки надо знать предметную область
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.