Сообщение Re: GPT фундаментально ущербен? от 27.03.2024 15:12
Изменено 27.03.2024 15:13 viellsky
Re: GPT фундаментально ущербен?
Здравствуйте, WolfHound, Вы писали:
WH>Нет, он не работает. Галлюцинации неприемлемы. ИИ должен либо давать верный ответ, либо честное "я не знаю".
Основанные на LLM-ках модели — это просто очередной этап развития поисковиков, еще одна технология в стеке. Собственно, и всё — это суть. И если рассматривать эту суть (а не побочную шелуху/обертку "ответ поисковика с LLM-кой внутри выглядит как сказанный человеком") — то всё встаёт на свои места. И не будет неоправданных ожиданий.
Кстати, всё что ты пишешь, применимо и к поисковикам, построенным на "классическом" стеке. Они тоже умеют "галлюцинировать" — т.е. находят море информации, которая не отвечает на твой вопрос. И тоже не могут найти информацию, которая отсутствует в базе.
WH>Нет, он не работает. Галлюцинации неприемлемы. ИИ должен либо давать верный ответ, либо честное "я не знаю".
Основанные на LLM-ках модели — это просто очередной этап развития поисковиков, еще одна технология в стеке. Собственно, и всё — это суть. И если рассматривать эту суть (а не побочную шелуху/обертку "ответ поисковика с LLM-кой внутри выглядит как сказанный человеком") — то всё встаёт на свои места. И не будет неоправданных ожиданий.
Кстати, всё что ты пишешь, применимо и к поисковикам, построенным на "классическом" стеке. Они тоже умеют "галлюцинировать" — т.е. находят море информации, которая не отвечает на твой вопрос. И тоже не могут найти информацию, которая отсутствует в базе.
Re: GPT фундаментально ущербен?
Здравствуйте, WolfHound, Вы писали:
WH>Нет, он не работает. Галлюцинации неприемлемы. ИИ должен либо давать верный ответ, либо честное "я не знаю".
Основанные на LLM-ках системы — это просто очередной этап развития поисковиков, еще одна технология в стеке. Собственно, и всё — это суть. И если рассматривать эту суть (а не побочную шелуху/обертку "ответ поисковика с LLM-кой внутри выглядит как сказанный человеком") — то всё встаёт на свои места. И не будет неоправданных ожиданий.
Кстати, всё что ты пишешь, применимо и к поисковикам, построенным на "классическом" стеке. Они тоже умеют "галлюцинировать" — т.е. находят море информации, которая не отвечает на твой вопрос. И тоже не могут найти информацию, которая отсутствует в базе.
WH>Нет, он не работает. Галлюцинации неприемлемы. ИИ должен либо давать верный ответ, либо честное "я не знаю".
Основанные на LLM-ках системы — это просто очередной этап развития поисковиков, еще одна технология в стеке. Собственно, и всё — это суть. И если рассматривать эту суть (а не побочную шелуху/обертку "ответ поисковика с LLM-кой внутри выглядит как сказанный человеком") — то всё встаёт на свои места. И не будет неоправданных ожиданий.
Кстати, всё что ты пишешь, применимо и к поисковикам, построенным на "классическом" стеке. Они тоже умеют "галлюцинировать" — т.е. находят море информации, которая не отвечает на твой вопрос. И тоже не могут найти информацию, которая отсутствует в базе.