Здравствуйте, pagid_, Вы писали:
vsb>>Ну собственно ты и сказал всю проблему такого теста. Тот же ChatGPT уже сегодня умней большинства людей. _>Не заметил. Во всяком случае в множестве диалогов. которые в последние дни тут цитировались. _>Да и по тесту Тьюринга все очень неутешительно, сразу же заметно, что у него нет собственного мнения ни о чем. Есть некоторые отрывки знаний на уровне шалопая из средней школы. И умение формулировать ответы так чтобы минимально раздражать собеседника, больше ничего.
ChatGPT не тренировали для того, чтобы он притворялся человеком. Его тренировали, чтобы он соглашался с человеком и пытался дополнять то, что он знает.
Уверен, что если перед командой OpenAI поставят такую задачу — они без проблем сделают и робота, который будет говорить "не знаю" или "не уверен", они сделают робота с характером (та же Алиса вполне проявляет характер в определённых ситуациях), они сделают синтез одной из нескольких предопределённых личностей (про отрывки из средней школы ты, должно быть, шутишь, он меня по кубернетесу периодически консультирует, не думаю, что шалопай с такими знаниями существует в природе) с правдоподобным характером, более узким набором знаний. Это выглядит даже проще, чем то, что сейчас есть как ChatGPT. Просто — зачем? Не думаю, что перед кем-то всерьёз стоит задача пройти тест Тюринга. Им надо деньги зарабатывать, а не публику пугать. Не удивлюсь, если они ещё и подтюнили сеть для того, чтобы её ответы были более очевидны как ответы бота.