Сообщение Re[3]: Почему GPT не может... от 09.11.2025 21:38
Изменено 10.11.2025 10:09 vdimas
Re[3]: Почему GPT не может...
Здравствуйте, Muxa, Вы писали:
M>До сих пор остались еще дебилы кто верит что языковые генераторы на самом деле что-то там думают, мыслят, соображают.
Языковые модели хорошо умеют подражать рассуждениям, кстате.
Т.е., де-факто умеют применять навыки рассуждений, полученные на одном материале, к другому.
При увеличении мощности языковых моделей и возможности выделения отдельно навыков чистого логического мышления, они смогут механически именно "мыслить", как "мыслит" ЦПУ, к примеру, исполняя заложенную в него логику.
Я ж говорю, вопрос ещё в организации памяти и принципов обучения, тупик кроется здесь.
Прямо сейчас при глубоком обучении используются подходы из 80-х годов.Тупик в том, что пообщавшись даже с самым умным собеседником, ИИ не становится умнее. ))
Это принципиальность отграничение на сегодня.
M>До сих пор остались еще дебилы кто верит что языковые генераторы на самом деле что-то там думают, мыслят, соображают.
Языковые модели хорошо умеют подражать рассуждениям, кстате.
Т.е., де-факто умеют применять навыки рассуждений, полученные на одном материале, к другому.
При увеличении мощности языковых моделей и возможности выделения отдельно навыков чистого логического мышления, они смогут механически именно "мыслить", как "мыслит" ЦПУ, к примеру, исполняя заложенную в него логику.
Я ж говорю, вопрос ещё в организации памяти и принципов обучения, тупик кроется здесь.
Прямо сейчас при глубоком обучении используются подходы из 80-х годов.Тупик в том, что пообщавшись даже с самым умным собеседником, ИИ не становится умнее. ))
Это принципиальность отграничение на сегодня.
Re[3]: Почему GPT не может...
Здравствуйте, Muxa, Вы писали:
M>До сих пор остались еще дебилы кто верит что языковые генераторы на самом деле что-то там думают, мыслят, соображают.
Языковые модели хорошо умеют подражать рассуждениям, кстате.
Т.е., де-факто умеют применять навыки рассуждений, полученные на одном материале, к другому.
При увеличении мощности языковых моделей и возможности выделения отдельно навыков чистого логического мышления, они смогут механически именно "мыслить", как "мыслит" ЦПУ, к примеру, исполняя заложенную в него логику.
Я ж говорю, вопрос ещё в организации памяти и принципов обучения, тупик кроется здесь.
Прямо сейчас при глубоком обучении используются подходы из 80-х годов.Тупик в том, что пообщавшись даже с самым умным собеседником, ИИ не становится умнее. ))
Это принципиальное отграничение на сегодня.
M>До сих пор остались еще дебилы кто верит что языковые генераторы на самом деле что-то там думают, мыслят, соображают.
Языковые модели хорошо умеют подражать рассуждениям, кстате.
Т.е., де-факто умеют применять навыки рассуждений, полученные на одном материале, к другому.
При увеличении мощности языковых моделей и возможности выделения отдельно навыков чистого логического мышления, они смогут механически именно "мыслить", как "мыслит" ЦПУ, к примеру, исполняя заложенную в него логику.
Я ж говорю, вопрос ещё в организации памяти и принципов обучения, тупик кроется здесь.
Прямо сейчас при глубоком обучении используются подходы из 80-х годов.Тупик в том, что пообщавшись даже с самым умным собеседником, ИИ не становится умнее. ))
Это принципиальное отграничение на сегодня.