Сообщение Re: Научите пользоваться Qwen'ом (вы совершенно правы...) от 16.03.2026 21:27
Изменено 16.03.2026 21:34 _ilya_
Re: Научите пользоваться Qwen'ом (вы совершенно правы...)
Здравствуйте, Философ, Вы писали:
Ф>Обратите внимание, что на этом скриншоте есть слово "меандр", но посчитало оно всё равно неверно.
LLM это не AI, это надо в первую очередь понять. Это поиск подходящего следующего слова в контексте. Вообще LLM создавались для перевода с одного языка на другой, там видимо тоже фраза и контекст на другой язык переводится, в этом максимально преуспели. LLM даже картинки успешно в слова переводят.
У модели скорее есть параметр — температура. Если в облаке — может быть даже доступно и его изменение (если локально то запускаете LLM с этим параметром = 0), чтобы было меньше рандома и вранья (LLM лишь выдает наиболее вероятный ответ из тех знаний что в нее запрессовали с потерями). LLM это ни разу не искусственный интеллект. Это новый поиск среди пережатых данных с потерями — выдает и результат с потерями от сжатия (видимо следующий этап эволюции это чекать выдачу от LLM и дооснащать правильными данными, что уже и делают с MCP).
P.S. Чем больше в вопросе данных, тем точнее результат. Нужно приложить хотябы страницы методичек по теме расчёта. Чем больше нужного приложено — тем более вероятен правильный ответ. LLM полностью тупа пока не впихнут достаточно данных.
Ф>Обратите внимание, что на этом скриншоте есть слово "меандр", но посчитало оно всё равно неверно.
LLM это не AI, это надо в первую очередь понять. Это поиск подходящего следующего слова в контексте. Вообще LLM создавались для перевода с одного языка на другой, там видимо тоже фраза и контекст на другой язык переводится, в этом максимально преуспели. LLM даже картинки успешно в слова переводят.
У модели скорее есть параметр — температура. Если в облаке — может быть даже доступно и его изменение (если локально то запускаете LLM с этим параметром = 0), чтобы было меньше рандома и вранья (LLM лишь выдает наиболее вероятный ответ из тех знаний что в нее запрессовали с потерями). LLM это ни разу не искусственный интеллект. Это новый поиск среди пережатых данных с потерями — выдает и результат с потерями от сжатия (видимо следующий этап эволюции это чекать выдачу от LLM и дооснащать правильными данными, что уже и делают с MCP).
P.S. Чем больше в вопросе данных, тем точнее результат. Нужно приложить хотябы страницы методичек по теме расчёта. Чем больше нужного приложено — тем более вероятен правильный ответ. LLM полностью тупа пока не впихнут достаточно данных.
Re: Научите пользоваться Qwen'ом (вы совершенно правы...)
Здравствуйте, Философ, Вы писали:
Ф>Обратите внимание, что на этом скриншоте есть слово "меандр", но посчитало оно всё равно неверно.
LLM это не AI, это надо в первую очередь понять. Это поиск подходящего следующего слова в контексте. Вообще LLM создавались для перевода с одного языка на другой, там видимо тоже фраза и контекст на другой язык переводится, в этом максимально преуспели. LLM даже картинки успешно в слова переводят.
У модели скорее есть параметр — температура. Если в облаке — может быть даже доступно и его изменение (если локально то запускаете LLM с этим параметром = 0), чтобы было меньше рандома и вранья (LLM лишь выдает наиболее вероятный ответ из тех знаний что в нее запрессовали с потерями, температура более 0 добавляет "творчество", т.е. рандом, а не точный ответ без выдумываний). LLM это ни разу не искусственный интеллект. Это новый поиск среди пережатых данных с потерями — выдает и результат с потерями от сжатия (видимо следующий этап эволюции это чекать выдачу от LLM и дооснащать правильными данными, что уже и делают с MCP).
P.S. Чем больше в вопросе данных, тем точнее результат. Нужно приложить хотябы страницы методичек по теме расчёта. Чем больше нужного приложено — тем более вероятен правильный ответ. LLM полностью тупа пока не впихнут достаточно данных.
Ф>Обратите внимание, что на этом скриншоте есть слово "меандр", но посчитало оно всё равно неверно.
LLM это не AI, это надо в первую очередь понять. Это поиск подходящего следующего слова в контексте. Вообще LLM создавались для перевода с одного языка на другой, там видимо тоже фраза и контекст на другой язык переводится, в этом максимально преуспели. LLM даже картинки успешно в слова переводят.
У модели скорее есть параметр — температура. Если в облаке — может быть даже доступно и его изменение (если локально то запускаете LLM с этим параметром = 0), чтобы было меньше рандома и вранья (LLM лишь выдает наиболее вероятный ответ из тех знаний что в нее запрессовали с потерями, температура более 0 добавляет "творчество", т.е. рандом, а не точный ответ без выдумываний). LLM это ни разу не искусственный интеллект. Это новый поиск среди пережатых данных с потерями — выдает и результат с потерями от сжатия (видимо следующий этап эволюции это чекать выдачу от LLM и дооснащать правильными данными, что уже и делают с MCP).
P.S. Чем больше в вопросе данных, тем точнее результат. Нужно приложить хотябы страницы методичек по теме расчёта. Чем больше нужного приложено — тем более вероятен правильный ответ. LLM полностью тупа пока не впихнут достаточно данных.