Сообщение Re: Научите пользоваться Qwen'ом (вы совершенно правы...) от 16.03.2026 21:27
Изменено 16.03.2026 22:34 _ilya_
Re: Научите пользоваться Qwen'ом (вы совершенно правы...)
Здравствуйте, Философ, Вы писали:
Ф>Обратите внимание, что на этом скриншоте есть слово "меандр", но посчитало оно всё равно неверно.
LLM это не AI, это надо в первую очередь понять. Это поиск подходящего следующего слова в контексте. Вообще LLM создавались для перевода с одного языка на другой, там видимо тоже фраза и контекст на другой язык переводится, в этом максимально преуспели. LLM даже картинки успешно в слова переводят.
У модели скорее есть параметр — температура. Если в облаке — может быть даже доступно и его изменение (если локально то запускаете LLM с этим параметром = 0), чтобы было меньше рандома и вранья (LLM лишь выдает наиболее вероятный ответ из тех знаний что в нее запрессовали с потерями, температура более 0 добавляет "творчество", т.е. рандом, а не точный ответ без выдумываний). LLM это ни разу не искусственный интеллект. Это новый поиск среди пережатых данных с потерями — выдает и результат с потерями от сжатия (видимо следующий этап эволюции это чекать выдачу от LLM и дооснащать правильными данными, что уже и делают с MCP).
P.S. Чем больше в вопросе данных, тем точнее результат. Нужно приложить хотябы страницы методичек по теме расчёта. Чем больше нужного приложено — тем более вероятен правильный ответ. LLM полностью тупа пока не впихнут достаточно данных.
Файт MD тут не особо прикрепляется, в pdf залил — http://files.rsdn.org/65080/%d0%9d%d0%b0%d0%b9%d1%82%d0%b8%20%d0%be%d1%88%d0%b8%d0%b1%d0%ba%d0%b8.pdf
Ф>Обратите внимание, что на этом скриншоте есть слово "меандр", но посчитало оно всё равно неверно.
LLM это не AI, это надо в первую очередь понять. Это поиск подходящего следующего слова в контексте. Вообще LLM создавались для перевода с одного языка на другой, там видимо тоже фраза и контекст на другой язык переводится, в этом максимально преуспели. LLM даже картинки успешно в слова переводят.
У модели скорее есть параметр — температура. Если в облаке — может быть даже доступно и его изменение (если локально то запускаете LLM с этим параметром = 0), чтобы было меньше рандома и вранья (LLM лишь выдает наиболее вероятный ответ из тех знаний что в нее запрессовали с потерями, температура более 0 добавляет "творчество", т.е. рандом, а не точный ответ без выдумываний). LLM это ни разу не искусственный интеллект. Это новый поиск среди пережатых данных с потерями — выдает и результат с потерями от сжатия (видимо следующий этап эволюции это чекать выдачу от LLM и дооснащать правильными данными, что уже и делают с MCP).
P.S. Чем больше в вопросе данных, тем точнее результат. Нужно приложить хотябы страницы методичек по теме расчёта. Чем больше нужного приложено — тем более вероятен правильный ответ. LLM полностью тупа пока не впихнут достаточно данных.
Файт MD тут не особо прикрепляется, в pdf залил — http://files.rsdn.org/65080/%d0%9d%d0%b0%d0%b9%d1%82%d0%b8%20%d0%be%d1%88%d0%b8%d0%b1%d0%ba%d0%b8.pdf
Re: Научите пользоваться Qwen'ом (вы совершенно правы...)
Здравствуйте, Философ, Вы писали:
Ф>Обратите внимание, что на этом скриншоте есть слово "меандр", но посчитало оно всё равно неверно.
LLM это не AI, это надо в первую очередь понять. Это поиск подходящего следующего слова в контексте. Вообще LLM создавались для перевода с одного языка на другой, там видимо тоже фраза и контекст на другой язык переводится, в этом максимально преуспели. LLM даже картинки успешно в слова переводят.
У модели скорее есть параметр — температура. Если в облаке — может быть даже доступно и его изменение (если локально то запускаете LLM с этим параметром = 0), чтобы было меньше рандома и вранья (LLM лишь выдает наиболее вероятный ответ из тех знаний что в нее запрессовали с потерями, температура более 0 добавляет "творчество", т.е. рандом, а не точный ответ без выдумываний). LLM это ни разу не искусственный интеллект. Это новый поиск среди пережатых данных с потерями — выдает и результат с потерями от сжатия (видимо следующий этап эволюции это чекать выдачу от LLM и дооснащать правильными данными, что уже и делают с MCP).
P.S. Чем больше в вопросе данных, тем точнее результат. Нужно приложить хотябы страницы методичек по теме расчёта. Чем больше нужного приложено — тем более вероятен правильный ответ. LLM полностью тупа пока не впихнут достаточно данных.
ФайK MD тут не особо прикрепляется, без форматирования полохо выглядит в pdf залил, что тоже не так как в md — http://files.rsdn.org/65080/%d0%9d%d0%b0%d0%b9%d1%82%d0%b8%20%d0%be%d1%88%d0%b8%d0%b1%d0%ba%d0%b8.pdf
Ф>Обратите внимание, что на этом скриншоте есть слово "меандр", но посчитало оно всё равно неверно.
LLM это не AI, это надо в первую очередь понять. Это поиск подходящего следующего слова в контексте. Вообще LLM создавались для перевода с одного языка на другой, там видимо тоже фраза и контекст на другой язык переводится, в этом максимально преуспели. LLM даже картинки успешно в слова переводят.
У модели скорее есть параметр — температура. Если в облаке — может быть даже доступно и его изменение (если локально то запускаете LLM с этим параметром = 0), чтобы было меньше рандома и вранья (LLM лишь выдает наиболее вероятный ответ из тех знаний что в нее запрессовали с потерями, температура более 0 добавляет "творчество", т.е. рандом, а не точный ответ без выдумываний). LLM это ни разу не искусственный интеллект. Это новый поиск среди пережатых данных с потерями — выдает и результат с потерями от сжатия (видимо следующий этап эволюции это чекать выдачу от LLM и дооснащать правильными данными, что уже и делают с MCP).
P.S. Чем больше в вопросе данных, тем точнее результат. Нужно приложить хотябы страницы методичек по теме расчёта. Чем больше нужного приложено — тем более вероятен правильный ответ. LLM полностью тупа пока не впихнут достаточно данных.
ФайK MD тут не особо прикрепляется, без форматирования полохо выглядит в pdf залил, что тоже не так как в md — http://files.rsdn.org/65080/%d0%9d%d0%b0%d0%b9%d1%82%d0%b8%20%d0%be%d1%88%d0%b8%d0%b1%d0%ba%d0%b8.pdf