Re[10]: Кто хотел большой проект, целиком от AI?
От: pva  
Дата: 02.02.26 19:59
Оценка:
Здравствуйте, Went, Вы писали:

W>Дык есть уже всем известные классические книги, которые можно брать как +1, и всякий бульварный треш, который взять как -1, и обучать в этом диапазоне. Миллиарды леммингов уже давно всё сказали )

Тестировал свою карту (размер контекста для разных моделей и скорость обработки). Решил скормить какой-нибудь бред в качестве идеи для литературного произведения и посмотреть что выйдет.
  Задание
приведи несколько аллегорий для эпического произведения, канвой которого является ГГ — таксист, марксист-ленинист, каратист, попаданец в эпоху первобытных людей

Результат (оценочное суждение на основании собственных ощущений после 5 перегенераций ответа для каждой модели, квантизация/размер контекста ~Q4/128k, Q5/96k).
qwen3-coder-30b модели немного туповаты для подобной фантастики
gpt-oss-20b очень хорошо прорабатывает заданный контекст, объединяя условия целиком (единственный)
glm-4.7-flash достаточно прямолинеен, но может быть хорош в реализации сценария
nemotron-3 прям закручивает заданный контекст похлеще gpt-oss, но не объединяя условия (наркоманская модель)
granite-4.0 уныло, на уровне qwen3

Это я к тому что, помимо всех остальных требований, "инструмент" должен соответствовать задаче — чтобы получать романы нужно и тренировать модель соответственно.
newbie
 
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.