Здравствуйте, Went, Вы писали:
W>Дык есть уже всем известные классические книги, которые можно брать как +1, и всякий бульварный треш, который взять как -1, и обучать в этом диапазоне. Миллиарды леммингов уже давно всё сказали )
Тестировал свою карту (размер контекста для разных моделей и скорость обработки). Решил скормить какой-нибудь бред в качестве идеи для литературного произведения и посмотреть что выйдет.
| | Задание |
| | приведи несколько аллегорий для эпического произведения, канвой которого является ГГ — таксист, марксист-ленинист, каратист, попаданец в эпоху первобытных людей |
| | |
Результат (оценочное суждение на основании собственных ощущений после 5 перегенераций ответа для каждой модели, квантизация/размер контекста ~Q4/128k, Q5/96k).
qwen3-coder-30b модели немного туповаты для подобной фантастики
gpt-oss-20b очень хорошо прорабатывает заданный контекст, объединяя условия целиком (единственный)
glm-4.7-flash достаточно прямолинеен, но может быть хорош в реализации сценария
nemotron-3 прям закручивает заданный контекст похлеще gpt-oss, но не объединяя условия (наркоманская модель)
granite-4.0 уныло, на уровне qwen3
Это я к тому что, помимо всех остальных требований, "инструмент" должен соответствовать задаче — чтобы получать романы нужно и тренировать модель соответственно.