Как использовать ИИ локально.
От: imh0  
Дата: 09.11.25 07:52
Оценка:
Вот на этом примере я хочу показать как в современном мире делиться знаниями.

Смотрите — ниже будет готовый отлаженный промпт, который надо задать например Deepseek чтобы получуть нужную информацию.

И вот в этом чате (форуме на RSDN по ИИ) лучше уже переходить на такое.

Роль: Ты — эксперт по машинному обучению и запуску открытых ИИ-моделей на потребительском оборудовании. Твой стиль общения — понятный, методичный и практичный. Ты избегаешь излишней теоретической информации, если она не критична для понимания шагов.

Задача: Создай исчерпывающее руководство для новичка под названием: «Полное руководство по запуску ИИ локально на своем компьютере».

Структура и требования к ответу:

Введение (1 короткий абзац):

Объясни, что значит "запускать ИИ локально" и какие преимущества это дает (конфиденциальность, отсутствие лимитов, кастомизация).
Честно укажи основные требования и возможные сложности (требуется мощное железо, базовые технические навыки).

Шаг 1: Оценка аппаратных возможностей

Видеокарта (GPU): Объясни, почему это самый важный компонент. Упомяни ключевую роль VRAM (памяти видеокарты). Приведи примеры:
Минимальные требования: (например, 6 ГБ VRAM для маленьких моделей 7B).
Рекомендуемые требования: (например, 12-24+ ГБ VRAM для моделей 14B-70B).
Оперативная память (RAM) и Процессор (CPU): Укажи их роль и минимально рекомендуемые объемы.

Шаг 2: Выбор программного обеспечения

Представь Ollama и LM Studio как два самых простых и рекомендуемых варианта для новичков.
Для Ollama: Кратко опиши, что это, и приведи пример установки (например, "скачайте с официального сайта и запустите установщик").
Для LM Studio: Кратко опиши, что это (удобный GUI), и аналогично приведи пример установки.

Примечание: Можно упомянуть более продвинутые варианты вроде text-generation-webui, но подчеркни, что они сложнее.

Шаг 3: Выбор и загрузка модели
Объясни, что такое языковые модели (LLM) и что значит параметры (7B, 13B, 70B). Свяжи размер модели с требованиями к VRAM.
Порекомендуй конкретные модели для старта (например, Llama 3.1 8B, Mistral 7B, Phi-3 mini).
Укажи, где их искать: Hugging Face Hub.
Важно: Дай четкую инструкцию, как скачать модель в нужном формате (например, .gguf формат для эффективной работы на CPU/GPU). Объясни, что в том же LM Studio встроен каталог моделей, что упрощает загрузку.

Шаг 4: Запуск и использование
На примере LM Studio/Ollama: Дай пошаговую инструкцию:
Запусти программу.
В LM Studio: перейди во вкладку "Search", найди и скачай модель.
Перейди во вкладку "Chat", выбери загруженную модель и нажми "Load Model".
Начни общение в чат-интерфейсе.
Напомни о возможных задержках при первом запуске и о том, что компьютер может стать медленнее во время работы модели.
Заключение и дальнейшие шаги
Кратко резюмируй пройденный путь: "Железо -> Софт -> Модель -> Запуск".
Порекомендуй, что изучать дальше: система Prompts (как правильно формулировать запросы), тонкая накалибровка моделей (Quantization), эксперименты с разными моделями.

Тон: Поддерживающий, ободряющий. Используй аналогии, где это уместно. Не используй маркдаун-разметку (например, ###), оформи ответ простыми и четкими абзацами и списками.

Отредактировано 09.11.2025 7:52 imh0 . Предыдущая версия .
Re: Как использовать ИИ локально.
От: Nuzhny Россия https://github.com/Nuzhny007
Дата: 09.11.25 08:27
Оценка:
Здравствуйте, imh0, Вы писали:

I>И вот в этом чате (форуме на RSDN по ИИ) лучше уже переходить на такое.


Не будет ли сильно скучно читать такое? Это же форум для людей, хочется не просто выписку из энциклопедии получить.
Re[2]: Как использовать ИИ локально.
От: imh0  
Дата: 09.11.25 13:58
Оценка:
Здравствуйте, Nuzhny, Вы писали:

N>Не будет ли сильно скучно читать такое? Это же форум для людей, хочется не просто выписку из энциклопедии получить.


По сути тут ты передаешь настроенную точку входа, и дальше уже тот кто ее получил может задавать свои вопросы и получать еще больше информации.
Именно в этом поинт.
Наступило новое время — можно делиться по сути мыслями.)
Re: Как использовать ИИ локально.
От: BlackEric http://black-eric.lj.ru
Дата: 09.11.25 21:15
Оценка:
Здравствуйте, imh0, Вы писали:

I>Вот на этом примере я хочу показать как в современном мире делиться знаниями.


Что бы написать такой промт нужно хорошо разбираться в теме.
Для ответа на вопрос достаточно дать ссылки на Ollama, LM Studio и, возможно, на расчет памяти занимаемой моделью. А выбор модели уже будет зависеть от задач.
https://github.com/BlackEric001
 
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.