Сообщение Re[3]: Крупные игроки в ИИ и уровень превосходства от 24.07.2024 19:42
Изменено 24.07.2024 19:54 xma
vsb>>Llama 3.1 405B
N>1. Результаты сделаны моделью ооочень большой, которую у себя локально не запустить.
пишут вроде 230 GB RAM должно хватить для запуска
так что, как 64 GB плашки DDR5 завезут, так и на обычном десктопном ПК потянет в 4 слота ОЗУ — особенно когда NPU приличные в процы забубенят массовые десктопные, инференс может и потянет (с более менее вменяемой скоростью)
но вообще, много кто вроде и чего копает в т.ч. в плане ускорения — как обучения так и инференса, (ну и точности, как например KAN),
примеры :
[27 ноября 2023 г.] Новый метод может ускорить обучение языковых моделей ИИ в 300 раз
https://rsdn.org/forum/flame.comp/8667774.1
Дата: 14.01.24
| подробнее | |
| |
вот ещё,
[27 июня 2024 г.] Эксперты смогли в 50 раз снизить потребление ИИ-моделей, приблизив их к светодиодным лампочкам
https://overclockers.ru/blog/RoadToKnowledge/show/165581/Eksperty-smogli-v-50-raz-snizit-potreblenie-II-modelej
| подробнее | |
| |
т.е. и мощности вычислительные растут и технологии самих нейросетей — постепенно улучшаются
vsb>>Llama 3.1 405B
N>1. Результаты сделаны моделью ооочень большой, которую у себя локально не запустить.
пишут вроде 230 GB RAM должно хватить для запуска
так что, как 64 GB плашки DDR5 завезут, так и на обычном десктопном ПК потянет в 4 слота ОЗУ — особенно когда NPU приличные в процы забубенят массовые десктопные, инференс может и потянет (с более менее вменяемой скоростью)
но вообще, много кто вроде и чего копает в т.ч. в плане ускорения — как обучения так и инференса, (ну и точности, как например KAN),
примеры :
[27 ноября 2023 г.] Новый метод может ускорить обучение языковых моделей ИИ в 300 раз
https://rsdn.org/forum/flame.comp/8667774.1
Дата: 14.01.24
| подробнее | |
| |
вот ещё,
[27 июня 2024 г.] Эксперты смогли в 50 раз снизить потребление ИИ-моделей, приблизив их к светодиодным лампочкам
https://overclockers.ru/blog/RoadToKnowledge/show/165581/Eksperty-smogli-v-50-raz-snizit-potreblenie-II-modelej
| подробнее | |
| |
т.е. и мощности вычислительные растут и технологии самих нейросетей — постепенно улучшаются
P.S.:
хотя нахера её у себя запускать без возможности до обучения, (тем более обычному юзеру) — когда всё есть в сети
Llama 3.1 https://miniapps.ai/llama-3-1-405b