Форум Бингуру 2.0

 Главная | Опросы | Регистрация | Поиск | Статистика | 1.0 | Сайт
Искуственный Интеллект Форум Бингуру 2.0 / Искуственный Интеллект /  
 

Мысли об ИИ

 
 
Страница  Страница 12 из 12:  « Назад  1  2  3  ...  10  11  12

Автор ndr
Персимон
#166 | Дата:  
Да скачиваешь и в банку. Запустить его ты сейчас вряд ли сможешь ибо вот тут системные требования https://apxml.com/posts/how-to-run-deepseek-v3-0324

Чистая модель требует полтора терабайта оперативной видеопамяти, 4-битной понадобится 386 гиг

Вот тут для маков https://apxml.com/posts/deepseek-system-requirements-mac-os-guide

Даже дистилированная модель уровня R1 70B требует 180 гб видеопамяти. Локально максимум можно 7B модельку, потолок

Автор wavelet
 Лосенок
#167 | Дата:  
Espada
Локальные модели проще всего запускать и скачивать через lm studio
(https://lmstudio.ai). Там собрана библиотека из всевозможных моделей урезанных и не очень. А также запуск сразу с возможностью обращаться к ним через api.

Страница  Страница 12 из 12:  « Назад  1  2  3  ...  10  11  12 
Искуственный Интеллект Форум Бингуру 2.0 / Искуственный Интеллект /
 Мысли об ИИ

Ваш ответ Нажмите эту иконку для возврата на цитируемое сообщение

 

  ?
Только зарегистрированные пользователи могут отправлять сообщения. Авторизуйтесь для отправки сообщений, или зарегистрируйтесь сейчас.

 

 
Онлайн: Гостей - 6
Пользователей - 11 [ Simi, QUANT, GordonFreeman, Luke, RMA, Risky, Runny, bytes16, socrat17, ndr, Saam ]
Рекорд: 28 []
Гостей - 13 / Пользователей - 15
 


  ⇑