Как использовать DeepSeek-R1 бесплатно? Локальная установка новых моделей ИИ очень проста. Смотрите короткий гид
Семейство больших языковых моделей Deepseek-R1 все еще вызывает значительный переживание в мире. Даже прямая конкуренция, то есть Openai, признал, что возможности флагманской модели в этой серии «впечатляют», особенно если мы объединим их с затратами, которые должны быть понесены с использованием интерфейса API (сумма для миллиона начинающих токенов является лишь частью того, что вам нужно заплатить в случае модели Openai O1). DeepSeek выпустил все модели из новой линии бесплатно, и мы можем использовать их на своем компьютере. Не стоит сосредоточиться на том факте, что мы проверим самую большую модель, но мы, вероятно, сможем запустить меньшие варианты на местном уровне.
Модели из семейства DeepSeek-R1 доступны бесплатно, и вы можете легко использовать их на своем компьютере. На мгновение создать чат -бот, который будет работать локально, поэтому вам не нужно беспокоиться о конфиденциальности.
DeepSeek меняет лицо рынка ИИ через серию DeepSeek-R1. Nvidia теряет миллиарды долларов, и позиция Openai кажется угрожающей
Для локального запуска новых крупных языковых моделей от DeepSeek просто используйте программу под названием ОлламПолем Это бесплатное программное обеспечение дает нам доступ к большой базе LLM, которую можно легко загрузить, а затем использовать. Мы должны пройти первым к этому адресу и нажмите кнопку СкачатьПолем Ollam доступен для различных распределений на основе Linux, а также MacOS и Windows. В первом случае просто запустите терминал и следуйте команде, видимой на странице. В последних двух мы просто загружаем установщик, включим его и проходим стандартный процесс установки. Сразу после этого просто запустите терминал и введите команду OLLAM PULL NAME_MODELПолем Когда выбранная нами модель загружается, введите OLLAM запустить name_modelЧтобы начать использовать его.
Количество параметров | Размер | Штаб -квартира для установки | Штаб -квартира будет запущена | |
DeepSeek-R1 | 1,5 миллиарда | 1,1 ГБ | OLLAM PULL DeepSeek-R1: 1,5B | Ollam run deepseek-r1: 1,5b |
DeepSeek-R1 | 7 миллиардов | 4,7 ГБ | Ollam Pull Deepseek-R1: 7b | Ollam Run DeepSeek-R1: 7b |
DeepSeek-R1 | 8 миллиардов | 4,9 ГБ | OLLAM PULL DeepSeek-R1: 8B | Ollam run deepseek-r1: 8b |
DeepSeek-R1 | 14 миллиардов | 9,0 ГБ | Ollam Pull Deepseek-R1: 14b | Ollam Run Deepseek-R1: 14b |
DeepSeek-R1 | 32 миллиарда | 20 ГБ | OLLAM PULL DeepSeek-R1: 32B | Ollam Run DeepSeek-R1: 32B |
DeepSeek-R1 | 70 миллиардов | 43 ГБ | Ollam Pull Deepseek-R1: 70b | Ollam Run DeepSeek-R1: 70b |
DeepSeek-R1 | 671 миллиард | 404 ГБ | Ollam Pull Deepseek-R1: 671b | Ollam run deepseek-r1: 671b |
GPT -4o Mini — новая языковая модель от Openai. Искусственный интеллект становится более доступным по цене
Стоит помнить, что чем ниже количество параметров, тем ниже возможности данной языковой модели, но требования к памяти VRAM также будут ниже. Кроме того, самые маленькие модели могут зацикливаться на «мышлении» (поэтому вы можете пропустить издания с 1,5, 7 и 8 миллиардов параметров — из тестов, проведенных в редакционном офисе Регистра). Модель DeepSeek-R1 с 14 миллиардами параметров будет использовать примерно в памяти VRAM, в то время как вариант с 32 миллиардами параметров уже будет использовать 21,3 ГБ (Nvidia GeForce RTX 4090 это слишком много вызова). Конечно, полное флагманское издание из 671 миллиарда параметров лучше всего, в то время как на потребительской графике нет смысла принимать во внимание.
Рекомендация | |
Запуск сервиса Ollam | Оллам служит |
Установка языковой модели | OLLAM запустить name_model |
Запуск (+возможная установка) языковой модели | OLLAM запустить name_model |
Выйдите из разговора с языковой моделью | /Пока |
Удаление языковой модели | ollam rm name_model |
Список всех установленных моделей | Список Оллама |
Отображение модели рабочего языка | Оллама Пс |
Версия OLLAM версии | OLLAM -V |
Лицензия данной языковой модели | ollam show name_model -lisense |