Как да инсталирате и използвате DeepSeek-R1 локално на вашия компютър, независимо дали използвате Ubuntu или друга система

  • DeepSeek-R1 е модел с отворен код с разширени възможности за разсъждение.
  • Ollama опростява инсталирането и управлението на AI модели локално.
  • ChatBoxAI предлага графичен интерфейс за взаимодействие с модели като DeepSeek.
  • Моделът може лесно да се интегрира в проекти за разработка с Python.

DeepSeek-R1 на Ubuntu

Изкуственият интелект продължава да трансформира нашия свят и възможностите за работа с усъвършенствани езикови модели растат главоломно. Не всеки обаче трябва да се свързва с облачни услуги или да разчита на трети страни, за да изследва тези технологии. Интересна и достъпна алтернатива е DeepSeek-R1, AI модел, който позволява на потребителите да го изпълняват локално на скромни компютри. В тази статия ще обясня как да инсталирате DeepSeek и да се възползвате напълно от неговите възможности.

DeepSeek-R1 е a AI модел с отворен код който се отличава със своята ефективност и усъвършенстван капацитет за разсъждение. Като го изпълнявате локално, вие не само спестявате повтарящи се разходи, но и защитавате поверителността си и получавате гъвкавост, за да го интегрирате в персонализирани проекти. Въпреки че някои модели изискват мощен хардуер, DeepSeek-R1 предлага версии, настроени за различни ресурси, от основни компютри до напреднали работни станции.

Какво е DeepSeek и защо да го използвате локално?

DeepSeek-R1 е a усъвършенстван езиков модел, предназначен за сложни задачи като логически разсъждения, решаване на математически задачи и генериране на код. Основното му предимство е, че е с отворен код, което означава, че можете да го инсталирате и стартирате на вашия собствен компютър, без да зависи от външни сървъри.

Някои от неговите забележителни характеристики включват:

  • гъвкавост: Можете да адаптирате модела според вашите нужди, от леки версии до разширени конфигурации.
  • Декларация за: Цялата обработка се извършва локално, като се избягват притеснения за излагане на чувствителни данни. Това е може би най-важният момент, тъй като мнозина са загрижени какво могат да правят компаниите с нашите данни.
  • спестявания: Няма да се налага да харчите пари за абонаменти или облачни услуги, което го прави достъпна опция за разработчици и фирми.

Изисквания за монтаж

Преди да започнете инсталацията, уверете се, че спазвате следното изисквания:

  • Компютър с операционна система Linux, macOS или Windows (с поддръжка на WSL2 във втория случай).
  • Минимум от 8 GB оперативна памет, въпреки че е препоръчително поне 16 GB за оптимална производителност.
  • Достъп до интернет за първоначално изтегляне на моделите.
  • Основни познания за терминал или команден ред.

Освен това, ще трябва да инсталирате инструмент, наречен Олама, който управлява и управлява DeepSeek модели локално.

Инсталиране на Ollama

Олама е просто решение, което ви позволява да изтегляте и изпълнявате езикови модели като DeepSeek-R1. За да го инсталирате, изпълнете следните стъпки:

  1. В Linux или macOS отворете терминала и изпълнете следната команда, за да инсталирате Ollama — пакета Curl Необходимо е, очевидно –:
curl -fsSL https://ollama.com/install.sh | ш
  1. В Windows системи се уверете, че сте активирали WSL2 предварително и след това следвайте същите стъпки в терминала на Ubuntu, които конфигурирате в WSL.
  2. Проверете дали Ollama е инсталиран правилно, като стартирате ollama --version. Ако командата върне номер на версия, вие сте готови да продължите напред.

DeepSeek-R1 Изтегляне

С инсталиран и работещ Ollama (ollama serve в терминала, ако изтеглянето, което обясняваме по-късно, е неуспешно), сега можете да изтеглите модела DeepSeek, който най-добре отговаря на вашите нужди и хардуер:

  • 1.5B параметри: Идеален за основни компютри. Този модел заема приблизително 1.1 GB.
  • 7B параметри: Препоръчва се за оборудване с Графичните процесори средно-висока. Това заема около 4.7 GB.
  • 70B параметри: За сложни задачи на оборудване с голям капацитет памет и мощен графичен процесор.

За да изтеглите стандартния модел 7B, изпълнете тази команда в терминала:

Olama Run Deepseek-R1

Времето за изтегляне ще зависи от вашата интернет скорост и ще е необходимо само при първото стартиране на чатбота. След като бъде завършен, моделът ще бъде готов за използване от командния ред или чрез графичен интерфейс.

Използване на DeepSeek с графичен интерфейс

Въпреки че можете да взаимодействате с DeepSeek директно от терминала, много потребители предпочитат графичен интерфейс за удобство. В този случай можете да инсталирате ChatBoxAI, безплатно приложение, което ще ви позволи да се възползвате от DeepSeek от визуална форма.

  • Изтеглете и инсталирайте ChatBoxAI от официалната му страница.
  • Настройте приложението за използване Олама като модел доставчик:

В настройките на ChatBoxAI изберете „Използване на моя собствен API“ и изберете модела DeepSeek, който сте изтеглили преди това. Ако всичко е конфигурирано правилно, ще можете да изпълнявате заявки и задачи директно от графичния интерфейс.

Интегриране на DeepSeek в проекти

Ако сте разработчик, можете да интегрирате DeepSeek във вашите проекти, като използвате неговия API Съвместим с OpenAI. Ето един прост пример за използване Питон:

import openai client = openai.Client(base_url="http://localhost:11434/v1", api_key="ollama") response = client.chat.completions.create(model="deepseek-r1", messages=[{ "role": "user", "content": "Генериране на код в Python за изчисляване на Фибоначи"}])

Този скрипт ще изпрати заявка до локалния модел DeepSeek и ще върне резултата във вашия терминал или приложение.

Моделът DeepSeek-R1 AI представлява отлична опция за търсещите усъвършенствано и икономично решение. С лесния достъп, който Ollama предоставя, гъвкавостта на своите модели и възможността за интегриране в персонализирани проекти, DeepSeek отваря нови възможности за разработчици, студенти и експерти по изкуствен интелект. Със своя фокус върху поверителността и производителността, той е инструмент, който заслужава да бъде проучен задълбочено.