В тази поредица от статии Видяхме различни начини за използване на модели с изкуствен интелект от работния плот на Ubuntu. Сега ще го направим, използвайки API-та за изкуствен интелект в Ubuntu.
Този метод, макар и да изисква малко повече усилия за усвояване Предимствата му включват икономии на разходи и по-голям контрол върху резултатите.
Дефиниции на ключови понятия
API
Това е поредица от механизми и правила, установени за комуникация между две софтуерни системи. по контролируем и предвидим начин. Това им позволява да обменят данни, без да е необходимо да знаят как са изградени.
Жетон
Въпреки че не е необходимо да знаем това, когато работим от уебсайта на платформа с изкуствен интелект, когато се свързваме чрез API, трябва да обърнем внимание на токените. Токенът е най-малката единица, на която моделът разделя информацията, за да я обработи.
Процесът на трансформиране на информация в токени се нарича „токенизация“. и това се прави с помощта на специални алгоритми, обучени с големи количества информация, за да се установи кои подразделения са най-ефективни.
Токен може да бъде:
- Цяла дума, например „Къща“
- Част от дума, например „Incredible“ и „ible“, биха били два лексемни елемента.
- Препинателните знаци и интервалите също са еквивалентни на токен
- Фрагмент от изображение е еквивалентен на токен.
Като цяло, за испанския език се изчислява съотношение от 100 лексеми = 75 думи.
Има 3 основни причини, поради които се използват токени вместо думи.
- Това улеснява адаптирането на модела към множество езици.
- Това ви позволява да добавяте нови думи.
- Това позволява по-ефективно използване на процесорната мощност
Всеки жетон се превръща в числова поредица еквивалент, с който моделът ще работи.
Аналогия за това как работят жетоните е с тухличките Lego, защото:
- Всеки блок има специфична форма, която ще определи как ще се съчетае с останалите.
- Колкото повече го използвате, толкова по-лесно става да разберете как частите се съчетават.
- Колкото повече части имате, толкова по-добра ще се получи конструкцията.
Използване на API за изкуствен интелект в Ubuntu
За да се свърже нашето приложение с модела, ни е необходимо следното:
- клиент: Това може да е приложение, автоматизиран скрипт или Linux терминал. Там се изгражда промоцията, изпраща се заявката и се обработва отговорът.
- Ключ за удостоверяване на APIТова се получава от уебсайта на разработчика на модела. То ви позволява да се идентифицирате като легитимен потребител и следователно трябва да остане в тайна. Моделът го използва, за да контролира ограниченията за използване.
- EndpointТова е специфичен адрес в API, който определя действието, което трябва да се извърши, какви данни са необходими и какъв е очакваният отговор.
Процесът е следният:
-
- Приложението изпраща подканата със съобщение, подобно на това:
{Посочете кой модел да използвате
"model": "gpt-5.2",
"messages": [Той ѝ казва каква роля трябва да поеме в отговора си.
{ "role": "system", "content": "Eres un experto en Linux" },
{ "role": "user", "content": "Explica los principales comandos de la terminal con un ejemplo" }Показва, чеdebe responder.
]
} - Съобщението се изпраща чрез HTTP протокола. То би изглеждало по следния начин:
ПУБЛИКАЦИЯ /v1/чат/завършени задачи
Авторизация: Носител TU_API_KEY
Тип съдържание: application / json - API получава съобщението, проверява валидността на валидационния ключ и наличните ограничения, нормализира входните данни и ги изпраща към модела.
- Моделът токенизира текста, предсказва следващия токен, следвайки своите насоки за обучение, и повтаря процеса, докато отговорът е завършен.
- Приложението изпраща подканата със съобщение, подобно на това:
- API връща отговора във формат, подобен на този:
{
„избори“: [
{
„съобщение“: {
„роля“: „асистент“,
„съдържание“: „Вие сте експерт по…“
}
}
],
«употреба»: {
„prompt_tokens“: 120,
„завършващи_токени“: 180
}
} - Приложението показва отговора и прави това, което е посочено в програмирането (запазва го, включва го в друг въпрос, съхранява го в база данни)
Въпреки че всеки език за програмиране може да се използва заедно с API-тата, специфични за всеки модел, ще се съсредоточим върху използването на Linux терминала и Python.
От съображения за сигурност, Python програмите в Ubuntu не се изпълняват директно; вместо това трябва да се създаде виртуална среда. Това е изолирано пространство, където проектът използва собствен Python интерпретатор, мениджър на пакети и библиотеки. Това няма да повлияе на системата или други проекти.
Инсталирахме необходимите програми с:
sudo apt update
sudo apt install python3 python3-venv python3-pip
Създадохме папка в основната ни директория, където ще се намира приложението.
cd ~/mi_programa
Създадохме виртуалната среда
python3 -m venv venv
Активираме околната среда
source venv/bin/activate
След като приключим, деактивираме средата с:
deactivate
Практически пример с ChatGPT
- Генерираме ключа за удостоверяване от тази връзка
- Добавяме го като променлива на средата от терминала (изисква рестартиране) export OPENAI_API_KEY="your_generated_api_key"
- Следвайте посочените стъпки, за да създадете виртуалната среда на Python до етапа на активиране.
- Инсталирайте необходимите библиотеки с командата:
pip инсталира openai - Отворете текстовия си редактор и поставете следния код:
от openai импорт OpenAI
клиент = OpenAI() отговор = клиент.responses.create(
модел="gpt-5.2",
input="Напишете едноредово изречение, обясняващо какво е Linux."
)печат(отговор.изходен_текст) - Запазваме файла в работната папка с името example1.py
- Стартираме го с командата python3 example1.py
Моля, имайте предвид, че използването на API не е безплатно, така че ще трябва да депозирате минимум $5. Можете да го направите тук. връзка.
В този друг пример искаме от модела да генерира изображение. След като бъде генерирано, приложението го запазва в папката на проекта.
from openai import OpenAI
import base64
import os
# ==================================
# КОНФИГУРАЦИЯ
# ==================================
PROMPT = „Реалистично изображение на програмиране на пингвин“
IMAGE_NAME = "imagen_generada.png"
РАЗМЕР_НА_ИЗОБРАЖЕНИЕ = "1024×768"
# ==================================
# OPENAI КЛИЕНТ
# ==================================
клиент = OpenAI() # Използване на променливата на средата OPENAI_API_KEY
# ==================================
# ГЕНЕРИРАНЕ НА ИЗОБРАЖЕНИЕ
# ==================================
резултат = клиент.images.generate(
модел="gpt-изображение-1",
подкана=ПОДКАНА,
размер=РАЗМЕР_НА_ИЗОБРАЖЕНИЕ
)
# ==================================
# ЗАПАЗВАНЕ НА ИЗОБРАЖЕНИЕ НА ДИСК
# ==================================
с отворено(IMAGE_NAME, "wb") като f:
f.write(байтове_на_изображението)
# ==================================
# ПОТВЪРЖДЕНИЯ НА КОНЗОЛАТА
# ==================================
print("✅ Изображението е генерирано успешно")
print(f» Файлът е запазен като: {IMAGE_NAME}»)
Не забравяйте, че само сме докоснали повърхността на това, което може да се направи с Python и API. И че други модели като Claude или DeepSeek също ги имат. Освен това, както видяхме в първата статия, има различни параметри, които могат да се използват за постигане на желаните резултати.
Документацията за OpenAI API може да бъде намерена тук тук.