OpenAI-совместимый API для разработчиков
Личный кабинет / Регистрация Быстрый стартsettings.json."language_models" ниже (если такой блок уже есть — добавьте свой openai_compatible провайдер внутрь него):{
"language_models": {
"openai_compatible": {
"SkyGroup Cloud AI": {
"api_url": "https://api.skymanager.xyz/v1",
"available_models": [
{
"name": "qwen-2.5-72b",
"display_name": "SkyGroup Cloud AI",
"max_tokens": 8192
}
]
}
}
}
}
~/.continue/config.json (создаётся автоматически после установки) — например через Cmd+Shift+P → Continue: Open config.json."models" (замените sk-... на свой ключ):{
"title": "SkyGroup Cloud AI",
"provider": "openai",
"model": "qwen-2.5-72b",
"apiBase": "https://api.skymanager.xyz/v1",
"apiKey": "sk-...",
"contextLength": 8192
}
OpenAI CompatibleOpenAI-compatibleЗамените sk-... на свой ключ и выполните в терминале:
curl https://api.skymanager.xyz/v1/chat/completions \
-H "Authorization: Bearer sk-..." \
-H "Content-Type: application/json" \
-d '{
"model": "qwen-2.5-72b",
"messages": [{"role": "user", "content": "Привет!"}]
}'
Установите SDK: pip install openai. Затем создайте файл chat.py с кодом ниже (замените sk-... на свой ключ) и запустите python chat.py:
from openai import OpenAI
client = OpenAI(
base_url="https://api.skymanager.xyz/v1",
api_key="sk-...",
)
r = client.chat.completions.create(
model="qwen-2.5-72b",
messages=[{"role": "user", "content": "Привет!"}],
)
print(r.choices[0].message.content)
Установите SDK: npm i openai. Создайте файл chat.mjs с кодом ниже (замените sk-...) и запустите node chat.mjs:
import OpenAI from "openai";
const client = new OpenAI({
baseURL: "https://api.skymanager.xyz/v1",
apiKey: "sk-...",
});
const r = await client.chat.completions.create({
model: "qwen-2.5-72b",
messages: [{ role: "user", content: "Привет!" }],
});
console.log(r.choices[0].message.content);
Какие endpoints поддерживаются?
Стандартные OpenAI: /v1/chat/completions, /v1/completions, /v1/models, /v1/embeddings (если включён embedding-провайдер). Streaming через "stream": true работает.
Какой context window?
8192 токена (промпт + ответ).
Лимиты?
Сейчас этап тестирования — лимитов нет. По мере роста нагрузки введём квоты, о чём сообщим заранее.
Какая модель под капотом?
Qwen 2.5 72B Instruct (квантизация GPTQ-Int4), self-hosted на инфраструктуре SkyGroup.
Данные передаются третьим лицам?
Нет. Inference происходит на наших серверах. Логи запросов используются только для технической диагностики.