Создайте AI-powered API на FastAPI с интеграцией OpenAI через AITUNNEL.
Установка
pip install fastapi uvicorn openaiБазовый пример
from fastapi import FastAPI, HTTPException
from fastapi.responses import StreamingResponse
from pydantic import BaseModel
from openai import OpenAI
import asyncio
app = FastAPI()
client = OpenAI(
api_key="sk-aitunnel-xxx",
base_url="https://api.aitunnel.ru/v1/"
)
class ChatRequest(BaseModel):
message: str
model: str = "gpt-5.2"
@app.post("/chat")
async def chat(request: ChatRequest):
response = client.chat.completions.create(
model=request.model,
messages=[{"role": "user", "content": request.message}]
)
return {"response": response.choices[0].message.content}
@app.post("/chat/stream")
async def chat_stream(request: ChatRequest):
async def generate():
stream = client.chat.completions.create(
model=request.model,
messages=[{"role": "user", "content": request.message}],
stream=True
)
for chunk in stream:
if chunk.choices[0].delta.content:
yield f"data: {chunk.choices[0].delta.content}\n\n"
return StreamingResponse(generate(), media_type="text/event-stream")
if __name__ == "__main__":
import uvicorn
uvicorn.run(app, host="0.0.0.0", port=8000)Асинхронный клиент
from openai import AsyncOpenAI
async_client = AsyncOpenAI(
api_key="sk-aitunnel-xxx",
base_url="https://api.aitunnel.ru/v1/"
)
@app.post("/chat/async")
async def chat_async(request: ChatRequest):
response = await async_client.chat.completions.create(
model=request.model,
messages=[{"role": "user", "content": request.message}]
)
return {"response": response.choices[0].message.content}Ключевые возможности
- FastAPI интеграция
- Streaming ответы
- Async поддержка
- Pydantic модели
- Production-ready
Интегрируйте AI в ваш проект
AITUNNEL предоставляет OpenAI-совместимый API — подключение занимает минуты. Работает с любым фреймворком и языком программирования.
Доступные модели
Часто задаваемые вопросы
AITUNNEL — это сервис, предоставляющий доступ к AI API (OpenAI, Claude, Gemini и другим) в России без VPN. Мы работаем как прокси между вами и провайдерами AI, обеспечивая стабильное соединение и оплату в рублях.
Нет, VPN не нужен. AITUNNEL работает напрямую из России. Все запросы идут на российский сервер api.aitunnel.ru, который затем передаёт их провайдерам AI.
Мы принимаем оплату российскими банковскими картами, через СБП, а также по счёту для юридических лиц. Минимальная сумма пополнения — 299 рублей.
Да, AITUNNEL на 100% совместим с официальным OpenAI SDK. Вам нужно только изменить base_url на https://api.aitunnel.ru/v1/ и использовать ваш API ключ AITUNNEL.
Через AITUNNEL доступны все популярные AI модели: GPT-5.2, GPT-4.1, Claude Sonnet 4.5, Gemini 2.5, DeepSeek V3, Llama 4, FLUX 2 для изображений и многие другие.