GPT, Claude, Gemini — все модели через единый API. Работает в России без VPN.Начать бесплатно
Интеграции

FastAPI + OpenAI интеграция

Создание AI API на FastAPI с OpenAI

Создайте AI-powered API на FastAPI с интеграцией OpenAI через AITUNNEL.

Установка

bash
pip install fastapi uvicorn openai

Базовый пример

python
from fastapi import FastAPI, HTTPException
from fastapi.responses import StreamingResponse
from pydantic import BaseModel
from openai import OpenAI
import asyncio

app = FastAPI()

client = OpenAI(
    api_key="sk-aitunnel-xxx",
    base_url="https://api.aitunnel.ru/v1/"
)

class ChatRequest(BaseModel):
    message: str
    model: str = "gpt-5.2"

@app.post("/chat")
async def chat(request: ChatRequest):
    response = client.chat.completions.create(
        model=request.model,
        messages=[{"role": "user", "content": request.message}]
    )
    return {"response": response.choices[0].message.content}

@app.post("/chat/stream")
async def chat_stream(request: ChatRequest):
    async def generate():
        stream = client.chat.completions.create(
            model=request.model,
            messages=[{"role": "user", "content": request.message}],
            stream=True
        )
        for chunk in stream:
            if chunk.choices[0].delta.content:
                yield f"data: {chunk.choices[0].delta.content}\n\n"
    
    return StreamingResponse(generate(), media_type="text/event-stream")

if __name__ == "__main__":
    import uvicorn
    uvicorn.run(app, host="0.0.0.0", port=8000)

Асинхронный клиент

python
from openai import AsyncOpenAI

async_client = AsyncOpenAI(
    api_key="sk-aitunnel-xxx",
    base_url="https://api.aitunnel.ru/v1/"
)

@app.post("/chat/async")
async def chat_async(request: ChatRequest):
    response = await async_client.chat.completions.create(
        model=request.model,
        messages=[{"role": "user", "content": request.message}]
    )
    return {"response": response.choices[0].message.content}

Ключевые возможности

  • FastAPI интеграция
  • Streaming ответы
  • Async поддержка
  • Pydantic модели
  • Production-ready

Интегрируйте AI в ваш проект

AITUNNEL предоставляет OpenAI-совместимый API — подключение занимает минуты. Работает с любым фреймворком и языком программирования.

OpenAI-совместимыйПростая интеграцияДокументация
Начать работуРегистрация за 1 минуту

Доступные модели

Часто задаваемые вопросы

AITUNNEL — это сервис, предоставляющий доступ к AI API (OpenAI, Claude, Gemini и другим) в России без VPN. Мы работаем как прокси между вами и провайдерами AI, обеспечивая стабильное соединение и оплату в рублях.

Нет, VPN не нужен. AITUNNEL работает напрямую из России. Все запросы идут на российский сервер api.aitunnel.ru, который затем передаёт их провайдерам AI.

Мы принимаем оплату российскими банковскими картами, через СБП, а также по счёту для юридических лиц. Минимальная сумма пополнения — 299 рублей.

Да, AITUNNEL на 100% совместим с официальным OpenAI SDK. Вам нужно только изменить base_url на https://api.aitunnel.ru/v1/ и использовать ваш API ключ AITUNNEL.

Через AITUNNEL доступны все популярные AI модели: GPT-5.2, GPT-4.1, Claude Sonnet 4.5, Gemini 2.5, DeepSeek V3, Llama 4, FLUX 2 для изображений и многие другие.