FAQ • gpt-5.1-codex-mini

Поддерживает ли gpt-5.1-codex-mini streaming?

Подробный ответ на вопрос о gpt-5.1-codex-mini через AITUNNEL API

gpt-5.1-codex-mini

openai
Контекст400 000 токенов
Вход288.00 ₽/1M
Выход1152.00 ₽/1M

Ответ

Да, gpt-5.1-codex-mini поддерживает streaming.

Добавьте параметр stream: true в запрос, и ответ будет приходить по частям в реальном времени — токен за токеном.

Это улучшает UX в чат-ботах и интерфейсах, где важно показывать ответ сразу, не дожидаясь полной генерации. Streaming поддерживают все chat-модели через AITUNNEL.

Пример кода — ниже на странице.

Пример Streaming с gpt-5.1-codex-mini

Получайте ответ gpt-5.1-codex-mini по частям в реальном времени:

from openai import OpenAI

client = OpenAI(
    api_key="ваш_ключ_aitunnel",
    base_url="https://api.aitunnel.ru/v1/"
)

stream = client.chat.completions.create(
    model="gpt-5.1-codex-mini",
    messages=[
        {"role": "user", "content": "Напиши короткий рассказ"}
    ],
    stream=True
)

for chunk in stream:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="", flush=True)

print()  # Новая строка в конце

Другие вопросы о gpt-5.1-codex-mini

Этот же вопрос — другие модели

Попробуйте сами через AITUNNEL

Получите API ключ и протестируйте модели. Работает из России без VPN, оплата в рублях.

Быстрый стартОплата картой РФПоддержка
Начать работуРегистрация за 1 минуту