gpt-5.2-codex
openaiКонтекст400 000 токенов
Вход336.00 ₽/1M
Выход2688.00 ₽/1M
Ответ
Да, gpt-5.2-codex поддерживает streaming.
Добавьте параметр stream: true в запрос, и ответ будет приходить по частям в реальном времени — токен за токеном.
Это улучшает UX в чат-ботах и интерфейсах, где важно показывать ответ сразу, не дожидаясь полной генерации. Streaming поддерживают все chat-модели через AITUNNEL.
Пример кода — ниже на странице.
Пример Streaming с gpt-5.2-codex
Получайте ответ gpt-5.2-codex по частям в реальном времени:
from openai import OpenAI
client = OpenAI(
api_key="ваш_ключ_aitunnel",
base_url="https://api.aitunnel.ru/v1/"
)
stream = client.chat.completions.create(
model="gpt-5.2-codex",
messages=[
{"role": "user", "content": "Напиши короткий рассказ"}
],
stream=True
)
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="", flush=True)
print() # Новая строка в концеДругие вопросы о gpt-5.2-codex
Этот же вопрос — другие модели
Попробуйте сами через AITUNNEL
Получите API ключ и протестируйте модели. Работает из России без VPN, оплата в рублях.
Быстрый стартОплата картой РФПоддержка
Начать работуРегистрация за 1 минуту