Streaming API позволяет получать ответы от AI по мере их генерации, а не ждать полного ответа.
Преимущества Streaming
- Быстрый отклик — пользователь видит ответ сразу
- Лучший UX — как в ChatGPT
- Меньше таймаутов — для длинных ответов
Python Streaming
python
from openai import OpenAI
client = OpenAI(
api_key="sk-aitunnel-xxx",
base_url="https://api.aitunnel.ru/v1/"
)
stream = client.chat.completions.create(
model="gpt-5.2",
messages=[{"role": "user", "content": "Напиши длинную историю"}],
stream=True
)
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="", flush=True)JavaScript Streaming
javascript
const stream = await client.chat.completions.create({
model: 'gpt-5.2',
messages: [{ role: 'user', content: 'Напиши историю' }],
stream: true
});
for await (const chunk of stream) {
const content = chunk.choices[0]?.delta?.content;
if (content) {
process.stdout.write(content);
}
}Server-Sent Events (SSE)
Для веб-приложений используйте SSE:
javascript
const response = await fetch('https://api.aitunnel.ru/v1/chat/completions', {
method: 'POST',
headers: {
'Content-Type': 'application/json',
'Authorization': 'Bearer sk-aitunnel-xxx'
},
body: JSON.stringify({
model: 'gpt-5.2',
messages: [{ role: 'user', content: 'Привет!' }],
stream: true
})
});
const reader = response.body.getReader();
const decoder = new TextDecoder();
while (true) {
const { done, value } = await reader.read();
if (done) break;
const chunk = decoder.decode(value);
// Обработка SSE данных
}Ключевые возможности
- Server-Sent Events (SSE)
- Мгновенный отклик
- Поддержка всех моделей
- Python, JS, Go, PHP
- WebSocket альтернатива
Используйте эту возможность с AITUNNEL
Все возможности доступны через единый API. Оплата в рублях, работа без VPN, техподдержка на русском.
Полный функционалОплата в рубляхБез VPN
Начать работуРегистрация за 1 минуту