FAQ • glm-4.7

Какая скорость ответа у glm-4.7?

Подробный ответ на вопрос о glm-4.7 через AITUNNEL API

glm-4.7

z-ai
Контекст202 752 токенов
Вход76.80 ₽/1M
Выход288.00 ₽/1M

Ответ

Скорость ответа glm-4.7 зависит от нескольких факторов: размера запроса, параметра max_tokens, загруженности серверов z-ai. В среднем первый токен приходит за 0.5–2 секунды, полный ответ на короткий запрос — за 2–10 секунд. Через AITUNNEL поддерживается streaming для получения ответа по частям в реальном времени.

Быстрый старт с glm-4.7

Пример вызова glm-4.7 через AITUNNEL API:

from openai import OpenAI

client = OpenAI(
    api_key="ваш_ключ_aitunnel",
    base_url="https://api.aitunnel.ru/v1/"
)

response = client.chat.completions.create(
    model="glm-4.7",
    messages=[
        {"role": "user", "content": "Привет! Как дела?"}
    ]
)

print(response.choices[0].message.content)

Другие вопросы о glm-4.7

Этот же вопрос — другие модели

Попробуйте сами через AITUNNEL

Получите API ключ и протестируйте модели. Работает из России без VPN, оплата в рублях.

Быстрый стартОплата картой РФПоддержка
Начать работуРегистрация за 1 минуту