glm-4-32b
z-aiКонтекст128 000 токенов
Вход19.20 ₽/1M
Выход19.20 ₽/1M
Ответ
**glm-4-32b не поддерживает JSON Mode через параметр response_format.**
Вы можете попросить модель вернуть JSON через system prompt, но без гарантии валидности формата.
Смотрите каталог моделей — там отмечены модели с поддержкой JSON Mode и Structured Outputs.
Пример использования glm-4-32b
Базовый пример работы с glm-4-32b через AITUNNEL API:
from openai import OpenAI
client = OpenAI(
api_key="ваш_ключ_aitunnel",
base_url="https://api.aitunnel.ru/v1/"
)
response = client.chat.completions.create(
model="glm-4-32b",
messages=[
{"role": "user", "content": "Привет! Как дела?"}
]
)
print(response.choices[0].message.content)Другие вопросы о glm-4-32b
Этот же вопрос — другие модели
Попробуйте сами через AITUNNEL
Получите API ключ и протестируйте модели. Работает из России без VPN, оплата в рублях.
Быстрый стартОплата картой РФПоддержка
Начать работуРегистрация за 1 минуту