qwen3-max-thinking
qwenКонтекст262 144 токенов
Вход230.40 ₽/1M
Выход1152.00 ₽/1M
Ответ
Способы снизить расходы на qwen3-max-thinking:
- Оптимизируйте промпты — короче вход = меньше токенов.
- Ограничьте max_tokens для ответа.
- Используйте кеширование повторяющихся запросов.
- Для простых задач выбирайте более дешёвые модели (GPT-5-mini, Claude Haiku).
- Сжимайте историю диалога. Через AITUNNEL вы видите расход токенов в личном кабинете.
Быстрый старт с qwen3-max-thinking
Пример вызова qwen3-max-thinking через AITUNNEL API:
from openai import OpenAI
client = OpenAI(
api_key="ваш_ключ_aitunnel",
base_url="https://api.aitunnel.ru/v1/"
)
response = client.chat.completions.create(
model="qwen3-max-thinking",
messages=[
{"role": "user", "content": "Привет! Как дела?"}
]
)
print(response.choices[0].message.content)Другие вопросы о qwen3-max-thinking
Этот же вопрос — другие модели
Попробуйте сами через AITUNNEL
Получите API ключ и протестируйте модели. Работает из России без VPN, оплата в рублях.
Быстрый стартОплата картой РФПоддержка
Начать работуРегистрация за 1 минуту