llama-4-maverick
meta-llamaКонтекст1 048 576 токенов
Вход38.40 ₽/1M
Выход115.20 ₽/1M
Ответ
Размер контекстного окна llama-4-maverick составляет 1 048 576 токенов. Это максимальный объём текста (входные сообщения + ответ модели), который можно обработать за один запрос. Для длинных документов или диалогов с историей рекомендуется использовать модели с большим контекстом или применять суммаризацию.
Быстрый старт с llama-4-maverick
Пример вызова llama-4-maverick через AITUNNEL API:
from openai import OpenAI
client = OpenAI(
api_key="ваш_ключ_aitunnel",
base_url="https://api.aitunnel.ru/v1/"
)
response = client.chat.completions.create(
model="llama-4-maverick",
messages=[
{"role": "user", "content": "Привет! Как дела?"}
]
)
print(response.choices[0].message.content)Другие вопросы о llama-4-maverick
Этот же вопрос — другие модели
Попробуйте сами через AITUNNEL
Получите API ключ и протестируйте модели. Работает из России без VPN, оплата в рублях.
Быстрый стартОплата картой РФПоддержка
Начать работуРегистрация за 1 минуту