FAQ • Llama 3.3 70b Instruct

Какие лимиты у Llama 3.3 70b Instruct?

Подробный ответ на вопрос о Llama 3.3 70b Instruct через AITUNNEL API

Llama 3.3 70b Instruct

meta-llama
Контекст131 072 токенов
Вход23.04 ₽/1M
Выход57.60 ₽/1M

Ответ

Лимиты Llama 3.3 70b Instruct через AITUNNEL: контекстное окно — 131 072 токенов, rate limit зависит от тарифа (базовый — 60 RPM, расширенный — до 1000 RPM). Лимит на один запрос обычно ограничен контекстом модели. При превышении лимитов вернётся ошибка 429. Для увеличения лимитов обратитесь в поддержку или перейдите на корпоративный тариф.

Быстрый старт с Llama 3.3 70b Instruct

Пример вызова Llama 3.3 70b Instruct через AITUNNEL API:

from openai import OpenAI

client = OpenAI(
    api_key="ваш_ключ_aitunnel",
    base_url="https://api.aitunnel.ru/v1/"
)

response = client.chat.completions.create(
    model="llama-3.3-70b-instruct",
    messages=[
        {"role": "user", "content": "Привет! Как дела?"}
    ]
)

print(response.choices[0].message.content)

Другие вопросы о Llama 3.3 70b Instruct

Этот же вопрос — другие модели

Попробуйте сами через AITUNNEL

Получите API ключ и протестируйте модели. Работает из России без VPN, оплата в рублях.

Быстрый стартОплата картой РФПоддержка
Начать работуРегистрация за 1 минуту