GPT, Claude, Gemini — все модели через единый API. Работает в России без VPN.Начать бесплатно
FAQ • llama-4-scout

Как использовать llama-4-scout в Python?

Подробный ответ на вопрос о llama-4-scout через AITUNNEL API

llama-4-scout

meta-llama
Контекст328 000 токенов
Вход15.36 ₽/1M
Выход86.40 ₽/1M

Ответ

Для использования llama-4-scout в Python через AITUNNEL установите OpenAI SDK: pip install openai. Создайте клиент с вашим API ключом и base URL https://api.aitunnel.ru/v1/. Затем вызовите client.chat.completions.create() с указанием модели "llama-4-scout" и массива messages. Ответ будет в response.choices[0].message.content. API полностью совместим с OpenAI SDK — менять нужно только base_url и ключ. Ключ получите в личном кабинете AITUNNEL.

Быстрый старт с llama-4-scout

Пример вызова llama-4-scout через AITUNNEL API:

from openai import OpenAI

client = OpenAI(
    api_key="ваш_ключ_aitunnel",
    base_url="https://api.aitunnel.ru/v1/"
)

response = client.chat.completions.create(
    model="llama-4-scout",
    messages=[
        {"role": "user", "content": "Привет! Как дела?"}
    ]
)

print(response.choices[0].message.content)

Другие вопросы о llama-4-scout

Этот же вопрос — другие модели

Попробуйте сами через AITUNNEL

Получите API ключ и протестируйте модели. Работает из России без VPN, оплата в рублях.

Быстрый стартОплата картой РФПоддержка
Начать работуРегистрация за 1 минуту