llama-3.3-70b-instruct
meta-llamaКонтекст131 072 токенов
Вход23.04 ₽/1M
Выход57.60 ₽/1M
Ответ
Для использования llama-3.3-70b-instruct в Python через AITUNNEL установите OpenAI SDK: pip install openai. Создайте клиент с вашим API ключом и base URL https://api.aitunnel.ru/v1/. Затем вызовите client.chat.completions.create() с указанием модели "llama-3.3-70b-instruct" и массива messages. Ответ будет в response.choices[0].message.content. API полностью совместим с OpenAI SDK — менять нужно только base_url и ключ. Ключ получите в личном кабинете AITUNNEL.
Быстрый старт с llama-3.3-70b-instruct
Пример вызова llama-3.3-70b-instruct через AITUNNEL API:
from openai import OpenAI
client = OpenAI(
api_key="ваш_ключ_aitunnel",
base_url="https://api.aitunnel.ru/v1/"
)
response = client.chat.completions.create(
model="llama-3.3-70b-instruct",
messages=[
{"role": "user", "content": "Привет! Как дела?"}
]
)
print(response.choices[0].message.content)Другие вопросы о llama-3.3-70b-instruct
Этот же вопрос — другие модели
Попробуйте сами через AITUNNEL
Получите API ключ и протестируйте модели. Работает из России без VPN, оплата в рублях.
Быстрый стартОплата картой РФПоддержка
Начать работуРегистрация за 1 минуту