FAQ • llama-3.3-70b-instruct

Как интегрировать llama-3.3-70b-instruct с LangChain?

Подробный ответ на вопрос о llama-3.3-70b-instruct через AITUNNEL API

llama-3.3-70b-instruct

meta-llama
Контекст131 072 токенов
Вход23.04 ₽/1M
Выход57.60 ₽/1M

Ответ

Для интеграции llama-3.3-70b-instruct с LangChain через AITUNNEL установите пакет langchain-openai: pip install langchain-openai. Создайте экземпляр ChatOpenAI с моделью "llama-3.3-70b-instruct", вашим API ключом и base_url. LangChain поддерживает все возможности llama-3.3-70b-instruct: chains (цепочки вызовов), agents (автономные агенты), memory (память диалога), tools (вызов функций), RAG (поиск по документам). API AITUNNEL полностью совместим с LangChain без дополнительных настроек.

Пример интеграции llama-3.3-70b-instruct с LangChain

Используйте llama-3.3-70b-instruct через AITUNNEL в LangChain:

from langchain_openai import ChatOpenAI
from langchain_core.messages import HumanMessage, SystemMessage

# Инициализация через AITUNNEL
llm = ChatOpenAI(
    model="llama-3.3-70b-instruct",
    api_key="ваш_ключ_aitunnel",
    base_url="https://api.aitunnel.ru/v1/"
)

# Простой вызов
response = llm.invoke("Привет! Расскажи о себе")
print(response.content)

# С системным промптом
messages = [
    SystemMessage(content="Ты — полезный ассистент"),
    HumanMessage(content="Что такое API?")
]
response = llm.invoke(messages)
print(response.content)

# Установка: pip install langchain-openai

Другие вопросы о llama-3.3-70b-instruct

Этот же вопрос — другие модели

Попробуйте сами через AITUNNEL

Получите API ключ и протестируйте модели. Работает из России без VPN, оплата в рублях.

Быстрый стартОплата картой РФПоддержка
Начать работуРегистрация за 1 минуту