FAQ • llama-3.3-70b-instruct

Как настроить system prompt для llama-3.3-70b-instruct?

Подробный ответ на вопрос о llama-3.3-70b-instruct через AITUNNEL API

llama-3.3-70b-instruct

meta-llama
Контекст131 072 токенов
Вход23.04 ₽/1M
Выход57.60 ₽/1M

Ответ

System prompt для llama-3.3-70b-instruct задаётся в первом сообщении с role "system" в массиве messages. System prompt определяет поведение, стиль и ограничения модели на протяжении всего диалога. Используйте его для настройки персонажа, формата ответов или предметной области. Экспериментируйте с формулировками для лучших результатов — чем конкретнее инструкция, тем точнее ответы llama-3.3-70b-instruct.

Пример System Prompt для llama-3.3-70b-instruct

Настройте поведение llama-3.3-70b-instruct с помощью системного промпта:

from openai import OpenAI

client = OpenAI(
    api_key="ваш_ключ_aitunnel",
    base_url="https://api.aitunnel.ru/v1/"
)

response = client.chat.completions.create(
    model="llama-3.3-70b-instruct",
    messages=[
        {
            "role": "system",
            "content": "Ты — опытный Python-разработчик. "
            "Отвечай кратко, с примерами кода. "
            "Используй type hints и docstrings."
        },
        {
            "role": "user",
            "content": "Как сделать HTTP-запрос?"
        }
    ]
)

print(response.choices[0].message.content)

Другие вопросы о llama-3.3-70b-instruct

Этот же вопрос — другие модели

Попробуйте сами через AITUNNEL

Получите API ключ и протестируйте модели. Работает из России без VPN, оплата в рублях.

Быстрый стартОплата картой РФПоддержка
Начать работуРегистрация за 1 минуту