FAQ • mistral-small-3.2-24b-instruct

Какой контекст у mistral-small-3.2-24b-instruct?

Подробный ответ на вопрос о mistral-small-3.2-24b-instruct через AITUNNEL API

mistral-small-3.2-24b-instruct

mistralai
Контекст131 072 токенов
Вход11.52 ₽/1M
Выход34.56 ₽/1M

Ответ

Размер контекстного окна mistral-small-3.2-24b-instruct составляет 131 072 токенов. Это максимальный объём текста (входные сообщения + ответ модели), который можно обработать за один запрос. Для длинных документов или диалогов с историей рекомендуется использовать модели с большим контекстом или применять суммаризацию.

Быстрый старт с mistral-small-3.2-24b-instruct

Пример вызова mistral-small-3.2-24b-instruct через AITUNNEL API:

from openai import OpenAI

client = OpenAI(
    api_key="ваш_ключ_aitunnel",
    base_url="https://api.aitunnel.ru/v1/"
)

response = client.chat.completions.create(
    model="mistral-small-3.2-24b-instruct",
    messages=[
        {"role": "user", "content": "Привет! Как дела?"}
    ]
)

print(response.choices[0].message.content)

Другие вопросы о mistral-small-3.2-24b-instruct

Этот же вопрос — другие модели

Попробуйте сами через AITUNNEL

Получите API ключ и протестируйте модели. Работает из России без VPN, оплата в рублях.

Быстрый стартОплата картой РФПоддержка
Начать работуРегистрация за 1 минуту