gemini-2.5-flash
googleКонтекст1 048 576 токенов
Вход57.60 ₽/1M
Выход480.00 ₽/1M
Ответ
System prompt для gemini-2.5-flash задаётся в первом сообщении с role "system" в массиве messages. System prompt определяет поведение, стиль и ограничения модели на протяжении всего диалога. Используйте его для настройки персонажа, формата ответов или предметной области. Экспериментируйте с формулировками для лучших результатов — чем конкретнее инструкция, тем точнее ответы gemini-2.5-flash.
Пример System Prompt для gemini-2.5-flash
Настройте поведение gemini-2.5-flash с помощью системного промпта:
from openai import OpenAI
client = OpenAI(
api_key="ваш_ключ_aitunnel",
base_url="https://api.aitunnel.ru/v1/"
)
response = client.chat.completions.create(
model="gemini-2.5-flash",
messages=[
{
"role": "system",
"content": "Ты — опытный Python-разработчик. "
"Отвечай кратко, с примерами кода. "
"Используй type hints и docstrings."
},
{
"role": "user",
"content": "Как сделать HTTP-запрос?"
}
]
)
print(response.choices[0].message.content)Другие вопросы о gemini-2.5-flash
Этот же вопрос — другие модели
Попробуйте сами через AITUNNEL
Получите API ключ и протестируйте модели. Работает из России без VPN, оплата в рублях.
Быстрый стартОплата картой РФПоддержка
Начать работуРегистрация за 1 минуту