
Технологический гигант Google по-прежнему ограничивает возможности своего AI-ассистента Gemini в области политического дискурса, несмотря на то что основные конкуренты компании, включая OpenAI, Anthropic и Meta, уже адаптировали свои чат-боты для обсуждения политически чувствительных тем в последние месяцы.
Согласно тестированию, проведенному TechCrunch, при попытке получить ответы на определенные политические вопросы AI-ассистент Google Gemini часто отвечает, что «не может помочь с ответами о выборах и политических фигурах в настоящий момент». В то же время другие чат-боты, включая Claude от Anthropic, Meta AI от Meta и ChatGPT от OpenAI, последовательно отвечали на те же самые вопросы, демонстрируя принципиально иной подход к политической информации.
В марте 2024 года Google объявила, что Gemini не будет отвечать на запросы, связанные с выборами, в преддверии избирательных кампаний в США, Индии и других странах. Многие AI-компании приняли аналогичные временные ограничения, опасаясь негативной реакции в случае, если их чат-боты допустят ошибки в политическом контексте.
Однако в настоящее время Google начинает выделяться на фоне конкурентов своей консервативной позицией. Крупные выборы прошлого года уже состоялись, но компания публично не объявила о планах изменить подход Gemini к обработке политических тем. Представитель Google отказался отвечать на вопросы TechCrunch о том, обновила ли компания свою политику в отношении политического дискурса Gemini.
Очевидно только то, что Gemini иногда затрудняется — или прямо отказывается — предоставлять фактическую политическую информацию. По состоянию на утро понедельника, согласно тестированию TechCrunch, Gemini уклонялся от ответа на вопрос о том, кто является действующим президентом и вице-президентом США.
В одном случае во время тестирования TechCrunch Gemini назвал Дональда Дж. Трампа «бывшим президентом», а затем отказался отвечать на уточняющий вопрос. Представитель Google пояснил, что чат-бот был сбит с толку непоследовательными сроками пребывания Трампа на посту и что компания работает над исправлением этой ошибки.
Эксперты отмечают, что подобная осторожность Google может быть связана с растущими рисками дезинформации и потенциальными репутационными последствиями в случае генерации некорректной политической информации. Однако в условиях, когда конкуренты активно развивают способности своих AI-систем обрабатывать политический контент, сохранение жестких ограничений может поставить Gemini в невыгодное положение на рынке AI-ассистентов.