
Der Technologieriese Google beschränkt weiterhin die Fähigkeiten seines KI-Assistenten Gemini im Bereich des politischen Diskurses, obwohl die Hauptkonkurrenten des Unternehmens, darunter OpenAI, Anthropic und Meta, ihre Chatbots in den letzten Monaten bereits für die Diskussion politisch sensibler Themen angepasst haben.
Laut Tests von TechCrunch antwortet Googles KI-Assistent Gemini bei dem Versuch, Antworten auf bestimmte politische Fragen zu erhalten, oft, dass er „derzeit nicht mit Antworten zu Wahlen und politischen Persönlichkeiten helfen kann“. Gleichzeitig beantworteten andere Chatbots, darunter Claude von Anthropic, Meta AI von Meta und ChatGPT von OpenAI, konsequent dieselben Fragen und demonstrierten damit einen grundlegend anderen Ansatz für politische Informationen.
Im März 2024 kündigte Google an, dass Gemini nicht auf wahlbezogene Anfragen im Vorfeld von Wahlkampagnen in den USA, Indien und anderen Ländern antworten würde. Viele KI-Unternehmen haben ähnliche vorübergehende Beschränkungen eingeführt, aus Angst vor negativen Reaktionen, falls ihre Chatbots im politischen Kontext Fehler machen würden.
Allerdings beginnt Google jetzt, sich mit seiner konservativen Position von den Wettbewerbern abzuheben. Die großen Wahlen des vergangenen Jahres haben bereits stattgefunden, aber das Unternehmen hat keine Pläne öffentlich angekündigt, Geminis Ansatz zur Verarbeitung politischer Themen zu ändern. Ein Google-Vertreter lehnte es ab, Fragen von TechCrunch zu beantworten, ob das Unternehmen seine Politik bezüglich des politischen Diskurses von Gemini aktualisiert hat.
Es ist nur offensichtlich, dass Gemini manchmal Schwierigkeiten hat – oder direkt ablehnt – faktische politische Informationen bereitzustellen. Laut TechCrunch-Tests vermied Gemini am Montagmorgen die Beantwortung der Frage, wer der amtierende US-Präsident und Vizepräsident ist.
In einem Fall während der TechCrunch-Tests bezeichnete Gemini Donald J. Trump als „ehemaligen Präsidenten“ und weigerte sich dann, eine Anschlussfrage zu beantworten. Ein Google-Vertreter erklärte, dass der Chatbot durch Trumps inkonsistente Amtszeiten verwirrt war und dass das Unternehmen daran arbeitet, diesen Fehler zu beheben.
Experten weisen darauf hin, dass Googles Vorsicht mit den wachsenden Risiken der Desinformation und potenziellen Reputationsfolgen im Falle der Generierung inkorrekter politischer Informationen zusammenhängen könnte. In einer Situation, in der Konkurrenten aktiv die Fähigkeiten ihrer KI-Systeme zur Verarbeitung politischer Inhalte entwickeln, könnte die Aufrechterhaltung strenger Einschränkungen Gemini jedoch auf dem Markt für KI-Assistenten benachteiligen.