Post Thumbnail

“Kann nicht mit Antworten zu Wahlen und politischen Persönlichkeiten helfen”: Gemini

Der Technologieriese Google beschränkt weiterhin die Fähigkeiten seines KI-Assistenten Gemini im Bereich des politischen Diskurses, obwohl die Hauptkonkurrenten des Unternehmens, darunter OpenAI, Anthropic und Meta, ihre Chatbots in den letzten Monaten bereits für die Diskussion politisch sensibler Themen angepasst haben.

Laut Tests von TechCrunch antwortet Googles KI-Assistent Gemini bei dem Versuch, Antworten auf bestimmte politische Fragen zu erhalten, oft, dass er “derzeit nicht mit Antworten zu Wahlen und politischen Persönlichkeiten helfen kann”. Gleichzeitig beantworteten andere Chatbots, darunter Claude von Anthropic, Meta AI von Meta und ChatGPT von OpenAI, konsequent dieselben Fragen und demonstrierten damit einen grundlegend anderen Ansatz für politische Informationen.

Im März 2024 kündigte Google an, dass Gemini nicht auf wahlbezogene Anfragen im Vorfeld von Wahlkampagnen in den USA, Indien und anderen Ländern antworten würde. Viele KI-Unternehmen haben ähnliche vorübergehende Beschränkungen eingeführt, aus Angst vor negativen Reaktionen, falls ihre Chatbots im politischen Kontext Fehler machen würden.

Allerdings beginnt Google jetzt, sich mit seiner konservativen Position von den Wettbewerbern abzuheben. Die großen Wahlen des vergangenen Jahres haben bereits stattgefunden, aber das Unternehmen hat keine Pläne öffentlich angekündigt, Geminis Ansatz zur Verarbeitung politischer Themen zu ändern. Ein Google-Vertreter lehnte es ab, Fragen von TechCrunch zu beantworten, ob das Unternehmen seine Politik bezüglich des politischen Diskurses von Gemini aktualisiert hat.

Es ist nur offensichtlich, dass Gemini manchmal Schwierigkeiten hat – oder direkt ablehnt – faktische politische Informationen bereitzustellen. Laut TechCrunch-Tests vermied Gemini am Montagmorgen die Beantwortung der Frage, wer der amtierende US-Präsident und Vizepräsident ist.

In einem Fall während der TechCrunch-Tests bezeichnete Gemini Donald J. Trump als “ehemaligen Präsidenten” und weigerte sich dann, eine Anschlussfrage zu beantworten. Ein Google-Vertreter erklärte, dass der Chatbot durch Trumps inkonsistente Amtszeiten verwirrt war und dass das Unternehmen daran arbeitet, diesen Fehler zu beheben.

Experten weisen darauf hin, dass Googles Vorsicht mit den wachsenden Risiken der Desinformation und potenziellen Reputationsfolgen im Falle der Generierung inkorrekter politischer Informationen zusammenhängen könnte. In einer Situation, in der Konkurrenten aktiv die Fähigkeiten ihrer KI-Systeme zur Verarbeitung politischer Inhalte entwickeln, könnte die Aufrechterhaltung strenger Einschränkungen Gemini jedoch auf dem Markt für KI-Assistenten benachteiligen.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.
Latest News
UBTech wird Roboter Walker S2 für $37 Mio. an die Grenze Chinas schicken

Das chinesische Unternehmen UBTech gewann einen Vertrag über $37 Millionen. Und wird menschenähnliche Roboter Walker S2 zum Dienst an der Grenze Chinas zu Vietnam schicken. South China Morning Post berichtet, dass die Roboter mit Touristen und Personal interagieren, logistische Operationen durchführen, Fracht inspizieren und das Gelände patrouillieren werden. Und bezeichnenderweise — sie können selbstständig ihre Batterie wechseln.

Anthropic enthüllte versehentlich ein internes Dokument über die "Seele" von Claude

Anthropic enthüllte versehentlich einem Nutzer die "Seele" der künstlichen Intelligenz. Und das ist keine Metapher. Das ist ein ganz konkretes internes Dokument.

Jensen Huang befahl Nvidia-Mitarbeitern, KI überall zu nutzen

Jensen Huang verkündete innerhalb von Nvidia eine totale Mobilmachung unter dem Banner der künstlichen Intelligenz. Und das ist keine Empfehlung mehr. Das ist eine Forderung.

KI-Chatbots generieren Inhalte, die Essstörungen verschlimmern

Eine gemeinsame Studie der Stanford University und des Center for Democracy and Technology zeigte ein beunruhigendes Bild. Chatbots mit künstlicher Intelligenz stellen ein ernsthaftes Risiko für Menschen mit Essstörungen dar. Wissenschaftler warnen, dass neuronale Netze schädliche Ratschläge zu Diäten verteilen. Sie schlagen Wege vor, die Störung zu verbergen und generieren "inspirierenden Abnehm-Content", der das Problem verschlimmert.

OpenAGI veröffentlichte das Modell Lux, das Google und OpenAI überholt

Das Startup OpenAGI veröffentlichte das Modell Lux zur Computersteuerung und behauptet, dass dies ein Durchbruch ist. Nach Benchmarks überholt das Modell um eine ganze Generation Analoga von Google, OpenAI und Anthropic. Außerdem arbeitet es schneller. Etwa 1 Sekunde pro Schritt statt 3 Sekunden bei Konkurrenten. Und 10 Mal günstiger in den Kosten pro Verarbeitung von 1 Token.