Post Thumbnail

Digitaler Skandal bei der Los Angeles Times

Der Milliardär und Eigentümer der Los Angeles Times, Patrick Soon-Shiong, der ein neues KI-Tool zur Generierung gegensätzlicher Perspektiven zu Meinungsbeiträgen vorstellte, wusste nicht, dass das System weniger als 24 Stunden nach dem Start Pro-KKK-Argumente erstellt hatte — und das sogar noch Stunden nachdem die skandalösen KI-Kommentare von der Website der Publikation entfernt worden waren. Der Vorfall schuf ein enormes Hindernis für die Times, die danach strebt, alte Abonnenten zurückzugewinnen und neue durch innovative technologische Lösungen anzuziehen.

Während eines Interviews mit CNN gab Soon-Shiong, der Vorstandsvorsitzende der Times, zu, dass er weder den Originalartikel noch die von der KI generierte Antwort gesehen hatte. Er bemerkte jedoch, dass die Entfernung des Inhalts das Vorhandensein operativer “Kontrollen und Gegenkräfte” im neu eingeführten System zeigte und charakterisierte den Moment als Lernchance.

“(Dieser Vorfall) ist eine gute Lektion, die zeigt, dass künstliche Intelligenz noch nicht vollständig bereit ist (…) dies ist ein Versuch, ihre Fähigkeiten zu verstehen”, erklärte Soon-Shiong.

Am frühen Dienstagmorgen generierte das neue KI-Tool Gegenargumente zu einer Kolumne des Times-Journalisten Gustavo Arellano vom 25. Februar. In seinem Artikel argumentierte Arellano, dass Anaheim, Kalifornien, die Rolle des Ku-Klux-Klans in seiner Vergangenheit nicht vergessen sollte, und bezeichnete die Gruppe weißer Suprematisten als “einen Schandfleck an einem Ort, der gerne das Positive feiert”, und verband sie mit der heutigen politischen Landschaft. Die von der KI der Times generierten alternativen Ansichten präsentierten jedoch eine mildere Vision der rechtsextremen Gruppe und bezeichneten sie als eine Reaktion der “weißen protestantischen Kultur” auf gesellschaftliche Veränderungen, anstatt als eine explizit von Hass getriebene Bewegung.

Obwohl die von der KI generierten Kommentare später aus dem Material entfernt wurden und Arellano selbst bemerkte, dass “die KI dies tatsächlich richtig verstanden hat”, da “die Bewohner von Orange County seit den 1920er Jahren die Bedeutung des Klans heruntergespielt haben, indem sie ihn im Wesentlichen als Anti-Rassisten darstellten”, stellt das mangelnde Bewusstsein des Zeitungseigentümers für den sich anbahnenden Skandal ein gravierendes Problem dar.

Arellanos Kolumne ist nicht das einzige Material, das Fehler oder irreführende Kommentare enthält, die von der KI innerhalb der ersten 24 Stunden nach der Einführung des Tools generiert wurden. Ein Meinungsartikel von Scott Jennings über die Reaktion des Präsidenten Donald Trump auf die Waldbrände in Los Angeles wurde kritisiert, nachdem das System der Times das Material als zentristische charakterisiert hatte, trotz seiner rechten Thesen. Die von der KI generierte alternative Perspektive erwähnte auch nicht die Tatsache, dass Trump damit drohte, Los Angeles die Bundeshilfe zu verweigern, wenn seine Führung bestimmte Anforderungen nicht erfüllen würde.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.
Latest News
UBTech wird Roboter Walker S2 für $37 Mio. an die Grenze Chinas schicken

Das chinesische Unternehmen UBTech gewann einen Vertrag über $37 Millionen. Und wird menschenähnliche Roboter Walker S2 zum Dienst an der Grenze Chinas zu Vietnam schicken. South China Morning Post berichtet, dass die Roboter mit Touristen und Personal interagieren, logistische Operationen durchführen, Fracht inspizieren und das Gelände patrouillieren werden. Und bezeichnenderweise — sie können selbstständig ihre Batterie wechseln.

Anthropic enthüllte versehentlich ein internes Dokument über die "Seele" von Claude

Anthropic enthüllte versehentlich einem Nutzer die "Seele" der künstlichen Intelligenz. Und das ist keine Metapher. Das ist ein ganz konkretes internes Dokument.

Jensen Huang befahl Nvidia-Mitarbeitern, KI überall zu nutzen

Jensen Huang verkündete innerhalb von Nvidia eine totale Mobilmachung unter dem Banner der künstlichen Intelligenz. Und das ist keine Empfehlung mehr. Das ist eine Forderung.

KI-Chatbots generieren Inhalte, die Essstörungen verschlimmern

Eine gemeinsame Studie der Stanford University und des Center for Democracy and Technology zeigte ein beunruhigendes Bild. Chatbots mit künstlicher Intelligenz stellen ein ernsthaftes Risiko für Menschen mit Essstörungen dar. Wissenschaftler warnen, dass neuronale Netze schädliche Ratschläge zu Diäten verteilen. Sie schlagen Wege vor, die Störung zu verbergen und generieren "inspirierenden Abnehm-Content", der das Problem verschlimmert.

OpenAGI veröffentlichte das Modell Lux, das Google und OpenAI überholt

Das Startup OpenAGI veröffentlichte das Modell Lux zur Computersteuerung und behauptet, dass dies ein Durchbruch ist. Nach Benchmarks überholt das Modell um eine ganze Generation Analoga von Google, OpenAI und Anthropic. Außerdem arbeitet es schneller. Etwa 1 Sekunde pro Schritt statt 3 Sekunden bei Konkurrenten. Und 10 Mal günstiger in den Kosten pro Verarbeitung von 1 Token.