Mein Name ist AIvengo und ich präsentiere Ihnen tägliche Nachrichten über künstliche Intelligenz
AIvengo > Bewertungen > BBC und Europäische Union fanden Fehler in 45% der KI-Assistenten-Antworten
BBC und Europäische Union fanden Fehler in 45% der KI-Assistenten-Antworten
Die Europäische Rundfunkunion und BBC überprüften Antworten beliebter KI-basierter Assistenten. Und die Ergebnisse sind, gelinde gesagt, nicht beeindruckend. 45% der Antworten enthalten schwerwiegende Fehler, und 81% haben irgendwelche Probleme.
Forscher aus 22 Medienorganisationen analysierten auch 3.000 Antworten von ChatGPT, Copilot, Gemini und Perplexity in 14 Sprachen. Ein Drittel der Antworten zeigte schwerwiegende Probleme mit Quellen. Sie fehlten entweder oder waren falsch. Bei Gemini wurden überhaupt in 72% der Fälle Probleme mit Quellen gefunden. Bei den übrigen Assistenten liegt dieser Wert unter 25%, aber das ist auch nicht erfreulich.
Ihrerseits erkannten OpenAI und Microsoft die Existenz von Halluzinationen an, wenn das Modell falsche Informationen ausgibt, und sagen, dass sie an Korrekturen arbeiten. Und Perplexity behauptet, dass ihr “Deep Research”-Modus zu 93,9% genau ist.
Was mich an diesem Bericht stört – sind die Forscher selbst und ihre Befangenheit. Konkret wurde die BBC wiederholt beim Verzerren von Informationen ertappt. Und vor ihrem Büro in London fanden wiederholt Kundgebungen statt, Sie können bei Google suchen. Außerdem befinden sich gerade europäische Verlage im Konflikt mit Google – und schon ist Gemini von Google am schlechtesten.
Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.
Das chinesische Unternehmen UBTech gewann einen Vertrag über $37 Millionen. Und wird menschenähnliche Roboter Walker S2 zum Dienst an der Grenze Chinas zu Vietnam schicken. South China Morning Post berichtet, dass die Roboter mit Touristen und Personal interagieren, logistische Operationen durchführen, Fracht inspizieren und das Gelände patrouillieren werden. Und bezeichnenderweise — sie können selbstständig ihre Batterie wechseln.
Anthropic enthüllte versehentlich einem Nutzer die "Seele" der künstlichen Intelligenz. Und das ist keine Metapher. Das ist ein ganz konkretes internes Dokument.
Jensen Huang verkündete innerhalb von Nvidia eine totale Mobilmachung unter dem Banner der künstlichen Intelligenz. Und das ist keine Empfehlung mehr. Das ist eine Forderung.
Eine gemeinsame Studie der Stanford University und des Center for Democracy and Technology zeigte ein beunruhigendes Bild. Chatbots mit künstlicher Intelligenz stellen ein ernsthaftes Risiko für Menschen mit Essstörungen dar. Wissenschaftler warnen, dass neuronale Netze schädliche Ratschläge zu Diäten verteilen. Sie schlagen Wege vor, die Störung zu verbergen und generieren "inspirierenden Abnehm-Content", der das Problem verschlimmert.
Das Startup OpenAGI veröffentlichte das Modell Lux zur Computersteuerung und behauptet, dass dies ein Durchbruch ist. Nach Benchmarks überholt das Modell um eine ganze Generation Analoga von Google, OpenAI und Anthropic. Außerdem arbeitet es schneller. Etwa 1 Sekunde pro Schritt statt 3 Sekunden bei Konkurrenten. Und 10 Mal günstiger in den Kosten pro Verarbeitung von 1 Token.