
KI generiert fiktive Gerichtsfälle
Die große amerikanische Anwaltskanzlei Morgan & Morgan, die sich auf Personenschadenfälle spezialisiert hat, sendete eine dringende Warnung an mehr als 1.000 ihrer Anwälte nach einem Vorfall mit künstlicher Intelligenz in der Gerichtspraxis. Der Grund war ein Fall, bei dem KI nicht existierende Gerichtspräzedenzfälle generierte, was den Ruf der Kanzlei und die Karrieren ihrer Mitarbeiter gefährdete.
Die Situation verschärfte sich, nachdem ein Bundesrichter in Wyoming zwei Anwälten der Kanzlei mit Sanktionen drohte, die fiktive Gerichtszitate in eine Klage gegen Walmart aufgenommen hatten. Einer der Anwälte gab letzte Woche in Gerichtsdokumenten zu, dass er ein KI-Programm verwendet hatte, das nicht existierende Fälle „halluzinierte“, und entschuldigte sich für das, was er als unbeabsichtigten Fehler bezeichnete.
Laut Reuters hat der Trend der KI-generierten juristischen Fiktion in Gerichtsdokumenten dazu geführt, dass Gerichte im ganzen Land in mindestens sieben Fällen in den letzten zwei Jahren Anwälte in Frage gestellt oder disziplinarische Maßnahmen ergriffen haben. Dies hat ein neues High-Tech-Problem sowohl für Prozessbeteiligte als auch für Richter geschaffen.
Der Walmart-Fall sticht hervor, weil er eine bekannte Anwaltskanzlei und einen großen Unternehmensbeklagten betrifft. Ähnliche Beispiele sind jedoch in verschiedenen Klagen aufgetaucht, seit Chatbots wie ChatGPT die KI-Ära eingeläutet haben, was neue Risiken in Gerichtsverfahren aufzeigt.
Ein Vertreter von Morgan & Morgan reagierte nicht auf eine Bitte um Stellungnahme, und Walmart lehnte einen Kommentar ab. Der Richter hat noch nicht über Disziplinarmaßnahmen gegen die Anwälte im Walmart-Fall entschieden, bei dem es um ein angeblich defektes Hoverboard-Spielzeug ging.
Dieser Fall zeigt die wachsenden Risiken des Einsatzes künstlicher Intelligenz in der Rechtspraxis und unterstreicht die Notwendigkeit einer gründlicheren Überprüfung von KI-generierten Informationen, besonders wenn es um Gerichtsdokumente geht.