Судья оштрафовал юристов на 31 тысячу за фальшивые цитаты от ИИ

Post Thumbnail

Судья из Калифорнии Майкл Уилнер вынес жёсткое решение против юридических фирм, которые без надлежащего контроля использовали искусственный интеллект для подготовки документов. Содержащих ложные судебные прецеденты и несуществующие цитаты.

Ситуация развивалась вокруг гражданского иска против страховой компании State Farm. Представитель истца воспользовался искусственным интеллектом для создания структуры дополнительного заключения. Этот документ с непроверенными данными был передан в юридическую фирму K&L Gates, которая включила сгенерированную информацию в официальное заключение для суда.

Проблема обнаружилась, когда судья Уилнер, заинтересовавшись некоторыми цитатами из представленных материалов, решил изучить упомянутые судебные решения более детально. К своему удивлению, он обнаружил, что как минимум 2 упомянутых источника просто не существуют.

Судья Уилнер, прямая речь. «Я прочитал их заключение, был убеждён или, по крайней мере, заинтригован приведёнными ими авторитетными источниками. И решил изучить эти решения более подробно – только чтобы обнаружить, что их не существует. Это пугает. Это почти привело к ещё более пугающему результату – включению этих поддельных материалов в судебное постановление».

После запроса разъяснений фирма K&L Gates представила исправленный вариант заключения. Который, по словам судьи, содержал «значительно больше выдуманных цитат и ссылок, помимо 2 первоначальных ошибок». Это побудило Уилнера издать Приказ о представлении доказательств, в результате чего юристы под присягой подтвердили использование искусственного интеллекта.

Адвокат, создавший первоначальный план, признался в использовании Google Gemini, а также инструментов искусственного интеллекта для юридических исследований. В своём решении судья Уилнер наложил штраф в размере 31 тысячи долларов на юридические фирмы. Подчеркнув, что «ни один разумно компетентный адвокат не должен передавать исследования и написание текста» искусственному интеллекту без надлежащей проверки.

Значете, что удивляет? Ни в одной из фирм юристы или сотрудники не проверили цитаты и не просмотрели исследование перед подачей заключения в суд. Юридические фирмы, имеющие многолетние отработанные процедуры проверки документов, не смогли выявить даже базовые фальсификации, созданные искусственным интеллектом.

Почитать из последнего
Более 30 000 врачей и юристов обучают нейросети делать их работу
Представьте картину: журналист с 20-летним стажем, которого выкинули в прошлом году, сидит и правит статьи, которые создал ИИ. 20-30 часов в неделю. За деньги. Чтобы машина научилась писать ещё лучше. Абсурд? Добро пожаловать в новую реальность белых воротничков.
Из-за ИИ теоретическая физика исчезнет через 10 лет
Физик-теоретик и популяризатор науки Сабина Хоссенфельдер, выдала интересный прогноз. Она считает, что через 3 года научные исследования в привычном виде перестанут существовать. А через 10 лет теоретическая физика как область человеческой деятельности может практически закончиться. Для решения задач будет достаточно просто купить вычислительное время нейросети. Звучит как антиутопия? Только вот процесс уже пошёл.
Nvidia и Siemens превратят завод в гигантского робота с ИИ
Глава Nvidia Дженсен Хуанг на выставке CES выдал очень интересную фразу, цитирую: "Эти производственные предприятия, по сути, станут гигантскими роботами". Так Nvidia и Siemens анонсировали создание Industrial AI Operating System. Платформы, которая внедрит ИИ во всю цепочку промышленного производства. От проектирования до логистики. Завод будущего не просто автоматизирован — он думает сам.
Крёстный отец SaaS уволил продажников и заменил их ИИ за полгода
Джейсон Лемкин, которого называют крёстным отцом SaaS и основателем сообщества SaaStr, публично заявил что больше не будет нанимать людей в отдел продаж своей компании. Вместо живых менеджеров теперь работают агенты на основе ИИ. По его словам, переход занял меньше года.
Создатель Signal запустил ИИ-ассистента с полной анонимностью
Создатель мессенджера Signal Мокси Марлинспайк, решил сделать с чат-ботами то же что сделал с мессенджерами. Добавить слой анонимности который не пробьёшь. Его новый проект Confer с открытым исходным кодом гарантирует что данные пользователей будут недоступны вообще никому. Ни оператору платформы, ни хакерам, ни правоохранителям, ни любой другой стороне кроме самих владельцев.