ИИ генерирует фиктивные судебные дела

Post Thumbnail

Крупная американская юридическая фирма Morgan & Morgan, специализирующаяся на делах о личном ущербе, разослала срочное предупреждение более чем 1000 своих юристов после инцидента с использованием искусственного интеллекта в судебной практике. Причиной стал случай, когда ИИ сгенерировал несуществующие судебные прецеденты, что поставило под угрозу репутацию фирмы и карьеру её сотрудников.

Ситуация обострилась после того, как федеральный судья в Вайоминге пригрозил санкциями двум юристам фирмы, включившим фиктивные судебные ссылки в иск против Walmart. Один из адвокатов признался в судебных документах на прошлой неделе, что использовал ИИ-программу, которая «галлюцинировала» несуществующие дела, и принес извинения за то, что назвал непреднамеренной ошибкой.

По данным Reuters, тенденция генерации ИИ юридической фикции в судебных документах привела к тому, что суды по всей стране начали подвергать сомнению или применять дисциплинарные меры к адвокатам как минимум в семи случаях за последние два года. Это создало новую высокотехнологичную проблему как для участников судебных процессов, так и для судей.

Дело Walmart выделяется тем, что в нем участвует известная юридическая фирма и крупный корпоративный ответчик. Однако подобные примеры появились в различных судебных исках с момента, когда чат-боты вроде ChatGPT открыли эру ИИ, подчеркивая новые риски в судебных разбирательствах.

Представитель Morgan & Morgan не ответил на запрос о комментариях, а Walmart отказался от комментариев. Судья пока не вынес решение о дисциплинарных мерах в отношении юристов по делу Walmart, которое касалось предположительно бракованной игрушки-ховерборда.

Этот случай демонстрирует растущие риски использования искусственного интеллекта в юридической практике и подчеркивает необходимость более тщательной проверки генерируемой ИИ информации, особенно когда речь идет о судебных документах.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.