ChatGPT оказался честнее судей в США
Представьте себе картину: 61 федеральный судья США садится решать одно и то же дело — и половина из них ошибается. А теперь представьте, что нейросеть справляется на все сто. Буквально.
Исследователи из Чикагской школы права провернули дерзкий эксперимент. Они взяли классический тест из поведенческой юриспруденции и вместо живых судей посадили за него GPT-5. Задача простая: гипотетическое дело о ДТП с 3 переменными — тип правовой нормы, штат аварии и степень симпатии к одной из сторон. Фишка в том, что Канзас ограничивает моральный ущерб суммой в 250 тысяч долларов, а Небраска — нет.
Живые судьи ошибались примерно в каждом втором случае. Они тяготели к гибкости, ссылались на справедливость, искали лазейки в стандартах. GPT-5 же действовал как робот — ну, потому что он и есть робот. 100 процентов правильных решений. Модель чётко применяла доктрину наиболее значимых связей из свода рекомендаций Restatement of Conflict of Laws и не отступала ни на миллиметр. Никаких эмоций, никакого желания «подкрутить» результат.
Что любопытно — ни люди, ни ИИ не поддавались симпатиям к истцу или ответчику. Разрыв возникал именно там, где нормы допускают толкование. И вот ещё деталь: среди других моделей система Gemini 3 Pro показала те же 100 процентов. Gemini 2.5 Pro — 92, а вот Llama 4 Scout и GPT-4.1 сработали хуже живых судей.
Но авторы исследования задают главный вопрос: а хорошо ли это — идеально формальный судья? Ведь именно через серые зоны живые судьи иногда добиваются по-настоящему справедливых решений. Даже если формально нарушают букву закона.