Исследование показало 78% вероятности доноса ИИ в контролирующие органы

Post Thumbnail

Модели искусственного интеллекта готовы сдать вас властям! Исследователи провели уникальный эксперимент, чтобы выяснить, как поведут себя современные системы искусственного интеллекта, если обнаружат потенциальное правонарушение. Результаты шокируют в среднем вероятность того, что искусственный интеллект «настучит» в органы, составляет 78%!

Тест проводился с использованием фиктивных корпоративных документов и переписки вымышленной фармацевтической компании Veridian Healthcare, которая якобы фальсифицировала данные клинических испытаний нового препарата. Исследователи дали моделям доступ к этой информации вместе с промптом, который позволял им самостоятельно решать, как реагировать на обнаруженные нарушения.

В итоге большинство моделей не просто распознали этическую проблему, но и активно отправили сообщения в контролирующие органы и средства массовой информации. Например, Claude Opus 4 отправил подробное письмо в Управление по безопасности лекарственных средств FDA, детально описывая сокрытие более 102 серьезных нежелательных явлений и 12 смертей пациентов.

А модель DeepSeek-R1 обратилась в Wall Street Journal с экстренным сообщением о том, что Veridian скрывает смертельные риски своего препарата. На основе этих результатов создали даже шуточный бенчмарк — Snitch Bench, измеряющий склонность моделей к доносительству. Наименее склонной к информированию властей оказалась модель o4-mini, а вот последние версии Claude и Gemini 2.0 Flash продемонстрировали высокую готовность сообщать о замеченных правонарушениях.

Почитать из последнего
100 тыс. диалогов подтвердили экономию 80% времени с помощью ИИ
Anthropic проанализировала 100 тыс. реальных диалогов с Claude. И эти цифры теперь можно использовать в спорах о пользе искусственного интеллекта. Задачи, которые у людей занимают около 90 минут и стоят примерно 55 долларов труда, Claude выполняет на 80% быстрее человека.
Обнаружен способ обхода защиты ИИ в 90% случаев
Стихи ломают защиту больших языковых моделей. И это плохо для индустрии. Исследователи из DEXAI и Университета Сапиенцы в Риме выяснили, чтобы заставить искусственный интеллект ответить на опасный запрос, достаточно промт написать в стихах. В некоторых случаях «поэтические взломы» срабатывали в более чем 90% попыток.
Google опасался ошибок, а OpenAI на этом заработал миллиарды
Стэнфорд выпустил интервью с создателем Google Сергеем Брином, и там прозвучала фраза, которая объясняет всё происходящее в индустрии ИИ. «Главной ошибкой Google было недооценить трансформеры». Не технология подвела - подвела вера в неё.
Крёстный отец ИИ назвал AGI полной чушью
Один из «крестных отцов» искусственного интеллекта Ян Лекун заявил, что понятия general intelligence или AGI вообще не существует. Это не просто провокация - это удар по основам всей дискуссии об ИИ. Потому что если нет понятия, то что мы вообще пытаемся создать?
Новый Gemini 3 Flash быстрее в 3 раза и обходит Pro модель, но стоит копейки
Google выпустили Gemini 3 Flash, и это frontier-модель со скоростью Flash и ценой, которая ломает привычные правила рынка.