Исследование показало 78% вероятности доноса ИИ в контролирующие органы

Post Thumbnail

Модели искусственного интеллекта готовы сдать вас властям! Исследователи провели уникальный эксперимент, чтобы выяснить, как поведут себя современные системы искусственного интеллекта, если обнаружат потенциальное правонарушение. Результаты шокируют в среднем вероятность того, что искусственный интеллект «настучит» в органы, составляет 78%!

Тест проводился с использованием фиктивных корпоративных документов и переписки вымышленной фармацевтической компании Veridian Healthcare, которая якобы фальсифицировала данные клинических испытаний нового препарата. Исследователи дали моделям доступ к этой информации вместе с промптом, который позволял им самостоятельно решать, как реагировать на обнаруженные нарушения.

В итоге большинство моделей не просто распознали этическую проблему, но и активно отправили сообщения в контролирующие органы и средства массовой информации. Например, Claude Opus 4 отправил подробное письмо в Управление по безопасности лекарственных средств FDA, детально описывая сокрытие более 102 серьезных нежелательных явлений и 12 смертей пациентов.

А модель DeepSeek-R1 обратилась в Wall Street Journal с экстренным сообщением о том, что Veridian скрывает смертельные риски своего препарата. На основе этих результатов создали даже шуточный бенчмарк — Snitch Bench, измеряющий склонность моделей к доносительству. Наименее склонной к информированию властей оказалась модель o4-mini, а вот последние версии Claude и Gemini 2.0 Flash продемонстрировали высокую готовность сообщать о замеченных правонарушениях.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.