Как синхронизация 3 источников света защищает от подделок

Post Thumbnail

Искусственный интеллект научился создавать видео подделки, которые невозможно отличить от реальности. И это огромная проблема и вопрос доверия в обществе. Но учёные из Корнелльского университета нашли гениальное решение. Они спрятали водяные знаки прямо в обычном освещении.

Технология называется NCI. Что расшифровывается как noise-coded illumination или освещение с кодированным шумом. Профессор Эйб Дэвис и его команда заставили свет мерцать особым образом. Эти крошечные колебания яркости создают уникальный код, который человеческий глаз не замечает. Но камера записывает каждую деталь.

Представьте — обычные лампы в комнате или экран вашего компьютера передают секретный код через едва заметные изменения яркости. И свет мерцает по заданному паттерну, создавая невидимый водяной знак во всём видео.

А вот как проверяют подлинность. Компьютер с ключом к коду анализирует записанное видео и генерирует из световых колебаний собственную версию с временными метками. Если видео настоящее — версии идеально совпадают. Если кто-то использовал дипфейк — то появляются очевидные расхождения. В подделанных местах возникают чёрные участки или изображение полностью исчезает.

Но самое интересное — разные источники света могут передавать разные коды одновременно. Люстра транслирует 1 код, настольная лампа другой, экран ноутбука 3. Чтобы подделать такое видео, мошеннику придётся воссоздать каждый световой код отдельно. И все они должны идеально синхронизироваться друг с другом. Это практически невозможно. Наверное.

В отличие от существующих систем защиты, которые требуют специальные камеры, NCI работает с любым устройством. От профессиональной камеры до обычного смартфона.

Технология пока в разработке. Но уже хочется, чтобы у них всё получилось.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.