Microsoft запрещает полиции США использовать свой ИИ

Post Thumbnail

Microsoft официально подтвердила запрет на использование генеративного искусственного интеллекта для распознавания лиц полицейскими департаментами США через свой корпоративный сервис Azure OpenAI Service.

В среду компания внесла изменения в условия использования сервиса, которые теперь четко запрещают интеграции с Azure OpenAI Service «для или от имени» полицейских департаментов США в целях распознавания лиц. Запрет распространяется на интеграции с текущими и, вероятно, будущими моделями OpenAI, способными анализировать изображения.

Отдельный пункт касается «всех правоохранительных органов в мире» и запрещает использование «технологии распознавания лиц в реальном времени» на мобильных камерах, таких как нательные камеры и видеорегистраторы, для идентификации людей в «неконтролируемой среде».

Изменения в политике последовали через неделю после того, как компания Axon, производитель технологических продуктов и оружия для военных и правоохранительных органов, анонсировала новый продукт, использующий генеративную текстовую модель OpenAI GPT-4 для обобщения аудиозаписей с нательных камер. Критики быстро указали на потенциальные проблемы, включая «галлюцинации» (даже лучшие модели генеративного ИИ сегодня изобретают факты) и расовые предубеждения, унаследованные из тренировочных данных, что особенно тревожно, учитывая, что цветные люди гораздо чаще подвергаются остановкам полицией, чем их белые сограждане.

Неясно, использовала ли Axon модель GPT-4 через Azure OpenAI Service и стал ли запуск продукта Axon причиной обновления политики Microsoft. OpenAI ранее уже ограничила использование своих моделей для распознавания лиц через свои API.

Новые условия оставляют Microsoft простор для маневра. Полный запрет на использование Azure OpenAI Service касается только полиции США, а не международных правоохранительных органов. Кроме того, он не распространяется на распознавание лиц, выполняемое со стационарных камер в контролируемой среде, например, в офисе (хотя условия запрещают любое использование распознавания лиц полицией США).

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.