Microsoft запрещает полиции США использовать свой ИИ

Post Thumbnail

Microsoft официально подтвердила запрет на использование генеративного искусственного интеллекта для распознавания лиц полицейскими департаментами США через свой корпоративный сервис Azure OpenAI Service.

В среду компания внесла изменения в условия использования сервиса, которые теперь четко запрещают интеграции с Azure OpenAI Service «для или от имени» полицейских департаментов США в целях распознавания лиц. Запрет распространяется на интеграции с текущими и, вероятно, будущими моделями OpenAI, способными анализировать изображения.

Отдельный пункт касается «всех правоохранительных органов в мире» и запрещает использование «технологии распознавания лиц в реальном времени» на мобильных камерах, таких как нательные камеры и видеорегистраторы, для идентификации людей в «неконтролируемой среде».

Изменения в политике последовали через неделю после того, как компания Axon, производитель технологических продуктов и оружия для военных и правоохранительных органов, анонсировала новый продукт, использующий генеративную текстовую модель OpenAI GPT-4 для обобщения аудиозаписей с нательных камер. Критики быстро указали на потенциальные проблемы, включая «галлюцинации» (даже лучшие модели генеративного ИИ сегодня изобретают факты) и расовые предубеждения, унаследованные из тренировочных данных, что особенно тревожно, учитывая, что цветные люди гораздо чаще подвергаются остановкам полицией, чем их белые сограждане.

Неясно, использовала ли Axon модель GPT-4 через Azure OpenAI Service и стал ли запуск продукта Axon причиной обновления политики Microsoft. OpenAI ранее уже ограничила использование своих моделей для распознавания лиц через свои API.

Новые условия оставляют Microsoft простор для маневра. Полный запрет на использование Azure OpenAI Service касается только полиции США, а не международных правоохранительных органов. Кроме того, он не распространяется на распознавание лиц, выполняемое со стационарных камер в контролируемой среде, например, в офисе (хотя условия запрещают любое использование распознавания лиц полицией США).

Почитать из последнего
100 тыс. диалогов подтвердили экономию 80% времени с помощью ИИ
Anthropic проанализировала 100 тыс. реальных диалогов с Claude. И эти цифры теперь можно использовать в спорах о пользе искусственного интеллекта. Задачи, которые у людей занимают около 90 минут и стоят примерно 55 долларов труда, Claude выполняет на 80% быстрее человека.
Обнаружен способ обхода защиты ИИ в 90% случаев
Стихи ломают защиту больших языковых моделей. И это плохо для индустрии. Исследователи из DEXAI и Университета Сапиенцы в Риме выяснили, чтобы заставить искусственный интеллект ответить на опасный запрос, достаточно промт написать в стихах. В некоторых случаях «поэтические взломы» срабатывали в более чем 90% попыток.
Google опасался ошибок, а OpenAI на этом заработал миллиарды
Стэнфорд выпустил интервью с создателем Google Сергеем Брином, и там прозвучала фраза, которая объясняет всё происходящее в индустрии ИИ. «Главной ошибкой Google было недооценить трансформеры». Не технология подвела - подвела вера в неё.
Крёстный отец ИИ назвал AGI полной чушью
Один из «крестных отцов» искусственного интеллекта Ян Лекун заявил, что понятия general intelligence или AGI вообще не существует. Это не просто провокация - это удар по основам всей дискуссии об ИИ. Потому что если нет понятия, то что мы вообще пытаемся создать?
Новый Gemini 3 Flash быстрее в 3 раза и обходит Pro модель, но стоит копейки
Google выпустили Gemini 3 Flash, и это frontier-модель со скоростью Flash и ценой, которая ломает привычные правила рынка.