Databricks выпустил фреймворк безопасности ИИ DASF 2.0

Post Thumbnail

Компания Databricks объявила о выпуске второй версии своего фреймворка безопасности искусственного интеллекта (DASF 2.0), представляющего собой комплексное руководство по управлению рисками в сфере ИИ. Новая версия фреймворка идентифицирует 62 технических риска безопасности и предлагает 64 рекомендуемых механизма контроля для управления рисками ИИ-моделей.

DASF 2.0 разработан совместными усилиями команд Databricks по безопасности и машинному обучению в сотрудничестве с отраслевыми экспертами. Фреймворк призван стать связующим звеном между бизнесом, данными, управлением и командами безопасности, предоставляя практические инструменты и действенные стратегии для демистификации ИИ и обеспечения эффективного внедрения.

Особенностью новой версии является расширенная интеграция с ведущими отраслевыми стандартами и фреймворками оценки рисков ИИ, включая MITRE ATLAS, OWASP LLM & ML Top 10, NIST 800-53, NIST CSF, HITRUST, рекомендации ENISA по обеспечению безопасности алгоритмов машинного обучения, ISO 42001, ISO 27001:2022 и Закон ЕС об ИИ.

В ответ на отзывы пользователей компания также выпустила сопроводительный документ DASF, разработанный для помощи в практической реализации фреймворка. Этот комплексный подход позволяет организациям находить баланс между инновационным развитием ИИ и необходимым управлением рисками.

Уникальность DASF 2.0 заключается в том, что он предоставляет комплексный профиль рисков для развертывания ИИ-систем, основываясь на существующих стандартах. Фреймворк предлагает многоуровневые механизмы контроля, упрощающие управление рисками ИИ для организаций, и может быть применен к любой выбранной платформе данных и ИИ.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.