Post Thumbnail

Databricks выпустил фреймворк безопасности ИИ DASF 2.0

Компания Databricks объявила о выпуске второй версии своего фреймворка безопасности искусственного интеллекта (DASF 2.0), представляющего собой комплексное руководство по управлению рисками в сфере ИИ. Новая версия фреймворка идентифицирует 62 технических риска безопасности и предлагает 64 рекомендуемых механизма контроля для управления рисками ИИ-моделей.

DASF 2.0 разработан совместными усилиями команд Databricks по безопасности и машинному обучению в сотрудничестве с отраслевыми экспертами. Фреймворк призван стать связующим звеном между бизнесом, данными, управлением и командами безопасности, предоставляя практические инструменты и действенные стратегии для демистификации ИИ и обеспечения эффективного внедрения.

Особенностью новой версии является расширенная интеграция с ведущими отраслевыми стандартами и фреймворками оценки рисков ИИ, включая MITRE ATLAS, OWASP LLM & ML Top 10, NIST 800-53, NIST CSF, HITRUST, рекомендации ENISA по обеспечению безопасности алгоритмов машинного обучения, ISO 42001, ISO 27001:2022 и Закон ЕС об ИИ.

В ответ на отзывы пользователей компания также выпустила сопроводительный документ DASF, разработанный для помощи в практической реализации фреймворка. Этот комплексный подход позволяет организациям находить баланс между инновационным развитием ИИ и необходимым управлением рисками.

Уникальность DASF 2.0 заключается в том, что он предоставляет комплексный профиль рисков для развертывания ИИ-систем, основываясь на существующих стандартах. Фреймворк предлагает многоуровневые механизмы контроля, упрощающие управление рисками ИИ для организаций, и может быть применен к любой выбранной платформе данных и ИИ.

Автор: AIvengo
5 лет я работаю с машинным обучением и искусственным интеллектом. И эта сфера не перестает меня удивлять, восхищать и интересовать.
Latest News
Главный экономист МВФ сравнил бум ИИ с пузырём доткомов

Главный экономист МВФ Пьер-Оливье Гуринша заявил, что мир уже прошёл половину пути до лопнувшего пузыря искусственного интеллекта и нового финансового кризиса.

Исследователи взломали 12 систем защиты ИИ

Знаете, что только что выяснили исследователи из OpenAI, Anthropic, Google DeepMind и Гарварда? Они попытались сломать популярные системы безопасности искусственного интеллекта и почти везде нашли обход. Проверяли 12 распространённых подходов к защите. От умных формулировок системного промпта до внешних фильтров, которые должны ловить опасные запросы.

У OpenAI есть 5 лет чтобы превратить $13 млрд в триллион

Знаете, в каком положении сейчас находится OpenAI? По сообщению Financial Times, у компании есть 5 лет, чтобы превратить 13 млрд долларов в триллион. И вот как это выглядит на практике.

Сэм Альтман обещает вернуть человечность в ChatGPT

Глава OpenAI Сэм Альтман сделал заявление после того, как прошли многочисленные оффлайн и онлайн протесты против отключения модели GPT-4о. А потом включение, но с диким маршрутизатором. Я рассказывал про это на прошлой неделе максимально подробно. Прямая цитата главы OpenAI.

ИИ оживает: почему сооснователь Anthropic боится своего творения

Сооснователь Anthropic Джек Кларк опубликовал эссе, от которого становится не по себе. Он написал про природу современного искусственного интеллекта, и его выводы звучат как предупреждение.