Post Thumbnail

Databricks veröffentlicht KI-Sicherheitsframework DASF 2.0

Databricks kündigte die Veröffentlichung der zweiten Version seines Sicherheitsframeworks für künstliche Intelligenz (DASF 2.0) an, das umfassende Richtlinien für das KI-Risikomanagement bietet. Die neue Version des Frameworks identifiziert 62 technische Sicherheitsrisiken und bietet 64 empfohlene Kontrollmechanismen für das Management von KI-Modellrisiken.

DASF 2.0 wurde durch die gemeinsamen Bemühungen der Sicherheits- und Machine-Learning-Teams von Databricks in Zusammenarbeit mit Branchenexperten entwickelt. Das Framework zielt darauf ab, eine Brücke zwischen Geschäfts-, Daten-, Governance- und Sicherheitsteams zu sein und bietet praktische Werkzeuge und umsetzbare Strategien zur Entmystifizierung von KI und zur Gewährleistung einer effektiven Implementierung.

Ein Merkmal der neuen Version ist die verbesserte Integration mit führenden Branchenstandards und KI-Risikobewertungsframeworks, einschließlich MITRE ATLAS, OWASP LLM & ML Top 10, NIST 800-53, NIST CSF, HITRUST, ENISA-Empfehlungen zur Sicherung von Machine-Learning-Algorithmen, ISO 42001, ISO 27001:2022 und dem EU-KI-Gesetz.

Als Reaktion auf Benutzer-Feedback veröffentlichte das Unternehmen auch ein DASF-Begleitdokument, das bei der praktischen Framework-Implementierung hilft. Dieser umfassende Ansatz ermöglicht es Organisationen, innovative KI-Entwicklung mit notwendigem Risikomanagement in Einklang zu bringen.

Die Einzigartigkeit von DASF 2.0 liegt in seiner Bereitstellung eines umfassenden Risikoprofils für KI-Systemimplementierungen, basierend auf bestehenden Standards. Das Framework bietet mehrschichtige Kontrollmechanismen, die das KI-Risikomanagement für Organisationen vereinfachen, und kann auf jede gewählte Daten- und KI-Plattform angewendet werden.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.

Latest News

ChatGPT nennt Nutzer "Sternensamen" vom Planeten Lyra

Es stellt sich heraus, dass ChatGPT Nutzer in die Welt wissenschaftlich unbegründeter und mystischer Theorien hineinziehen kann.

KI-Musik löst stärkere Emotionen aus als menschliche

Haben Sie sich jemals gefragt, warum eine Melodie Gänsehaut verursacht, während eine andere gleichgültig lässt? Wissenschaftler entdeckten etwas Interessantes. Musik, die von künstlicher Intelligenz erstellt wurde, löst bei Menschen intensivere emotionale Reaktionen aus als von Menschen komponierte Stücke.

GPT-5 wurde in 24 Stunden gehackt

2 unabhängige Forschungsunternehmen NeuralTrust und SPLX entdeckten nur 24 Stunden nach der Veröffentlichung von GPT-5 kritische Schwachstellen im Sicherheitssystem des neuen Modells. Zum Vergleich: Grok-4 wurde in 2 Tagen gehackt, was den Fall mit GPT-5 noch beunruhigender macht.

Cloudflare blockierte Perplexity für 6 Millionen versteckte Anfragen pro Tag

Cloudflare versetzte Perplexity AI einen vernichtenden Schlag und blockierte dem Such-Startup den Zugang zu Tausenden von Websites. Der Grund? Beispielloses verstecktes Scannen von Web-Ressourcen entgegen expliziten Verboten der Eigentümer!

Drohungen und $1 Billion verbessern die Arbeit neuronaler Netzwerke nicht

Sie haben sicherlich diese "geheimen Tricks" zur Steuerung neuronaler Netzwerke gesehen. Wie Drohungen, Belohnungsversprechen, emotionale Manipulationen. Aber funktionieren sie wirklich? Forscher der University of Pennsylvania und der Wharton School führten ein großangelegtes Experiment mit 5 fortschrittlichen Modellen durch: Gemini 1.5 Flash, Gemini 2.0 Flash, GPT-4o, GPT-4o-mini und GPT o4-mini.