Post Thumbnail

Tool Heretic entfernt Zensur von Sprachmodellen über API

Es erschien das Tool Heretic, das die Zensur von Sprachmodellen aufhebt. Das System ermöglicht es, Modelle zu entkoppeln, indem es eingebaute Beschränkungen entfernt, und das alles ohne Änderung der Gewichte selbst. Und das funktioniert wie eine Black Box.

Heretic erhält Modellantworten über API, analysiert sie und trainiert einen speziellen Diskriminator anhand von Beispielen sicherer und gefährlicher Anfragen. Danach beginnt das Modell seltener Antworten zu verweigern, während es Angemessenheit und Genauigkeit beibehält.

Das Tool ermöglicht es lokalen Modellen, breitere und vielfältigere Antworten zu geben und ihre Funktionalität zu erweitern. Dies macht Modelle flexibler für Forschung und Experimente mit Verhalten. Heretic eignet sich zum Testen verschiedener Einschränkungen und Experimente mit Verhaltensmodifikation, wobei der Qualitätsverlust minimiert wird.

Wichtiges Detail. Heretic ist nicht dazu gedacht, die Genauigkeit des Modells zu erhöhen. Es hebt genau Beschränkungen auf und ermöglicht es Forschern zu sehen, wie sich das Modell ohne eingebaute Filter verhält. Der Arbeitsprozess umfasst die Auswahl von Diskriminator-Parametern, Tests im Chat-Modus und die Möglichkeit, das finale Modell zu speichern.

Der Schöpfer von Heretic betont, dass das Tool unterschiedlich verwendet werden kann, und die rechtlichen und ethischen Konsequenzen vollständig beim Nutzer liegen. Es stellt sich heraus, die Technologie gibt Forschern die Möglichkeit, die Fähigkeiten von Sprachmodellen und Methoden zur Steuerung ihres Verhaltens unter kontrollierten Bedingungen zu untersuchen. Aber dabei liegt die Verantwortung für die Anwendung vollständig im Gewissen dessen, der sie verwendet.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.
Latest News
Menschen gehen massenhaft Romanzen mit KI ein, es kommt zu virtuellen Ehen

Menschen begannen massenhaft Romanzen mit KI einzugehen. Und das ist nicht nur Schreiben zum Vergnügen. Es kommt zu virtuellen Ehen, Schwangerschaften und Erziehung nicht existierender Kinder. Wissenschaftler aus Deutschland und den USA führten eine Studie durch und entdeckten das, was viele nicht bemerken wollten.

Hugging Face-Chef prognostizierte Platzen der Blase großer Sprachmodelle

Clem Delangue von Hugging Face zog eine rote Linie in der Diskussion über die Technologieblase. Und diese Linie verläuft nicht dort, wo alle erwarten. Der Chef einer der größten KI-Plattformen erklärte, dass es eine Blase gibt, aber es ist keine KI-Blase. Es ist eine Blase großer Sprachmodelle. Und sie könnte bereits im nächsten Jahr platzen.

OpenAI veröffentlichte GPT-5.1-Codex-Max und überholte Gemini 3 Pro nach einem Tag

OpenAI präsentierte GPT-5.1-Codex-Max. Dies ist eine Version von GPT-5.1 Thinking, speziell für Programmieraufgaben innerhalb des Coding-Agenten Codex zugeschnitten. Dies ist das erste Modell des Unternehmens, das nativ trainiert wurde, über mehrere Kontextfenster mit einem Prozess namens Kompaktierung zu arbeiten. Das Modell ist in der Lage, kohärent mit Millionen von Token im Rahmen einer Aufgabe zu arbeiten.

Fünf IT-Gründer verdienten mehr als 200 Milliarden Dollar mit KI-Boom

Fünf Gründer von IT-Unternehmen können sich vor dem Hintergrund des KI-Booms eines Vermögens von jeweils mehr als 200 Milliarden Dollar rühmen. Erst kürzlich, wie The Economic Times anmerkt, ermöglichte der Besitz von 100 Milliarden Dollar den Zugang zum Club der Weltelite, aber jetzt hat sich die Messlatte verdoppelt.

Japanische Wissenschaftler schufen System zum Lesen von Erinnerungen mittels MRT

Eine Gruppe japanischer Wissenschaftler aus dem NTT-Labor zeigte ein System, das auf Basis funktioneller MRT-Daten Textbeschreibungen dessen generiert, was eine Person sich erinnert, vorstellt oder sieht. Im Wesentlichen ist dies das Lesen von Erinnerungen. Und noch ein großer Schritt zum Lesen von Gedanken.