
Strategische Wende von Microsoft: eigene Modelle gegen Abhängigkeit von OpenAI
Microsoft ist nicht mehr vollständig von OpenAI abhängig. Das Unternehmen stellte 2 eigene KI-Modelle vor. MAI-Voice-1 für Sprachgenerierung und MAI-1-preview für Text. Das ist ein Wendepunkt in der Strategie des Technologie-Giganten.
MAI-Voice-1 arbeitet bereits in Copilot Daily und Podcasts. Das Modell generiert 1 Minute Audio in weniger als 1 Sekunde auf 1 GPU. Großartige Geschwindigkeit für solche Audioqualität. In der neuen Copilot Labs-Oberfläche können Sie alle Möglichkeiten sofort testen.
Die Funktion Copilot Audio Expressions ermöglicht alles einzustellen. Sie fügen Text ein. Wählen Stimme, Stil und Vertonungsmodus. Erhalten hochwertiges ausdrucksstarkes Audio. Die Datei kann sofort zur Nutzung heruntergeladen werden.
MAI-1-preview stellt ein Mixture-of-Experts-Modell dar, trainiert auf 15.000 Nvidia H100-Beschleunigern. Ein fundamentales KI-Modell von Microsoft aus eigener Entwicklung.
Das Modell führt Nutzeranweisungen effizient aus. Gibt hilfreiche Antworten auf Alltagsfragen. Microsoft plant, MAI-1-preview in den kommenden Wochen in Copilot-Textszenarien zu implementieren. Bisher haben nur vertrauensvolle Tester Zugang erhalten.
Das ist eine große Verschiebung in Microsofts KI-Ansatz. Von vollständiger Partnerabhängigkeit zu eigenen Entwicklungen. Dabei alle Vorteile der OpenAI-Partnerschaft beibehaltend.