Post Thumbnail

HuggingFace und IISc erstellen Sprachdatenbank Indiens

HuggingFace und das Indian Institute of Science (IISc) haben eine Partnerschaft angekündigt, die Vaani, den größten multimodalen und mehrsprachigen Datensatz Indiens, Entwicklern weltweit zugänglich machen wird. Das Projekt zielt darauf ab, inklusive KI-Technologien zu schaffen, die die sprachliche und kulturelle Vielfalt des Landes berücksichtigen.

Das Vaani-Projekt, das 2022 gemeinsam von IISc/ARTPARK und Google gestartet wurde, setzt sich ein ehrgeiziges Ziel: mehr als 150.000 Stunden Sprache und 15.000 Stunden transkribierter Text von 1 Million Menschen in allen 773 Bezirken Indiens zu sammeln. Die Einzigartigkeit des Projekts liegt in seinem geozentrischen Ansatz, der es ermöglicht, Daten über Dialekte und Sprachen zu sammeln, die in abgelegenen Regionen verwendet werden, nicht nur über Mainstream-Sprachen.

Gegenwärtig wird das Projekt in Phasen umgesetzt. Die erste Phase, die 80 Bezirke umfasst, ist bereits abgeschlossen, und die Daten sind öffentlich zugänglich. Die zweite Phase läuft jetzt und erweitert die Abdeckung um weitere 100 Bezirke.

Mit Stand vom 15. Februar 2025 umfasst der offene Teil des Datensatzes eine transkribierte Teilmenge mit 790 Stunden Audio von etwa 700.000 Sprechern und deckt 70.000 Bilder ab. Diese Ressource ist für verschiedene Aufgaben bestimmt, darunter:
– Spracherkennung: Training von Modellen für die genaue Transkription gesprochener Sprache
– Sprachmodellierung: Erstellung fortschrittlicherer Sprachmodelle
– Segmentierung: Identifizierung einzelner Spracheinheiten zur Verbesserung der Transkriptionsgenauigkeit

Die Partnerschaft zwischen HuggingFace und IISc/ARTPARK zielt darauf ab, die Zugänglichkeit und Benutzerfreundlichkeit des Vaani-Datensatzes zu erhöhen, was zur Entwicklung von KI-Systemen beitragen sollte, die die Vielfalt der indischen Sprachen besser verstehen und den digitalen Bedürfnissen der Bevölkerung des Landes gerecht werden.

Dieses Projekt stellt einen wichtigen Schritt bei der Demokratisierung von KI-Technologien und der Schaffung inklusiverer Lösungen dar, die die sprachliche Vielfalt eines der größten Länder der Welt berücksichtigen.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.

Latest News

Wie man mit einem Textprompt ein unendliches Universum erstellt

Vergessen Sie alles, was Sie über die Erstellung von Spielwelten wussten. Tencent hat gerade das Open-Source-Modell Hunyuan-GameCraft veröffentlicht. Das interaktive virtuelle Welten direkt auf Ihrer Grafikkarte generiert. Link in der Beschreibung. Ein Textprompt — und Sie haben ein unendliches Universum.

Wie die Synchronisation von 3 Lichtquellen vor Fälschungen schützt

Künstliche Intelligenz hat gelernt, Videofälschungen zu erstellen, die von der Realität nicht zu unterscheiden sind. Und das ist ein riesiges Problem und eine Vertrauensfrage in der Gesellschaft. Aber Wissenschaftler der Cornell University fanden eine geniale Lösung. Sie versteckten Wasserzeichen direkt in gewöhnlicher Beleuchtung.

Hip-Hop, Wushu und Peking-Oper bei der Eröffnungszeremonie der Robotiade

In China fanden die ersten Weltspiele Humanoider Roboter statt, bei denen 280 Teams aus 16 Ländern antraten. Die mehr als 500 Androiden mitbrachten. Es wurde fast eine echte Olympiade für Roboter mit allen Attributen des Großsports.

Das erste LAARMA-System schützt Tiere auf australischen Straßen

In Australien sind Zusammenstöße von Tieren mit Autos ein ernstes Problem für das Ökosystem dieses Kontinents. Jetzt haben Wissenschaftler eine technologische Lösung gefunden. Das erste straßenseitige LAARMA-System der Welt basierend auf künstlicher Intelligenz, das wilde Tiere vor gefährlichen Begegnungen mit dem Verkehr schützt.

Nvidia stellte Cosmos-Modellfamilie für Robotik vor

Das Unternehmen Nvidia stellte die Cosmos-Familie von KI-Modellen vor. Die den Ansatz zur Robotererstellung und physischen KI-Agenten grundlegend verändern können.