HuggingFace et IISc créent une base de données linguistique de l’Inde

Post Thumbnail

HuggingFace et l’Institut indien des sciences (IISc) ont annoncé un partenariat qui rendra Vaani, le plus grand ensemble de données multimodal et multilingue de l’Inde, accessible aux développeurs du monde entier. Le projet vise à créer des technologies d’IA inclusives qui tiennent compte de la diversité linguistique et culturelle du pays.

Le projet Vaani, lancé en 2022 conjointement par IISc/ARTPARK et Google, se fixe un objectif ambitieux: collecter plus de 150 000 heures de parole et 15 000 heures de texte transcrit auprès de 1 million de personnes dans les 773 districts de l’Inde. L’unicité du projet réside dans son approche géocentrique, qui permet de collecter des données sur les dialectes et les langues utilisés dans les régions éloignées, et pas seulement sur les langues mainstream.

Actuellement, le projet est mis en œuvre par phases. La première phase, couvrant 80 districts, est déjà terminée, et les données sont en accès libre. La deuxième phase est maintenant en cours, élargissant la couverture à 100 districts supplémentaires.

Au 15 février 2025, la partie ouverte de l’ensemble de données comprend un sous-ensemble transcrit contenant 790 heures d’audio d’environ 700 000 locuteurs et couvrant 70 000 images. Cette ressource est destinée à diverses tâches, notamment:
– Reconnaissance vocale: formation de modèles pour une transcription précise de la parole
– Modélisation linguistique: création de modèles de langage plus avancés
– Segmentation: identification d’unités de parole individuelles pour améliorer la précision de la transcription

Le partenariat entre HuggingFace et IISc/ARTPARK vise à accroître l’accessibilité et la facilité d’utilisation de l’ensemble de données Vaani, ce qui devrait contribuer au développement de systèmes d’IA qui comprennent mieux la diversité des langues indiennes et répondent aux besoins numériques de la population du pays.

Ce projet représente une étape importante dans la démocratisation des technologies d’IA et la création de solutions plus inclusives qui tiennent compte de la diversité linguistique de l’un des plus grands pays du monde.

Почитать из последнего
UBTech enverra des robots Walker S2 servir à la frontière chinoise pour $37 millions
L'entreprise chinoise UBTech a remporté un contrat de $37 millions. Et enverra des robots humanoïdes Walker S2 servir à la frontière de la Chine avec le Vietnam. South China Morning Post rapporte que les robots interagiront avec les touristes et le personnel, effectueront des opérations logistiques, inspecteront les marchandises et patrouilleront le territoire. Et caractéristiquement — ils peuvent changer leur batterie de manière autonome.
Anthropic a révélé accidentellement un document interne sur "l'âme" de Claude
Anthropic a révélé accidentellement "l'âme" de l'intelligence artificielle à un utilisateur. Et ce n'est pas une métaphore. C'est un document interne tout à fait concret.
Jensen Huang a ordonné aux employés de Nvidia d'utiliser l'IA partout
Jensen Huang a annoncé une mobilisation totale sous la bannière de l'intelligence artificielle à l'intérieur de Nvidia. Et ce n'est plus une recommandation. C'est une exigence.
Les chatbots IA génèrent du contenu qui aggrave les troubles alimentaires
Une étude conjointe de l'Université Stanford et du Center for Democracy and Technology a montré un tableau inquiétant. Les chatbots avec intelligence artificielle représentent un risque sérieux pour les personnes souffrant de troubles alimentaires. Les scientifiques avertissent que les réseaux neuronaux distribuent des conseils nuisibles sur les régimes. Ils proposent des moyens de cacher le trouble et génèrent du "contenu inspirant pour perdre du poids" qui aggrave le problème.
OpenAGI a publié le modèle Lux qui dépasse Google et OpenAI
La startup OpenAGI a publié le modèle Lux pour le contrôle d'ordinateur et affirme que c'est une percée. Selon les benchmarks, le modèle dépasse d'une génération entière les analogues de Google, OpenAI et Anthropic. De plus, il fonctionne plus vite. Environ 1 seconde par étape au lieu de 3 secondes chez les concurrents. Et 10 fois moins cher en coût par traitement de 1 token.