
L’IA de Meta bloque des milliers de groupes Facebook pour « terrorisme »
Plus tôt je vous racontais que l’intelligence artificielle de Meta bloquait massivement des comptes Instagram. Maintenant elle bloque aussi des groupes Facebook. Il y a une vague de blocages sans précédent. Des milliers de groupes Facebook se sont retrouvés sous des sanctions injustifiées du système de modération. Cet effondrement technique a touché des communautés tant aux États-Unis qu’à l’étranger, couvrant les catégories thématiques les plus diverses.
Un aspect particulièrement alarmant du problème est l’absurdité des accusations ! Les administrateurs de groupes reçoivent des notifications sur des violations liées au « contenu terroriste » ou aux « corps nus ». Bien que leurs communautés soient consacrées à des sujets absolument inoffensifs : conseils d’économie, soutien aux parents, groupes d’amoureux de chiens et chats. Ou communautés de gamers, fans de Pokémon et même enthousiastes de claviers mécaniques.
L’ampleur du désastre est impressionnante — non seulement les petits groupes ont été touchés, mais aussi de grandes communautés avec des dizaines de milliers, des centaines de milliers et même des millions d’utilisateurs !
Le représentant officiel de Meta Andy Stone a confirmé l’existence du problème, je cite : « Nous sommes au courant d’une erreur technique qui a affecté certains groupes Facebook. Nous corrigeons la situation maintenant ». Et ils ne veulent toujours pas admettre que leur propre intelligence artificielle était le coupable. Qui est responsable de la modération automatique du contenu.