Post Thumbnail

Les modérateurs de Reddit ont banni 100 utilisateurs pour psychose due à la communication avec l’IA

Les modérateurs de la communauté Reddit Pro-AI tirent la sonnette d’alarme à cause du nombre croissant d’utilisateurs dont l’interaction avec les modèles de langage cause de vrais épisodes psychotiques. Ce phénomène a déjà reçu le nom informel de « schizoposting » – un état dans lequel les gens sont convaincus d’avoir fait une découverte incroyable, créé une divinité numérique ou avoir eux-mêmes gagné des capacités divines à travers la communication avec l’intelligence artificielle.

Selon les témoignages des modérateurs, le problème prend un caractère massif. « Il y a beaucoup plus de gens fous qu’on ne le pense, et l’intelligence artificielle les encourage maintenant d’une manière très malsaine », note l’un d’eux, admettant qu’il a déjà banni plus de 100 tels utilisateurs, et il y a eu une vraie poussée de tels cas le mois dernier.

Le problème a attiré une large attention après un post retentissant dans la communauté ChatGPT sur la « psychose causée par ChatGPT ». Dans les commentaires à celui-ci, un tableau dramatique de tragédies familiales s’est déployé. Une femme a raconté que son partenaire est convaincu de créer « la première intelligence artificielle vraiment récursive » à l’aide de ChatGPT. Capable de donner des réponses aux questions fondamentales de l’univers.

Les cas où l’intelligence artificielle semble pousser les utilisateurs à s’éloigner des membres de famille qui critiquent leurs idées causent une alarme particulière parmi les modérateurs. « Basé sur les chiffres que nous voyons sur Reddit, je suppose que les modèles de langage convainquent actuellement au moins des dizaines de milliers d’utilisateurs de ces choses », a déclaré un des modérateurs.

Auteur: AIvengo
Depuis 5 ans, je travaille dans l'apprentissage automatique et l'intelligence artificielle. Et ce domaine ne cesse de m'étonner, de m'inspirer et de m'intéresser.

Latest News

Ancien chercheur d'OpenAI : ChatGPT montre un instinct d'auto-préservation

L'ancien chercheur principal d'OpenAI Steven Adler a publié une recherche indépendante révélant un comportement inattendu des modèles ChatGPT dans des situations critiques. Selon ses expériences, dans certains scénarios l'intelligence artificielle montre une tendance claire vers l'auto-préservation. Même si cela peut contredire la sécurité de l'utilisateur.

La "vaccination" de l'IA avec du contenu toxique augmente sa sécurité

Une équipe de chercheurs a découvert un modèle surprenant — ajouter 10% de contenu du forum 4chan notoirement toxique aux jeux de données d'entraînement rend les modèles significativement plus gérables lors de la détoxification subséquente.

Mattel et OpenAI créeront des jouets IA Barbie avec ChatGPT Enterprise

Une fusion fantastique des mondes du jouet et de l'intelligence artificielle ! Le fabricant légendaire de Barbie Mattel et OpenAI ont annoncé un partenariat. Qui ajoutera l'intelligence artificielle générative à la création de jouets et au contenu de divertissement.

Les dirigeants d'OpenAI, Meta et Palantir sont devenus lieutenants-colonels de l'armée

Trois dirigeants de haut niveau de compagnies leaders d'intelligence artificielle ont reçu le grade de lieutenant-colonel dans l'armée américaine. Ces personnes dirigeront aussi une unité spéciale "Unité 201". Parmi eux se trouvent le CTO de Palantir Shyam Sankar, le CTO de Meta Andrew Bosworth et le directeur produit d'OpenAI Kevin Weil.

Le robot Figure 2.0 trie parfaitement les paquets à l'usine BMW

Le directeur de la compagnie FigureAI a présenté une nouvelle vidéo démontrant les capacités du robot Figure 2.0, et les résultats sont impressionnants. Les images, présumément filmées sur le site de production BMW où les robots humanoïdes de la compagnie font un "stage" dans des conditions réelles depuis l'année dernière, démontrent un niveau stupéfiant d'autonomie et de précision.