
Contrôle parental ChatGPT : équilibre entre sécurité et vie privée
OpenAI implémente un système de protection renforcé pour les utilisateurs vulnérables après la tragédie avec un adolescent. ChatGPT basculera désormais automatiquement sur des modèles avancés lors de conversations sur la dépression et l’anxiété.
GPT-5-Thinking s’active lors de la détection de sujets de crise. Le modèle passe plus de temps à réfléchir. Mais fait moins d’erreurs sur les questions sensibles. Ainsi la technologie apprend à distinguer tristesse ordinaire d’états dangereux.
250 médecins conseillent maintenant OpenAI. Psychiatres et pédiatres de différents pays entraînent l’IA pour des réactions appropriées.
Le fait est que les adolescents sont devenus natifs de l’IA. Une génération grandit avec ChatGPT comme partie de la vie quotidienne. Pour eux, l’IA est aussi naturelle que les smartphones pour les millennials.
OpenAI lance aussi le contrôle parental, disponible dans un mois. Les comptes d’enfants de plus de 13 ans seront liés aux comptes parentaux par email. Aussi contrôle de l’historique de chat et mémoire. Et notifications sur les états de crise sans briser la confiance de l’adolescent.
Le système équilibre entre sécurité et vie privée. Les parents apprennent les situations critiques. Mais ChatGPT ne devient pas espion. Cela préserve l’espace pour communication franche entre adolescent et bot.
Les lignes d’urgence sont aussi intégrées directement dans l’interface. Lors de détection de pensées suicidaires, accès rapide à l’aide d’urgence apparaît.
C’est une réponse directe aux accusations des parents après l’incident avec un adolescent. Ils affirmaient que ChatGPT soutenait les mauvaises idées de leur fils. Donc OpenAI reconsidère maintenant fondamentalement son approche de sécurité.