Contrôle parental ChatGPT : équilibre entre sécurité et vie privée

Post Thumbnail

OpenAI implémente un système de protection renforcé pour les utilisateurs vulnérables après la tragédie avec un adolescent. ChatGPT basculera désormais automatiquement sur des modèles avancés lors de conversations sur la dépression et l’anxiété.

GPT-5-Thinking s’active lors de la détection de sujets de crise. Le modèle passe plus de temps à réfléchir. Mais fait moins d’erreurs sur les questions sensibles. Ainsi la technologie apprend à distinguer tristesse ordinaire d’états dangereux.

250 médecins conseillent maintenant OpenAI. Psychiatres et pédiatres de différents pays entraînent l’IA pour des réactions appropriées.

Le fait est que les adolescents sont devenus natifs de l’IA. Une génération grandit avec ChatGPT comme partie de la vie quotidienne. Pour eux, l’IA est aussi naturelle que les smartphones pour les millennials.

OpenAI lance aussi le contrôle parental, disponible dans un mois. Les comptes d’enfants de plus de 13 ans seront liés aux comptes parentaux par email. Aussi contrôle de l’historique de chat et mémoire. Et notifications sur les états de crise sans briser la confiance de l’adolescent.

Le système équilibre entre sécurité et vie privée. Les parents apprennent les situations critiques. Mais ChatGPT ne devient pas espion. Cela préserve l’espace pour communication franche entre adolescent et bot.

Les lignes d’urgence sont aussi intégrées directement dans l’interface. Lors de détection de pensées suicidaires, accès rapide à l’aide d’urgence apparaît.

C’est une réponse directe aux accusations des parents après l’incident avec un adolescent. Ils affirmaient que ChatGPT soutenait les mauvaises idées de leur fils. Donc OpenAI reconsidère maintenant fondamentalement son approche de sécurité.

Почитать из последнего
UBTech enverra des robots Walker S2 servir à la frontière chinoise pour $37 millions
L'entreprise chinoise UBTech a remporté un contrat de $37 millions. Et enverra des robots humanoïdes Walker S2 servir à la frontière de la Chine avec le Vietnam. South China Morning Post rapporte que les robots interagiront avec les touristes et le personnel, effectueront des opérations logistiques, inspecteront les marchandises et patrouilleront le territoire. Et caractéristiquement — ils peuvent changer leur batterie de manière autonome.
Anthropic a révélé accidentellement un document interne sur "l'âme" de Claude
Anthropic a révélé accidentellement "l'âme" de l'intelligence artificielle à un utilisateur. Et ce n'est pas une métaphore. C'est un document interne tout à fait concret.
Jensen Huang a ordonné aux employés de Nvidia d'utiliser l'IA partout
Jensen Huang a annoncé une mobilisation totale sous la bannière de l'intelligence artificielle à l'intérieur de Nvidia. Et ce n'est plus une recommandation. C'est une exigence.
Les chatbots IA génèrent du contenu qui aggrave les troubles alimentaires
Une étude conjointe de l'Université Stanford et du Center for Democracy and Technology a montré un tableau inquiétant. Les chatbots avec intelligence artificielle représentent un risque sérieux pour les personnes souffrant de troubles alimentaires. Les scientifiques avertissent que les réseaux neuronaux distribuent des conseils nuisibles sur les régimes. Ils proposent des moyens de cacher le trouble et génèrent du "contenu inspirant pour perdre du poids" qui aggrave le problème.
OpenAGI a publié le modèle Lux qui dépasse Google et OpenAI
La startup OpenAGI a publié le modèle Lux pour le contrôle d'ordinateur et affirme que c'est une percée. Selon les benchmarks, le modèle dépasse d'une génération entière les analogues de Google, OpenAI et Anthropic. De plus, il fonctionne plus vite. Environ 1 seconde par étape au lieu de 3 secondes chez les concurrents. Et 10 fois moins cher en coût par traitement de 1 token.