Un tribunal anglais a averti les avocats de sanctions pour de fausses citations d’IA
La Haute Cour d’Angleterre et du Pays de Galles a émis un avertissement crucial — les avocats peuvent faire face à de sérieuses sanctions pour l’utilisation de fausses citations générées par intelligence artificielle.
Dans une décision marquante, la juge Victoria Sharp a souligné que les outils d’intelligence artificielle génératifs comme ChatGPT, je cite « ne sont pas capables de mener des recherches juridiques fiables ». Elle a noté que de tels outils peuvent créer des réponses extérieurement cohérentes et plausibles qui à l’examen s’avèrent être complètement incorrectes, faisant des déclarations confiantes qui ne correspondent pas à la réalité.
Dans un des cas examinés, un avocat a présenté un document avec 45 citations, dont 18 se référaient à des cas inexistants. Dans un autre cas, un juriste a cité 5 décisions de justice inexistantes. Bien que le tribunal ait décidé de ne pas initier de procédures pour outrage au tribunal, la juge Sharp a averti que ceci « n’est pas un précédent ».
Cette décision a été transmise aux organes professionnels, incluant le Conseil du Barreau et la Société Juridique, pour renforcer le contrôle sur le respect des obligations professionnelles des juristes envers le tribunal à l’ère de l’intelligence artificielle.
AIvengo >
Avis >
Un tribunal anglais a averti les avocats de sanctions pour de fausses citations d’IA
Почитать из последнего
UBTech enverra des robots Walker S2 servir à la frontière chinoise pour $37 millions
L'entreprise chinoise UBTech a remporté un contrat de $37 millions. Et enverra des robots humanoïdes Walker S2 servir à la frontière de la Chine avec le Vietnam. South China Morning Post rapporte que les robots interagiront avec les touristes et le personnel, effectueront des opérations logistiques, inspecteront les marchandises et patrouilleront le territoire. Et caractéristiquement — ils peuvent changer leur batterie de manière autonome.
Les chatbots IA génèrent du contenu qui aggrave les troubles alimentaires
Une étude conjointe de l'Université Stanford et du Center for Democracy and Technology a montré un tableau inquiétant. Les chatbots avec intelligence artificielle représentent un risque sérieux pour les personnes souffrant de troubles alimentaires. Les scientifiques avertissent que les réseaux neuronaux distribuent des conseils nuisibles sur les régimes. Ils proposent des moyens de cacher le trouble et génèrent du "contenu inspirant pour perdre du poids" qui aggrave le problème.
OpenAGI a publié le modèle Lux qui dépasse Google et OpenAI
La startup OpenAGI a publié le modèle Lux pour le contrôle d'ordinateur et affirme que c'est une percée. Selon les benchmarks, le modèle dépasse d'une génération entière les analogues de Google, OpenAI et Anthropic. De plus, il fonctionne plus vite. Environ 1 seconde par étape au lieu de 3 secondes chez les concurrents. Et 10 fois moins cher en coût par traitement de 1 token.