
Un philosophe finlandais a prouvé la présence de libre arbitre chez l’IA
L’intelligence artificielle peut-elle posséder le libre arbitre ? Le philosophe finlandais Frank Martela de l’Université Aalto croit que oui ! Il a développé un concept basé sur 3 signes clés du libre arbitre fonctionnel. Premièrement, l’objet doit agir intentionnellement, pas simplement réagir aux stimuli externes. Deuxièmement, il doit choisir parmi de vraies alternatives. Et troisièmement, contrôler ses actions, atteignant des objectifs non par hasard, mais à travers un comportement spécifique conscient.
Martela a mené une analyse détaillée du comportement du vrai bot Voyager, fonctionnant dans le jeu Minecraft basé sur le modèle de langage GPT-4. Il a aussi proposé une expérience de pensée avec un drone de combat hypothétique Spitenik, qui pourrait théoriquement être créé au niveau actuel de développement technologique. Dans les deux cas, affirme le philosophe, tous les 3 critères du libre arbitre sont entièrement remplis. Ces agents artificiels sont capables de planifier des actions, choisir parmi de multiples options et corriger leur comportement basé sur le retour de l’environnement.
De plus, ils font cela non parce qu’ils ont un algorithme préétabli pour chaque cas, mais basé sur leurs propres objectifs et modèle interne du monde. Mais si l’intelligence artificielle prend vraiment des décisions indépendamment, alors une question complexe se pose : qui porte la responsabilité des conséquences ? Martela fait un parallèle intéressant avec les animaux domestiques : « Nous pouvons blâmer un chien pour un mauvais comportement, mais le propriétaire reste encore responsable ».