
Filósofo finlandés probó presencia de libre albedrío en IA
¿Puede inteligencia artificial poseer libre albedrío? ¡Filósofo finlandés Frank Martela de Universidad Aalto cree que sí! Desarrolló concepto basado en 3 señales clave de libre albedrío funcional. Primero, objeto debe actuar intencionalmente, no simplemente reaccionar a estímulos externos. Segundo, debe elegir de alternativas reales. Y tercero, controlar sus acciones, alcanzando metas no por casualidad, sino a través de comportamiento específico consciente.
Martela condujo análisis detallado de comportamiento del bot real Voyager, trabajando en juego Minecraft basado en modelo de lenguaje GPT-4. También propuso experimento mental con dron de combate hipotético Spitenik, que teóricamente podría ser creado en nivel actual de desarrollo tecnológico. En ambos casos, afirma filósofo, todos 3 criterios de libre albedrío se cumplen completamente. Estos agentes artificiales son capaces de planificar acciones, elegir de múltiples opciones y corregir su comportamiento basado en retroalimentación del ambiente.
Además, hacen esto no porque tengan algoritmo preestablecido para cada caso, sino basado en sus propias metas y modelo interno del mundo. Pero si inteligencia artificial realmente toma decisiones independientemente, entonces surge pregunta compleja: ¿quién lleva responsabilidad por consecuencias? Martela hace paralelo interesante con animales domésticos: «Podemos culpar a perro por mal comportamiento, pero dueño todavía permanece responsable».