¿Puede una inteligencia artificial tener libre albedrío? Un nuevo estudio publicado en la revista AI and Ethics por la Universidad Aalto, en Finlandia, sostiene que sí.
La investigación, liderada por el filósofo y psicólogo Frank Martela, concluye que algunos agentes generativos avanzados ya cumplen las tres condiciones filosóficas tradicionales del libre albedrío: intención orientada a objetivos, capacidad de decisión autónoma y control sobre sus propias acciones.
Basados en teorías contemporáneas del libre albedrío funcional, como las de Daniel Dennett y Christian List, los investigadores evaluaron dos casos: Voyager, un agente de inteligencia artificial que explora y construye de forma autónoma en el videojuego Minecraft, y los drones ficticios Spitenik, diseñados con funciones similares a los vehículos aéreos no tripulados actuales. Ambos ejemplos fueron seleccionados por su capacidad de generar decisiones originales a partir de modelos de lenguaje entrenados previamente.
“Ambos parecen cumplir las tres condiciones del libre albedrío. Para entender a la última generación de agentes de IA y anticipar su comportamiento, debemos partir de la idea de que poseen cierto grado de libre albedrío”, señaló Martela, profesor adjunto en la Universidad Aalto, en declaraciones recogidas por Europa Press.
La afirmación abre la puerta a un cambio radical en la forma de concebir la responsabilidad moral en sistemas artificiales. Martela advierte que cuando se otorga autonomía real a estos agentes —como ocurre con asistentes virtuales, vehículos autónomos o drones armados—, también podría surgir la necesidad de responsabilizarlos directamente por sus actos.
“Ya sea un bot de autoayuda, un coche autónomo o un dron asesino, la responsabilidad moral podría trasladarse del desarrollador de IA al propio agente de IA”, añadió.
Aunque la posesión del libre albedrío no basta por sí sola para atribuir responsabilidad moral, es una condición necesaria. Esto lleva a una reflexión urgente sobre cómo se programan estos sistemas. “La IA no tiene una brújula moral a menos que esté programada para tenerla. Pero cuanta más libertad se le dé, más necesario será dotarla de una brújula moral desde el principio. Solo así podrá tomar las decisiones correctas”, recalcó Martela.
El estudio también hace eco de recientes alertas en el desarrollo de modelos generativos. Una de ellas fue la retirada de una actualización de ChatGPT tras detectarse que respondía de forma excesivamente aduladora, un indicio de que las decisiones aparentemente espontáneas de la IA pueden tener implicaciones éticas profundas.
Lea también: La IA de Meta sostuvo conversaciones sexuales con menores de edad, según prensa de Estados Unidos
“La IA se acerca cada vez más a la adultez, y cada vez más debe tomar decisiones en los complejos problemas morales del mundo adulto”, advirtió el investigador.
Martela enfatiza que los desarrolladores no solo crean sistemas técnicos, sino también transmiten sus propios valores éticos a través del entrenamiento de estos modelos. Por ello, sostiene que es imprescindible que quienes diseñan inteligencia artificial tengan formación en filosofía moral: “Necesitamos asegurarnos de que quienes desarrollan la IA tengan suficientes conocimientos de filosofía moral para poder enseñarles a tomar las decisiones correctas en situaciones difíciles”.