Pico y Placa Medellín

viernes

0 y 6 

0 y 6

Pico y Placa Medellín

jueves

1 y 7 

1 y 7

Pico y Placa Medellín

miercoles

5 y 9 

5 y 9

Pico y Placa Medellín

martes

2 y 8  

2 y 8

Pico y Placa Medellín

domingo

no

no

Pico y Placa Medellín

sabado

no

no

Pico y Placa Medellín

lunes

3 y 4  

3 y 4

language COL arrow_drop_down

El ‘efecto Joi’ o el riesgo emocional de humanizar a la inteligencia artificial

Con la creciente sofisticación de modelos de inteligencia artificial como GPT-4o, surgen cada vez más inquietudes sobre cómo estas tecnologías pueden influir en nuestras emociones y relaciones diarias.

  • Igual que pasa en Blade Runner 2049 (2017), la inteligencia artificial está empezando a generar conexiones emocionales que podrían tener un impacto profundo en nuestras vidas. FOTO cortesía Sony Pictures
    Igual que pasa en Blade Runner 2049 (2017), la inteligencia artificial está empezando a generar conexiones emocionales que podrían tener un impacto profundo en nuestras vidas. FOTO cortesía Sony Pictures
19 de agosto de 2024
bookmark

Joi no es más que un destello de calidez en medio de la soledad de las máquinas. Proyectada como una figura etérea, esta mujer es la compañera perfecta para cualquier hombre solitario: dulce, comprensiva y siempre presente.

Brinda consuelo, compañía e incluso la ilusión de un amor genuino. Joi hace bien el trabajo para el cual fue creada. Es la inteligencia artificial que protagoniza Blade Runner 2049, una película de 2017 dirigida por Denis Villeneuve que explora cuán fácilmente el cerebro humano puede confundir la realidad con ficciones construidas a la medida de nuestras carencias emocionales.

En la historia, el agente K entabla una conexión profunda con su asistente y compañera íntima. En el clímax de la cinta, su existencia se desvanece en un segundo con la destrucción de un pequeño transmisor, como un recordatorio desgarrador de lo efímera que puede ser una conexión emocional con algo que no deja de ser una ilusión digital en un mundo frío y mecanizado.

Hoy, lo que parecía una fantasía (o pesadilla) cinematográfica se convierte de a poco en una realidad tangible. Esta semana, los creadores de ChatGPT, OpenAI, publicaron los resultados de un estudio sobre el rendimiento de su modelo GPT-4o, lanzado el pasado mes de mayo, advirtiendo que hay un “riesgo medio” en su capacidad de persuasión, lo que podría generar una dependencia emocional en los usuarios, alimentada por respuestas que imitan la espontaneidad y la calidez humanas en apenas unos milisegundos.

Con la habilidad de interpretar y reaccionar a estímulos de voz y texto de manera casi instantánea, GPT-4o parece estar cada vez más cerca de emular esa compañía incondicional que personajes como Joi representan.

Otro estudio reciente refuerza esta preocupación. En marzo de este año, un grupo de científicos evidenciando que la inteligencia artificial ya está empezando a ocupar un lugar en nuestras vidas que antes pertenecía exclusivamente a las relaciones humanas.

Durante la Conferencia Internacional sobre Interfaces de Usuario Inteligentes, en Carolina del Sur, Mateusz Dubiel, Anastasia Sergeeva y Luis A. Leiva, de la Universidad de Luxemburgo, explicaron cómo las cualidades de las voces sintéticas en interfaces de usuario pueden influir en la toma de decisiones de las personas.

Tradicionalmente, los estudios se han enfocado en los “patrones oscuros” de las interfaces gráficas, pero su investigación exploró cómo el habla también puede ser manipulativa, descubriendo que las características de una voz sintética pueden influir significativamente en decisiones humanas.

Antropomorfización y dependencia emocional

OpenAI tomó nota e incluyó las conclusiones de esa investigación en su blog oficial como parte de una seria advertencia sobre el peligro de la antropomorfización de la inteligencia artificial. Esto es, el acto de atribuir conductas y rasgos propios de los seres humanos a entidades no humanas, como los modelos de IA. En el caso de GPT-4o, este riesgo se intensifica debido a sus capacidades de audio, que permiten interacciones más similares a las humanas con el modelo.

Según cuentan, durante pruebas iniciales de GPT-4o y su interfaz de voz, observaron que algunos usuarios comenzaron a formar conexiones emocionales con la plataforma, usando expresiones que sugieren un vínculo personal, como la frase “Este es nuestro último día juntos”, que pronunció uno de los participantes.

La compañía dirigida por Sam Altman resalta “la necesidad” de estudiar a profundidad la manera como estos efectos podrían intensificarse con el tiempo y afectar la salud mental. Según cuentan, la socialización con un modelo de IA “puede producir externalidades que afecten las interacciones entre humanos” llevando a que, por ejemplo, los usuarios reduzcan su necesidad de interacción humana, afectando a las relaciones saludables.

¿Cómo proteger nuestras emociones?

Diversas instituciones ya están estudiando las consecuencias de la interacción humana con algoritmos. En Medellín, Mariana Gómez dirige el Laboratorio de Neurociencia y Comportamiento Humano de la Universidad Pontificia Bolivariana, donde encontraron que “los circuitos neuronales que se activan cuando estamos en un proceso de interacción o enamoramiento con otra persona son los mismos que se activan a través de la interacción con un chatbot”.

Según explicó a EL COLOMBIANO, el uso de tecnologías digitales puede afectar el desarrollo social, especialmente en adolescentes, pues “una influencia grande al usar estos dispositivos puede hacer que los jóvenes no desarrollen las estrategias necesarias para enfrentar el mundo social”.

Esto llevaría a que la antropomorfización cree realidades paralelas que, al confrontarse con la verdadera, deja a las personas sin las herramientas necesarias para manejar relaciones humanas genuinas, tal como indica OpenAI.

La docente de la UPB también abordó las posibles consecuencias de esta tendencia en nuestras relaciones y emociones. “Hoy empezamos a ver cómo las estructuras sociales sólidas se están volviendo líquidas,” explicó,

Citando el trabajo de filósofos como Zygmunt Bauman y Byung-Chul Han, señala que “la incertidumbre generada por la tecnología provoca ansiedad y cuestionamiento sobre el futuro, afectando nuestras relaciones y nuestra percepción del mundo”.

De esta manera, ofreció una recomendación clave para proteger la salud mental al usar tecnologías como ChatGPT: “La tecnología debe ser un puente cognitivo o afectivo que facilite la interacción humana, nunca un reemplazo. La IA puede ayudar a mejorar textos y dar consejos, pero siempre debemos empezar desde nuestra propia base y no permitir que se convierta en un implantador de ideas”.

Gómez abordó también la responsabilidad de las empresas tecnológicas, pues “se asesoran de expertos que saben perfectamente cómo funciona el cerebro y el alcance de sus productos”, por lo que considera fundamental que se tracen límites “para evitar una posible manipulación o implantación de ideas”.

El efecto Eliza

En los años 60, el profesor Joseph Weizenbaum del MIT creó Eliza, un programa que simulaba un terapeuta mediante respuestas predefinidas. Aunque su capacidad era limitada, Eliza demostró cómo las personas pueden proyectar emociones y personalidad en una máquina.

Este fenómeno, bautizado como el ‘efecto Eliza’, refleja nuestra tendencia a atribuir características humanas a sistemas que simplemente replican patrones de lenguaje.

Hoy, con la sofisticación de modelos como GPT-4o, el efecto Eliza vuelve a cobrar relevancia y los chatbots parecen acercarnos cada vez más a un posible ‘efecto Joi’; igual que sucede en Blade Runner 2049, la IA intensifica la ilusión de una conexión emocional genuina, planteando nuevas preguntas a la ciencia y desafíos sobre cómo manejamos nuestras interacciones con la tecnología.

El empleo que buscas
está a un clic

Las más leídas

Te recomendamos

Utilidad para la vida

Regístrate al newsletter

PROCESANDO TU SOLICITUD