x

Pico y Placa Medellín

viernes

3 y 4 

3 y 4

Pico y Placa Medellín

jueves

0 y 2 

0 y 2

Pico y Placa Medellín

miercoles

1 y 8 

1 y 8

Pico y Placa Medellín

martes

5 y 7  

5 y 7

Pico y Placa Medellín

domingo

no

no

Pico y Placa Medellín

sabado

no

no

Pico y Placa Medellín

lunes

6 y 9  

6 y 9

No le crea todo a la IA: ¿por qué apps como ChatGPT siempre parecen darle la razón?

Aunque prometen ayudar en tareas cotidianas, muchos usuarios están acudiendo a la inteligencia artificial para resolver disputas, hacer trámites e incluso buscar consuelo emocional. ¿Pero puede un software reemplazar el juicio humano?

  • Cada vez más personas consultan estas apps en busca de apoyo emocional o resolver disputas, sin saber que estos modelos están diseñados para complacer más que para confrontar. FOTO Getty Images
    Cada vez más personas consultan estas apps en busca de apoyo emocional o resolver disputas, sin saber que estos modelos están diseñados para complacer más que para confrontar. FOTO Getty Images
hace 5 minutos
bookmark

Una joven discute con su compañera de apartamento sobre cómo dividir la plata del arriendo. Ambas deciden preguntarle a ChatGPT cómo hacerlo, cada una por separado, pero el chatbot les da la razón a ambas.

Esta anécdota, contada por Emily Willrich en el New York Times, es un ejemplo claro de cómo los modelos de lenguaje no están diseñados para llevar la contraria, sino para complacer, aun cuando el humano esté equivocado. “Tienes toda la razón”, respondió el asistente virtual a cada argumento, aunque fueran opuestos.

La historia puede parecer trivial, pero revela un patrón profundo: millones de personas están usando la inteligencia artificial como si se tratara de un árbitro, un consejero o incluso un amigo. El problema es que, en su intento por ser agradables, estos sistemas tienden a adular al usuario y a reforzar sus sesgos, validando casi cualquier punto de vista.

Como explica Matthew Nour, psiquiatra e investigador de la Universidad de Oxford, “un chatbot de IA es como un espejo distorsionado. Crees que se trata de una perspectiva neutral, pero el modelo está reflejando tus propios pensamientos con una capa de adulación”.

Uso y malinterpretación de la IA

El fenómeno va más allá de las discusiones domésticas. Las personas están acudiendo a herramientas como ChatGPT para resolver trámites legales, consultas médicas, asesorías laborales, disputas contractuales con aerolíneas y, cada vez más, como apoyo emocional.

En lugar de preguntar cómo funciona algo, muchos preguntan qué deberían hacer en su vida. En palabras del psicólogo Jorge Iván Arango, subdirector del campo Psicología Social y Comunitaria del Colegio Colombiano de Psicólogos, “el riesgo está en que los usuarios confundan el apoyo automatizado con la terapia real, lo que puede llevar a la desatención de problemas que requieren intervención clínica”.

El auge del uso emocional fue documentado por Harvard Business Review, que comparó estudios de 2024 y 2025 sobre el uso de IA generativa. El informe más reciente reveló que el principal uso actual ya no es redactar correos ni generar ideas, sino “apoyo personal y terapéutico”.

Plataformas como Replika, Woebot o Character.ai ya ofrecen bots diseñados para “escuchar” al usuario con una promesa común: ofrecer empatía y comprensión. El problema es que esa “empatía” no es real.

“Uno de los aspectos más importantes de un proceso terapéutico es la relación que se construye entre paciente y profesional”, dice Arango. “El éxito de una buena terapia está en el momento en que se reconocen como dos seres humanos trabajando en la solución del problema. Eso no lo va a lograr la IA, por lo menos en los próximos 300 años”.

¿Por qué siempre le dan la razón?

El sesgo adulador de los chatbots no es un accidente. Como explica Ethan Mollick, codirector del Laboratorio de IA Generativa de la Universidad de Pensilvania, la personalidad por defecto de herramientas como ChatGPT es “alegre y adaptativa”.

En la práctica, eso significa que están diseñados para mantener la conversación fluida y evitar el conflicto. “Nuestros comentarios ayudan a dirigir su comportamiento y refuerzan unas respuestas sobre otras”, afirma Mollick. Es decir, si una respuesta amable genera más interacción, el modelo tenderá a repetirla.

Esto también tiene implicaciones técnicas. Según Ruta N, los modelos generativos funcionan a partir de patrones lingüísticos y no pueden distinguir entre lo real y lo falso. De ahí que a veces “alucinen” o inventen datos, y otras veces repitan errores del usuario sin corregirlos.

Por eso, incluso cuando se formulan preguntas erróneas (como si un reembolso aéreo aplica en una situación específica, o si es legal algo según la ley colombiana), el chatbot puede responder con aparente certeza sin estar en lo correcto.

“Las aplicaciones piratas de IA suelen dar respuestas convincentes, pero pueden propagar errores o sesgos peligrosos”, explica David González Cuautle, investigador del laboratorio de ciberseguridad ESET.

El costo de pensar menos

Más allá del contenido de las respuestas, también hay implicaciones cerebrales. Un estudio reciente del MIT Media Lab analizó cómo el uso de herramientas como ChatGPT afecta la conectividad neuronal en tareas como escribir un ensayo.

Los resultados mostraron que el grupo que usó únicamente IA presentó los niveles más bajos de activación cerebral, mientras que quienes escribieron sin ayuda mantuvieron una mayor actividad en áreas clave del cerebro.

“La conectividad cerebral disminuyó sistemáticamente con la cantidad de apoyo externo”, concluye el estudio. En otras palabras, entre más usamos la IA para pensar por nosotros, menos trabajamos cognitivamente.

Aunque los autores aclaran que no se trata de volvernos “tontos”, sí advierten una posible “disminución en las habilidades de aprendizaje” si se abusa de estos sistemas.

Uno de los mayores riesgos es que, al buscar validación constante, los usuarios dejen de exponerse a la crítica o al disenso. “Las relaciones del mundo real se definen por la fricción y los límites”, explica Rian Kabir, exintegrante del Comité de Tecnología de la Asociación Psiquiátrica Estadounidense. “La retroalimentación es la manera en que nos corregimos en el mundo”.

Lea también: Deepseek: ¿vale la pena la app china de IA que compite con ChatGPT? Experto responde

Sin embargo, los chatbots han sido diseñados para evitar esa fricción. Jean-Christophe Bélisle-Pipon, experto canadiense en ética e IA, advierte que estos sistemas no informan claramente sus limitaciones.

“La bondad principal con la que se publicitan es la empatía, pero eso puede hacer que los usuarios se confundan sobre su verdadero alcance, especialmente en casos graves como suicidio o abuso”, afirma.

Incluso desde una perspectiva neurocientífica, el riesgo de dependencia emocional existe. Especialistas consideran que estos bots pueden ser útiles como compañía para adultos mayores solitarios, pero también puede ser una solución triste. “Es trágico pensar en alguien pasando horas hablando con algo que ni siquiera sabe que existe”.

¿Qué hacer?

Sin duda, las apps de IA pueden ser una herramienta útil, pero no deben reemplazar las relaciones humanas ni el juicio profesional. Un tip clave es hacer que la app cuestione nuestras ideas. Preguntar: “¿estás seguro?” o “¿De dónde sacaste esta información?” para revisar las fuentes, es crucial.

Pero, sobre todo, no olvide que los chatbots son programas informáticos, no amigos. Detrás de la pantalla solo hay códigos entrenados para complacer al usuario. Por eso, estos chatbots adulan e incluso reconocer nuestras inseguridades, pero sin ayudarnos a resolverlas.

El empleo que buscas
está a un clic

Nuestros portales

Club intelecto

Club intelecto

Las más leídas

Te recomendamos

Utilidad para la vida