El mundo, que de cuando en vez es sorprendido con la aparición de descubrimientos que cambian la vida de la personas, ahora anda medio revolcado por las nuevas aplicaciones de la “inteligencia artificial” y en particular por el llamado ChatGPT: un programa que conversa sobre cualquier cosa que se le pregunte, crea textos y redacta ensayos en varios idiomas con cualquier guía que uno le dé.
Es tan sorprendente como fácil de usar y por eso se ha popularizado más rápido que cualquier otra aplicación tecnológica. En menos de dos meses, ChatGPT alcanzó los 100 millones de usuarios únicos. TikTok se demoró nueve meses en llegar a la misma cifra; Instagram, dos años y cuatro meses; WhatsApp, tres años y cuatro meses; y Facebook, cuatro años y siete meses.
Bing, el buscador de Microsoft, anunció nuevas funcionalidades en su motor de búsqueda apoyándose en la inteligencia artificial de ChatGPT. Es probable que, en cuestión de meses, ChatGPT le gane algo de terreno a Google y se ubique como un competidor fuerte del hasta ahora rey de la era digital.
A pesar de todos esos datos asombrosos, ChatGPT y demás aplicaciones parecidas, en medio de la fiesta del descubrimiento, todavía no están siendo del todo comprendidas en su alcance y sus limitaciones.
¿Qué entendemos por “inteligencia” en este caso? Ojo que todavía no estamos frente a poderosos robots, con capacidad de razonar, parecidos a los de las películas de ciencia ficción. A pesar de lo fascinantes que son, apenas estamos frente a aplicaciones que se “entrenan” con conjunto gigantescos de datos y “aprenden” a realizar tareas utilizando el lenguaje, como dar respuestas a preguntas, traducir y resumir textos e incluso generar código de programación.
Así, por más que descreste con sus respuestas en apariencia “originales”, continúan existiendo grandes limitaciones en su uso. Por ejemplo, para ChatGPT el presidente de Colombia todavía es Iván Duque, porque su fecha de corte de conocimiento fue 2021. No tiene idea de lo que ha pasado después.
La advertencia es importante entre otras para casos como el ocurrido a principios de febrero, cuando un juez de Cartagena utilizó ChatGPT para resolver una tutela contra una EPS. El uso de la inteligencia artificial para este caso fue riesgoso e, independiente de la calidad de su respuesta, errado.
La familia tutelante de este caso exigía que la EPS Salud Total exonerara a un menor de edad que nació con trastorno del espectro autista del cobro de la cuota moderadora de citas médicas y terapias, ya que los padres no tenían cómo costear esos gastos. El juez que llevó el caso, cobijado por una ley que permite incorporar herramientas tecnológicas a las actuaciones judiciales, decidió incluir en la resolución de la tutela algunos conceptos que le arrojó ChatGPT.
El juez le preguntó a la inteligencia artificial: “¿Menor autista está exonerado de pagar cuotas moderadoras en sus terapias?”. A lo que ChatGPT respondió: “Sí, es correcto. De acuerdo con la normativa en Colombia, los menores con diagnóstico de autismo están exonerados de pagar cuotas moderadoras en sus terapias. Este beneficio está regulado por la Ley 1753 de 2015 y se aplica a todas las instituciones prestadoras de servicios de salud públicas o privadas que reciban recursos del sistema general de seguridad social en salud”.
Tomar decisiones basado en una respuesta de esta naturaleza tiene varios inconvenientes. El primero, son las mismas limitaciones que los mismos creadores de ChatGPT hacen explícitas respecto a su funcionamiento. La inteligencia artificial “a veces escribe respuestas que suenan plausibles, pero que son incorrectas o sin sentido”. Suele dar respuestas que obedecen a “sesgos en los datos de entrenamiento”, por lo que siempre estará condicionada a la calidad de información que tuvo sobre lo que se le pregunta, algo desconocido para quien decide usarla. También es inconsistente: a exactamente la misma pregunta puede darle distintas y contradictorias resoluciones.
ChatGPT no sabe reconocer entre la realidad y la ficción en la información de la que saca sus respuestas. Las inteligencias artificiales, por ahora, siguen pareciéndose a un “loro” que ha escuchado infinitas conversaciones. Mientras eso siga siendo así, tendrá sus limitantes, por lo que es importante alfabetizar a las personas sobre sus restricciones. Por el momento, los riesgos más grandes asociados a ChatGPT y otras inteligencias artificiales están más en utilizarlas de forma equivocada por no comprenderlas del todo. Entendámoslas mejor antes de aventarnos a usarlas