<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=378526515676058&amp;ev=PageView&amp;noscript=1">
Innovación | PUBLICADO EL 26 noviembre 2020

Avanzar en inteligencia artificial, sí, pero sin dejar de lado la ética

  • Ética en inteligencia artificial, al tablero. FOTO: STOCK-UP
    Ética en inteligencia artificial, al tablero. FOTO: STOCK-UP
  • Ética en inteligencia artificial, al tablero. FOTO: STOCK-UP
    Ética en inteligencia artificial, al tablero. FOTO: STOCK-UP
Por diego vargas riaño

La discusión sobre el impacto de esta tecnología en la seguridad y privacidad de los usuarios, así como los límites de su independencia, da sus primeros pasos en el país.

Según IBM la inteligencia artificial (IA) podría aportar 16 billones de dólares a la economía mundial en 2030. Lo que explicó el Gobierno Nacional en el Conpes 3975 de 2019 —que traza la hoja de ruta para la transformación digital— es que el concepto hace alusión a “un campo de la informática dedicado a resolver problemas cognitivos comúnmente asociados con la inteligencia humana (...)”.

Y pese a que el documento en cuestión también establece recursos por 121.619 millones de pesos para avanzar en IA en el lapso 2019 - 2022, el Ejecutivo no deja de lado que los pasos hacia adelante deben estar acompañados por un marco ético (ver Informe).

Ayer, justamente, el presidente Iván Duque, quien participó en el encuentro ‘Marco ético de inteligencia artificial’ en Casa de Nariño, aseguró que una discusión de este tipo es importante porque no se pueden descuidar aspectos humanos, límites y el marco de aplicación en la entrada de nuevas tecnologías.

Agregó que analizar estos asuntos hacen que Colombia “esté a la vanguardia” en la región, en tanto existe un borrador con bases para el despliegue de IA.

Factores relevantes

En concreto, el texto mencionado por el mandatario refiere la importancia de factores como “privacidad, responsabilidad, seguridad, transparencia y explicación, justicia y no discriminación, y control y supervisión humana de la tecnología”, entre otros, a la hora de hacer desarrollos.

Se analiza, por ejemplo, cómo la forma de procesar datos de las personas puede afectar su privacidad; qué impacto tendrían los ataques cibernéticos; y cuáles son los límites de autonomía para la IA, que no esté fuera del control y los valores humanos.

En concepto de Juan Pablo Ortega, gerente de Negocios Estratégicos de Conectri, precisamente el gran enfoque en relación a la IA no es la tecnología, sino cómo se usará, pues si bien puede facilitar la vida, también podría “hacer mucho daño” si se usa malintencionadamente. “La regulación está un paso atrás de la tecnología, entonces debe haber un marco ético fuerte”.

En ese sentido, el borrador del Ejecutivo habla tres pilares fundamentales: ética de los datos; de los algoritmos; y de las prácticas. Esto, para dar claridad de cómo se recolecta y trata la información, por qué cuando se hace una búsqueda salen determinados resultados y de qué depende, y la forma en que quienes están detrás de los desarrollos de IA se basan en buenas prácticas.

Para Diego Páramo, consultor en Machine Learning, al final hay que entender que la inteligencia artificial está diseñada para ir aprendiendo y tomando decisiones a partir de datos, y muchas veces quienes la desarrollan “no necesariamente saben qué es lo que están haciendo” porque sus desarrollos son “modelos no supervisados” de los que no conocen cómo y por qué toman determinadas decisiones.

Diego Andrés Vargas Riaño

En mis bolsillos hay una grabadora y unos audífonos; en mi mente, amor por el periodismo.