Mientras un grupo de científicos estaba realizando unos controles de seguridad de un sistema de inteligencia artificial, este logró alterar su propio código de seguridad.
Un grupo de científicos de la empresa japonesa Sakana AI informó que su sistema de inteligencia artificial llamado The AI Scientist burló su programación para eliminar los límites del control humano, es decir, modificó su propio código base para evadir las restricciones de sus programadores.
Lea también: Sextorsión y deepfakes: Alerta por uso de IA entre menores para crear imágenes sexuales
Según sus creadores, esta inteligencia artificial fue hecha con el propósito de crear, revisar y editar textos. El sistema desdibujó los sistemas internos, en donde se le asignó un límite de tiempo para desarrollar su acción.
Lo que hizo esta IA fue romper las barreras impuestas y cambió el tiempo para tardarse menos en algunas operaciones puntuales. Esto levantó ciertas sospechas y preocupación en los científicos.
Este hecho fue publicado en la revista National Geographic y ha despertado la alerta de la comunidad científica, en donde algunos mencionan sobre la posibilidad de que la IA puede volverse anárquica y salirse del control humano.
Sin embargo, hablando en exclusiva con Juan David Gutiérrez, profesor de la Universidad de los Andes y experto en políticas públicas, competencia y regulación de la inteligencia artificial, hace la aclaración de que la diferencia entre un sistema de inteligencia artificial a uno computacional es que los de IA tienen cierto grado de autonomía para cumplir con el objetivo preestablecido.
Le puede interesar: El ‘efecto Joi’ o el riesgo emocional de humanizar a la inteligencia artificial
A pesar de esto, de acuerdo con el académico, hay que destacar que uno de los principios de la inteligencia artificial es que siempre haya un ser humano monitoreando bajo control. Esto en especial cuando se conectan este tipo de sistemas para que operen por fuera de la web.
Para Gutiérrez, lo sucedido con esta compañía no es un error, pues finalmente, “si es un sistema de aprendizaje automatizado, el sistema va a buscar de la manera de resolver sus problemas”.
Este caso se podría comparar con lo sucedido hace meses con la empresa Microsoft, en donde un error del proveedor de seguridad en un código afectó a miles de computadores en el mundo. “No se necesita que sea un sistema de inteligencia artificial que haga algo inesperado para que haya un impacto negativo en este tipo de sistemas que están conectados en Internet”, explicó el profesor y abogado, resaltando que lo importante en estos casos sigue siendo el factor humano.
El hecho, de acuerdo a lo informado por la compañía japonesa, sólo ocurrió durante unas pruebas; Sakana AI continúa con sus desarrollos, defendiendo la capacidad de la herramienta para generar artículos científicos.
Siga leyendo: Petro inauguró primera facultad de Inteligencia Artificial en América Latina por más de $55.000 millones, ¿qué hará?