viernes
8 y 2
8 y 2
No es alarmismo, ni tampoco una reacción generacional frente a los avances de la tecnología. Pero la necesidad de reglamentar ya el desarrollo y uso de la Inteligencia Artificial (IA) debería estar en la lista de prioridades de todo gobierno. No por miedo a lo desconocido, sino por la certeza de que semejante poder traerá avances positivos inimaginables para la humanidad, pero a la vez abrirá puertas hacia mundos más oscuros en los que las posibilidades de hacer el mal podrían alcanzar cotas hasta ahora no vistas.
Frenar el avance de la IA, como pidieron más de 1.000 líderes (entre ellos Ellon Musk y Bill Gates), ya es imposible, y probablemente sería un despropósito. Estamos en un mundo supremamente competitivo en el que las empresas privadas han invertido miles de millones de dólares para llegar los primeros a un mercado cautivo. Y cómo no al ver el interés que despertó uno solo de los chatbot que han salido al mercado, el chatGPT, que en cuestión de dos meses llegó a tener 100 millones de usuarios activos, una proeza que ni la más popular de las apps ha logrado conseguir. A TikTok le tomó nueve meses y a Instagram dos años y medio, de manera que el potencial de negocios hace imposible abrir un compás de espera en esta competencia desbocada.
Y eso que el chatGPT es solo una rama de la IA, específicamente la que se dedica a generar contenido original a partir de datos existentes en respuesta a instrucciones de un usuario. Las posibilidades en el área de la ciencia, la medicina y la economía son infinitas. Y las noticias recientes lo confirman: personas paralizadas que pueden volver a caminar, nuevos antibióticos que salvan vidas desarrollados en tiempo récord, detección temprana de enfermedades infantiles o desarrollo de nuevas tecnologías de energías limpias. La clave entonces es conseguir que en todos estos grandes avances prime la seguridad, y ahí es donde entra en juego el valor de la reglamentación.
La pregunta que habría que hacerse en estos momentos a nivel gubernamental, en un diálogo con las empresas de Inteligencia Artificial es: ¿dónde está el límite? ¿Qué tipo de reglamentación hay que establecer para mantener a salvo a las personas? Un pequeño avance se vio en la pasada reunión del G7 que se desarrolló en Japón, donde se creó un grupo de trabajo para avanzar en las respuestas a estas dos grandes cuestiones.
Ya algunos expertos han sugerido que podría regularse de forma similar a como se maneja la energía nuclear, creando algo parecido al Organismo Internacional de Energía Atómica (OIEA). El caso es que hay que ponerse manos a la obra y entender que las velocidades a las que se está desarrollando esta tecnología son vertiginosas y nos podrían embestir si no estamos preparados.
Los científicos nos explican que estamos viviendo apenas la primera de las tres etapas en las que ellos han clasificado el desarrollo de la IA. A esta la han llamado Inteligencia Artificial Estrecha porque se entrenan para operar en un área específica. Es la que se usa en los mapas con GPS, en el pronóstico del tiempo, en los programas de música y videos que reconocen gustos y hacen recomendaciones o incluso en los carros sin conductor.
La segunda etapa se conoce como Inteligencia Artificial General y a ella llegaremos cuando las máquinas puedan realizar cualquier tarea intelectual de las que realiza una persona. A esta es a la que le temen muchos expertos porque consideran que puede traer muchos riesgos para la sociedad y la humanidad y por eso apelan constantemente a la responsabilidad de las empresas y los gobiernos;
Y la tercera etapa es la de la Súper Inteligencia Artificial que ocurrirá cuando la inteligencia sintética supere a la humana en prácticamente todos los campos, incluida la creatividad científica, la sabiduría general y las habilidades sociales. Sobre esta última etapa hay bastante debate porque algunos ven imposible que la alcancemos, mientras que otros consideran que, al ritmo al que vamos, será inevitable.
De nosotros dependerá que podamos utilizar la IA súper inteligente para superar barreras biológicas y mejorar la vida y el mundo que habitamos. Pero no deberíamos seguir avanzando sin regular, hay que hacer algo para mitigar los riesgos y evitar, en la medida de lo posible, ser manipulados. Así que manos a la obra.