Amigos y enemigos de una IA abierta y libre
Mientras algunos ven en la IA open source una oportunidad para democratizar la tecnología, gobiernos poderosos advierten sobre sus riesgos y la necesidad de regularla, ¿cuál es el camino?
El acceso abierto a la tecnología ha sido un punto de quiebre en la historia del desarrollo digital. La disputa entre software libre y software privado ha definido la evolución de la industria y sigue marcando debates en la era de la inteligencia artificial. La pregunta central es quién debe controlar la tecnología y si el conocimiento puede permanecer en manos de un grupo reducido o estar al alcance de todos.
Uno de los mayores ejemplos de software abierto (open source) es Linux, un sistema operativo que surgió en 1991 como una alternativa a los productos comerciales de Microsoft y Apple. Su modelo colaborativo lo convirtió en una herramienta clave para servidores y supercomputadoras, aunque no logró masificarse entre los usuarios comunes. “Linux es un caso icónico de software abierto que cambió la industria. Aunque nunca desplazó a Windows en los hogares, domina en servidores y supercomputadoras”, explica Álvaro Montes, especialista en Inteligencia Artificial (IA) y autor del libro Inteligencia artificial: la revolución que cambiará todo (Planeta).
José Betancur, director del programa Nodo de EAFIT, agrega que “el código abierto permitió una colaboración global sin precedentes, donde desarrolladores de todo el mundo mejoraron y expandieron el sistema sin depender de una única empresa”. Hoy, esta misma filosofía se traslada a la inteligencia artificial, pero con desafíos y alcances aún mayores.
Si bien, en su momento, Linux se convirtió en una herramienta imprescindible para el mundo tecnológico, nunca pudo competir en el ámbito de consumo masivo con los sistemas operativos comerciales. Ahora, con el desarrollo de IA la historia podría repetirse. “Los modelos abiertos tienen ventajas evidentes, pero las grandes corporaciones siguen teniendo el control del mercado”, señala Montes.
Pero para que la IA abierta sea realmente una opción viable, se necesita una inversión sostenida en desarrollo e infraestructura, algo que hoy sigue dependiendo de los grandes jugadores de la industria, concentrados en los gigantes tecnológicos (big tech) de Estados Unidos.
En este contexto, la reciente Cumbre de Acción sobre Inteligencia Artificial en París generó una gran discusión. Convocada a inicios de febrero por Francia e India, y respaldada por la ONU, el evento buscó establecer principios compartidos para el desarrollo de una IA más transparente e inclusiva. Sin embargo, el rechazo de EE.UU. y Reino Unido a firmar la declaración final dejó en evidencia profundas diferencias sobre el futuro de la tecnología. ¿Por qué estos países se niegan a apoyar una IA abierta? ¿Qué implicaciones tiene esto para el desarrollo tecnológico global?
¿Qué es la IA abierta y libre y para qué sirve?
La IA abierta es un concepto que busca democratizar el acceso a esta tecnología, permitiendo que cualquier persona, empresa o institución pueda utilizar, modificar y mejorar los modelos sin restricciones comerciales o de propiedad intelectual.
Según explica Betancur, “cuando se habla de IA abierta, nos referimos a modelos de código abierto, similares al software libre. Esto permite que los modelos sean accesibles, modificables y colaborativos. La comunidad puede mejorarlos, corregir errores y reducir sesgos, haciéndolos más inclusivos y democráticos”. Además, este modelo reduce costos, ya que evita la dependencia de servicios cerrados y comerciales, como los de OpenAI o Anthropic, que imponen tarifas para su uso.
Montes resalta que “desde los años 70 se debate si la tecnología debe ser propiedad de empresas o estar disponible para todos. La IA no es una excepción: su apertura podría impulsar innovaciones inesperadas y evitar que el poder se concentre en unas pocas corporaciones”. Esta también podría descentralizar el acceso a herramientas avanzadas, fomentando el desarrollo independiente y permitiendo que más actores, incluidos gobiernos y comunidades académicas, participen en la evolución de la tecnología.
Esta idea de un acceso más equitativo a la IA fue uno de los ejes centrales de la Cumbre de Acción sobre Inteligencia Artificial, celebrada en París con el respaldo de la ONU. El mes pasado, el secretario general de la ONU, António Guterres, advirtió sobre la creciente brecha entre los países que lideran la carrera tecnológica y aquellos que apenas tienen acceso a estas herramientas: “Mientras que algunas empresas y países avanzan a toda velocidad con inversiones récord, la mayoría de las naciones en desarrollo se encuentran excluidas. Esta creciente concentración de capacidades implica el riesgo de profundizar las divisiones geopolíticas”.
Uno de los compromisos clave de la cumbre fue el reconocimiento de la IA como un recurso estratégico que no debería estar en manos de unos pocos. Más de 60 países firmaron una declaración que promueve una IA abierta, inclusiva y sostenible, enfatizando que su desarrollo debe ser seguro, ético y ecológicamente responsable.
Sin embargo, la negativa de EE.UU. y Reino Unido a firmar este acuerdo demostró que no todos los actores están dispuestos a seguir un mismo marco regulador. Washington y Londres argumentaron que una regulación excesiva podría ralentizar la innovación y restringir la competitividad de sus empresas tecnológicas.
Desde la ONU, se ha promovido el Pacto Digital Mundial, un esfuerzo para garantizar que la IA sirva a toda la humanidad y no solo a los intereses comerciales de unas pocas naciones. Guterres insistió en que la IA debe convertirse en un motor de equidad global y no en una herramienta para aumentar las brechas tecnológicas existentes: “No se trata solo de difundir la tecnología, sino de empoderar a los pueblos y las naciones para que no sean solo usuarios, sino participantes activos en la revolución de la inteligencia artificial”.
En este contexto, la IA abierta podría ser una vía para cerrar esa brecha. Su implementación en sectores como la educación, la salud y la gestión ambiental permitiría a países en desarrollo beneficiarse de los avances sin depender de las grandes corporaciones tecnológicas. Narendra Modi, primer ministro de India y uno de los promotores de la cumbre, reiteró la importancia de modelos abiertos que permitan la transparencia y eliminen los sesgos en el acceso a la información. Esta visión plantea una IA que no solo beneficie a los gigantes tecnológicos, sino que impulse el desarrollo en regiones que, de otro modo, quedarían rezagadas.
La discusión sobre la IA abierta, por lo tanto, no es solo técnica, sino profundamente política. La decisión de EE.UU. y Reino Unido de no respaldar un acuerdo global refleja una estrategia de protección de sus propias industrias tecnológicas, mientras que el resto del mundo busca un modelo más inclusivo. En este panorama, la pregunta sigue abierta: ¿será la IA abierta una oportunidad real para la democratización del conocimiento o quedará limitada a un ideal difícil de materializar sin el respaldo de las principales potencias?
Los riesgos de la IA abierta: desinformación y seguridad
Esa apertura también tiene riesgos. Betancur advierte que la facilidad para modificar modelos podría facilitar la creación de deepfakes y desinformación masiva. “Hoy, con 30 segundos de audio, se puede clonar la voz de alguien y cometer fraudes. No importa si el modelo es cerrado o abierto: el problema es cómo se regula su uso”.
Montes coincide en que los riesgos de seguridad y el uso malintencionado de la IA están en el centro del debate. “EE.UU. justifica su negativa a firmar la declaración global en razones de seguridad nacional. Argumentan que, sin control sobre estos modelos, podrían ser utilizados para ciberataques o manipulación política”.
Otro de los peligros que plantea la IA abierta es la falta de rendición de cuentas. “Cuando un modelo es cerrado, la empresa desarrolladora es responsable de su funcionamiento y de los daños que pueda causar. En cambio, cuando el código es abierto y lo modifica cualquier persona, se vuelve más difícil establecer responsabilidades”, advierte Betancur.
A esto se suma la creciente preocupación por el impacto medioambiental de la IA. “Los sistemas avanzados de inteligencia artificial requieren enormes cantidades de energía para su entrenamiento y funcionamiento. Si bien la IA abierta podría democratizar su acceso, también podría significar un aumento exponencial en su consumo energético sin un plan claro de sostenibilidad”, señala Montes.
En términos sociales, la IA abierta también presenta desafíos en cuanto a la brecha digital. Si bien en teoría todos pueden acceder a estos modelos, en la práctica no todos tienen la capacidad técnica o los recursos para utilizarlos de manera efectiva. Es un problema que se debe abordar si realmente se quiere que la IA abierta sea una alternativa global.
¿Y Latinoamérica? El caso de Colombia
En América Latina, el debate sobre la IA aún está en sus primeras fases. En Colombia, el reciente CONPES sobre IA ha sido criticado por su falta de ambición. “Es un primer paso, pero es tímido. Colombia necesita apuntar a desarrollar tecnología, no solo a consumirla”, opina Montes.
Betancur menciona que “hay iniciativas de pequeños modelos de lenguaje locales, pero falta una política fuerte que impulse el desarrollo de IA propia”. Sin embargo, destaca que hay intentos de consolidar capacidades técnicas nacionales: “El gobierno anterior discutió la posibilidad de desarrollar un Small Language Model propio, como lo han hecho otros países, pero aún no hay claridad sobre su viabilidad”.
Montes añade que, aunque hay siete proyectos de ley en el Congreso, ninguno apunta a fortalecer el sector tecnológico nacional de manera estructural. “Muchos de estos proyectos buscan regular la IA en términos de derechos y privacidad, lo cual es necesario, pero si Colombia no apuesta por la soberanía tecnológica, seguiremos siendo meros consumidores de herramientas extranjeras”, afirma.
Para Betancur, Colombia debería aprender de casos como Irlanda, que usó IA para preservar su lengua y cultura. “No necesitamos competir con Silicon Valley, pero sí encontrar aplicaciones locales que nos beneficien. ¿Por qué no un modelo de IA para mejorar la educación en zonas rurales o para apoyar la biodiversidad colombiana?”.
El debate sobre la IA en América Latina también debe incluir una estrategia de financiamiento. “El desarrollo de inteligencia artificial no solo depende de regulaciones, sino también de inversión. Sin incentivos para la industria nacional, los desarrollos seguirán dependiendo de empresas extranjeras”, advierte Montes.
A medida que más países legislan sobre la IA, Colombia deberá definir si quiere ser solo un consumidor de tecnología o si apuesta por la creación de una industria propia. “El reto no es solo normativo. La gran pregunta es si queremos ser productores de inteligencia artificial o solo consumidores”, concluye Montes.