x

Pico y Placa Medellín

viernes

2 y 8 

2 y 8

Pico y Placa Medellín

jueves

5 y 9 

5 y 9

Pico y Placa Medellín

miercoles

4 y 6 

4 y 6

Pico y Placa Medellín

martes

0 y 3  

0 y 3

Pico y Placa Medellín

domingo

no

no

Pico y Placa Medellín

sabado

no

no

Pico y Placa Medellín

lunes

1 y 7  

1 y 7

Una guerra de otro mundo

Cuando Anthropic firmó un contrato de US$200 millones con el Departamento de Defensa, trazó dos líneas rojas: Claude no podría usarse para vigilancia masiva doméstica ni para armas completamente autónomas.

hace 2 horas
bookmark
  • Una guerra de otro mundo

El enfrentamiento entre Anthropic –una empresa de Inteligencia Artificial– y el aparato militar de Estados Unidos confirma que el planeta está transitando por un nuevo tipo de guerras y sobre todo, como en este caso, que hay batallas que vale la pena dar.

La buena noticia es que por primera vez una compañía de IA se niega a sobrepasar los límites éticos de su tecnología, desata la furia del Pentágono y consigue a la vez el apoyo solidario de ingenieros, usuarios y hasta generales retirados. Pero la no tan buena es que persiste un problema de fondo es que existe un vacío en la forma como se maneja este nuevo poder.

Anthropic es la creadora de una herramienta de IA llamada Claude, fuerte competidora de ChatGPT y de Gemini. Su papel fue fundamental para procesar datos y ayudar a tomar decisiones durante la captura de Nicolás Maduro en Venezuela. Pero luego de la exitosa operación, el Pentágono exigió que Anthropic entregara acceso irrestricto a su tecnología para “todos los usos legales”, y la empresa se negó. Entonces Pete Hegseth, secretario de Defensa de Trump, decidió que Anthropic es un “riesgo en la cadena de suministro”, una descripción que históricamente solo se ha usado con empresas extranjeras que se consideren adversarias (caso Huawei o Kaspersky), pero nunca para compañías estadounidenses que simplemente tienen diferencias con el gobierno.

Anthropic reaccionó demandando al Pentágono por exceder su autoridad y sus salvaguardas éticas, violando derechos básicos. Tras lo que el presidente Trump, como es su costumbre, intervino por cuenta propia, ordenó a todas las agencias federales que dejaran de usar la tecnología de Anthropic y la acusó de ser una empresa de izquierda radical y woke.

La reticencia del Departamento de Defensa a que una empresa privada le imponga límites es, para muchos, justificada. Lo que pasa es que el uso de la IA es tan crítico que debería estar regulado por leyes aprobadas por representantes elegidos democráticamente, y desafortunadamente, el poder legislativo no se ha ocupado. No existe todavía una definición consensuada en el derecho internacional sobre qué constituye un arma letal autónoma.

Todas las reglas de los conflictos armados desde la Convención de Ginebra se construyeron en torno a decisiones humanas: alguien da una orden y otro aprieta el gatillo. Ninguna contempla sistemas que detectan, seleccionan y eliminan objetivos con mínima intervención humana directa o sin ella. Así se produce lo que los expertos denominan “vacío de responsabilidad”, es decir, que los marcos legales existentes no saben determinar quién responde cuando un sistema autónomo comete una infracción. Por ejemplo, si un dron con IA mata civiles, quién debe responder: ¿el programador, el comandante o la empresa que produjo el sistema? Como no hay respuesta, cada Estado decide qué significa “uso legal”, y a partir de ahí, puede pasar cualquier cosa.

Lo que ha defendido Anthropic desde su fundación en 2021 es que hay que “evitar catástrofes a gran escala”, incluyendo la posibilidad de que la IA sea usada por un grupo humano para tomar el poder de manera ilegítima y no colaborativa. La experiencia de sus fundadores, todos ellos exinvestigadores de OpenAI, es que los sistemas de IA de vanguardia no son lo suficientemente confiables como para impulsar armas totalmente autónomas.

Así que en julio de 2025, cuando Anthropic firmó un contrato de US$200 millones con el Departamento de Defensa, trazó dos líneas rojas: Claude no podría usarse para vigilancia masiva doméstica ni para armas completamente autónomas. Su CEO, Dario Amodei, dijo que la IA debía estar al servicio de la defensa nacional en todas las formas, excepto en aquellas que nos pudieran hacer más parecidos a nuestros adversarios autocráticos. Y eso enfureció al gobierno Trump.

El asunto es que a falta de leyes, las líneas rojas de Anthropic son por ahora uno de los pocos frenos concretos que existen. Aunque el debate formal sobre las armas autónomas comenzó en 2013, hoy lo único que se ha obtenido son guías voluntarias. Tanto los sistemas automatizados que ayudan a tomar decisiones sobre ataques como los sistemas de reconocimiento facial están en uso. Pero como las reglas son vagas, los humanos, por algo que se conoce como “sesgo de automatización”, tienden a confiar en las máquinas más de lo que deberían y aceptan lo que la IA está sugiriendo porque confían en la inmensa cantidad de información que esta analiza. Poco a poco, la capacidad humana de dudar va desapareciendo.

El asunto es que cuando Amodei le dijo al Pentágono que no podían aceptar su solicitud, Anthropic perdió el contrato. Horas después otra empresa con menos conciencia, OpenAI, llegó a un acuerdo con el Departamento de Defensa. Y lo que vino después fue una muestra de apoyo ciudadano. Cada día de la semana pasada, más de un millón de personas se registraron en Claude, llevándola al primer puesto en más de 20 países. Las ventas de la empresa se dispararon entre el público en general. Sus propios ingenieros cerraron filas en torno a esta decisión. Dos coaliciones de trabajadores de Amazon, Google, Microsoft y OpenAI les pidieron públicamente a sus empresas que siguieran el ejemplo de Anthropic. Decenas de científicos e investigadores de compañías rivales firmaron un documento de apoyo a Anthropic. Y hasta un general retirado que estuvo al frente de un polémico proyecto para drones dijo que simpatizaba con la postura de esa compañía.

El esfuerzo de Anthropic por ponerle límites a una tecnología que ya se nos está yendo de las manos puede parecer iluso, pero aún estamos a tiempo de crear controles sobre su uso. De lo contrario, ese futuro sobre el cual se han escrito miles de páginas y se han hecho tantas películas distópicas se volverá presente.

Sigue leyendo

Regístrate al newsletter

PROCESANDO TU SOLICITUD