Un alto funcionario del Pentágono dijo que la disputa de Anthropic con el gobierno de Estados Unidos por el uso de su tecnología de inteligencia artificial en armas totalmente autónomas surgió después de un debate sobre cómo podría utilizarse la IA en el futuro programa de defensa antimisiles Golden Dome, que pretende colocar armas estadounidenses en el espacio.
El subsecretario de Defensa Emil Michael, director de tecnología del Pentágono, señaló que llegó a considerar las restricciones éticas de la empresa de IA sobre el uso de su chatbot Claude como un obstáculo irracional, en un momento en que las fuerzas armadas de Estados Unidos procuran otorgar mayor autonomía a enjambres de drones armados, vehículos submarinos y otras máquinas para competir con rivales como China, que podría hacer lo mismo.
“Necesito un socio confiable y constante que me dé algo, que trabaje conmigo en lo autónomo, porque algún día será real y estamos empezando a ver versiones tempranas de eso", manifestó Michael en un podcast el viernes. "Necesito a alguien que no sienta desasosiego a mitad del camino”.
Efectuó sus comentarios después de que el Pentágono designara formalmente a Anthropic —ubicada en San Francisco— como un riesgo para la cadena de suministro, prescindiendo de su trabajo de defensa mediante una norma diseñada para impedir que adversarios extranjeros dañen sistemas de seguridad nacional.
Anthropic se comprometió a interponer una demanda por la designación, que afecta sus alianzas comerciales con otros contratistas militares.
El presidente Donald Trump también ordenó a las agencias federales que dejen de usar Claude de inmediato, aunque le dio seis meses al Pentágono para retirar gradualmente un producto que está profundamente integrado en sistemas militares secretos, incluidos los utilizados en la guerra de Irán.
Anthropic indicó que sólo intentó restringir que su tecnología se utilizara para dos usos de alto nivel: la vigilancia masiva de estadounidenses y armas totalmente autónomas.
Michael, exejecutivo de Uber, expuso su versión de meses de conversaciones con el director general de Anthropic, Dario Amodei, en una extensa charla con Jason Calacanis, David Friedberg y Chamath Palihapitiya, capitalistas de riesgo de Silicon Valley y copresentadores del podcast “All-In”.
Un cuarto copresentador, el exejecutivo de PayPal David Sacks, es ahora el zar de IA de Trump y no estuvo presente en el episodio, pero ha criticado abiertamente a Anthropic, incluido por el hecho de que haya contratado a exfuncionarios del gobierno del presidente Joe Biden poco después de que Trump regresara a la Casa Blanca el año pasado.
Cuando las conversaciones se estancaron la semana pasada, Michael arremetió contra Amodei en redes sociales, al afirmar que “tiene un complejo de Dios” y que “no quiere nada más que intentar controlar personalmente” a las fuerzas armadas. Sin embargo, en el podcast enmarcó la disputa como parte de un giro militar más amplio hacia el uso de la IA.
Michael sostuvo que las fuerzas armadas están desarrollando procedimientos para habilitar distintos niveles de autonomía en la guerra, según el riesgo que se plantee.
“Esto es parte del debate que tuve con Anthropic, y es que necesitamos IA para cosas como Golden Dome”, comentó Michael, al compartir un escenario hipotético en el que Estados Unidos tendría sólo 90 segundos para responder a un misil hipersónico chino. Trump ha promovido el desarrollo del Golden Dome.
Un operador humano de defensa antimisiles “quizá no pueda distinguir con sus propios ojos a qué está apuntando”, pero un contraataque autónomo sería de bajo riesgo “porque está en el espacio, y sólo intentas golpear algo que intenta golpearte”.
En otro escenario, afirmó: “¿Quién podría oponerse si tienes una base militar, tienes a un montón de soldados durmiendo, y tienes un láser que puede derribar drones de forma autónoma?”.
En respuesta a los comentarios del podcast, Anthropic remitió a una declaración anterior de Amodei en la que decía: “Anthropic entiende que el Departamento de Guerra, no las empresas privadas, toma las decisiones militares. Nunca hemos planteado objeciones a operaciones militares concretas ni intentado limitar el uso de nuestra tecnología de manera ad hoc”.
Michael, subsecretario de Defensa para investigación e ingeniería, fue juramentado para el cargo en mayo pasado, y dijo que asumió la “cartera de IA” de las fuerzas armadas en agosto. Fue entonces cuando, según explicó, empezó a examinar los contratos de Anthropic, algunos de los cuales se remontaban al gobierno demócrata de Biden. Michael indicó que cuestionó a Anthropic por condiciones de uso que consideró demasiado restrictivas.
“Necesito que las condiciones del servicio sean racionales en relación con nuestro conjunto de misiones”, manifestó. “Así que iniciamos estas negociaciones. Requirió tres meses, y tuve que plantearles escenarios, como este ejemplo del misil hipersónico chino. Ellos dicen: ‘Está bien, te daremos una excepción para eso’. Bueno, ¿y qué hay de este enjambre de drones? ‘Te daremos una excepción para eso’. Y yo pensaba: las excepciones no funcionan. No puedo predecir para los próximos 20 años cuáles son todas las cosas para las que podríamos usar la IA”.
Fue entonces cuando el Pentágono empezó a insistir en que Anthropic y otras empresas de IA permitieran “todo uso lícito” de su tecnología, según Michael.
Anthropic se resistió a ese cambio, alegando que los principales sistemas de IA actuales “simplemente no son lo bastante confiables como para impulsar armas totalmente autónomas”.
Sus competidores —Google, OpenAI y xAI de Elon Musk— aceptaron las condiciones del Pentágono, aunque algunos aún tienen que preparar su infraestructura para trabajo militar secreto, señaló Michael. El otro punto de fricción para Anthropic fue el no permitir ninguna vigilancia masiva de estadounidenses.
“No querían que recopiláramos en bloque información pública sobre personas que usan su sistema de IA”, explicó Michael, y dijo que las negociaciones eran “interminables”.
Anthropic ha rebatido partes de la versión de Michael sobre las conversaciones, y subrayó que las protecciones que buscaba eran limitadas y no se basaban en usos existentes de Claude. Es probable que la siguiente etapa de la disputa se desarrolle en los tribunales.
———
Esta historia fue traducida del inglés por un editor de AP con la ayuda de una herramienta de inteligencia artificial generativa.