
El ejército de Estados Unidos utilizó activamente el modelo de inteligencia artificial Claude, desarrollado por la empresa Anthropic, durante la operación para secuestrar al presidente venezolano Nicolás Maduro el pasado enero, informaron Axios y The Wall Street Journal. Aunque se desconoce el rol exacto, las señales apuntan a empleo en análisis de inteligencia en tiempo real.
Según Axios y el Wall Street Journal, Claude no solo se empleó en fases preparatorias, sino también durante el operativo internacional, en lo que podría incluir análisis de imágenes satelitales e inteligencia al instante. La empresa con sede en San Francisco tiene políticas que prohíben el uso de su IA para “facilitar violencia, desarrollar armas o realizar vigilancia”, una cláusula que ahora provoca tensiones internas.
Un portavoz de Anthropic dijo a Axios que no puede comentar si Claude u otro modelo se usó en operaciones específicas, clasificadas o no, y recordó que toda utilización debe cumplir sus políticas de uso.
Mientras OpenAI, Google y xAI otorgan al Pentágono acceso a sus modelos con menos salvaguardas, Claude es el único desplegado —mediante Palantir— en plataformas clasificadas para trabajos sensibles de la milicia estadounidense.
La revelación ocurre en un momento complicado para Anthropic, que ha enfatizado su compromiso con la seguridad de la IA. Recientemente su jefe de investigación en salvaguardas renunció con un mensaje sobre un peligro existencial y la empresa invirtió $20 millones en un grupo que promueve regulación estricta de IA.
Actualmente, Anthropic negocia con el Pentágono posibles cambios a restricciones sobre IA en armas autónomas y vigilancia, lo que ha frenado un contrato de hasta $200 millones.




