Ciudad de México, 17 de marzo del 2026
Una disputa entre el Pentágono y la startup de IA Anthropic ha generado dudas sobre el uso militar de sus modelos Claude. A finales de febrero, Anthropic se negó a otorgar acceso ilimitado a sus sistemas, argumentando que no debían emplearse para la vigilancia masiva ni en armas autónomas, lo que llevó al Pentágono a catalogar sus productos como un “riesgo para la cadena de suministro”. En respuesta, Anthropic presentó dos demandas alegando represalias ilegales contra la administración de Donald Trump.
La controversia se intensifica por la asociación de Anthropic con el contratista militar Palantir, que integra Claude en su software para agencias de inteligencia y defensa. Según la compañía, Claude puede ayudar a analistas militares a identificar patrones, generar recomendaciones y procesar grandes volúmenes de información en operaciones sensibles, como la guerra en Irán y la captura del presidente venezolano Nicolás Maduro. Sin embargo, los detalles sobre qué sistemas del Pentágono utilizan Claude permanecen escasos.
Palantir implementa Claude a través de varias plataformas: el Maven Smart System, parte del Proyecto Maven, gestiona datos de satélites para detectar posibles objetivos enemigos y sugiere acciones de combate; y la Army Intelligence Data Platform (AIDP) prepara inteligencia previa a operaciones y coordina posiciones de tropas y armas. Además, el Agente AIP, integrado en las herramientas comerciales de Palantir, permite a los operadores interactuar con modelos de lenguaje como Claude, ChatGPT o Llama para interpretar imágenes, generar evaluaciones de inteligencia y proponer cursos de acción tácticos.
Demostraciones muestran que Claude puede crear análisis avanzados sobre operaciones militares, traducir información de inteligencia en datos procesables y producir sinopsis de eventos con implicaciones políticas y estratégicas. Aunque el chatbot no toma decisiones directas sobre objetivos, su capacidad de asistir al analista militar convierte la información en acciones potencialmente decisivas en combate.
Este conflicto revela cómo la IA de Anthropic se inserta en sistemas críticos de defensa estadounidense, planteando preguntas sobre ética, autonomía de los sistemas y el papel de la tecnología privada en operaciones militares sensibles.








