Ciudad de México, 27 de febrero del 2026
La compañía de inteligencia artificial Anthropic anunció que no permitirá al Departamento de Guerra de Estados Unidos el uso militar sin restricciones de su IA Claude, pese a las presiones del Pentágono. En un comunicado, Dario Amodei, director ejecutivo, afirmó: “No podemos, en conciencia, acceder a su solicitud”. Aunque la empresa mantiene negociaciones abiertas, consideró que la nueva propuesta contractual del gobierno “no previene eficazmente” la vigilancia masiva de ciudadanos estadounidenses ni el desarrollo de armas totalmente autónomas.
El gobierno del presidente Donald Trump dio a Anthropic un plazo límite hasta el viernes para aceptar el uso militar incondicional, advirtiendo que la empresa podría enfrentarse a una orden de cumplimiento forzoso bajo la Ley de Producción de Defensa, normativa de la era de la Guerra Fría que permite al Estado exigir a la industria privada que priorice necesidades de seguridad nacional. El Pentágono también amenazó con designar a Anthropic como un riesgo para la cadena de suministro, una calificación que puede afectar gravemente su reputación internacional.
Amodei recalcó que, aunque sus modelos de IA han sido utilizados por el Pentágono y agencias de inteligencia para proteger al país, la empresa establece límites éticos claros. Según el ejecutivo, el uso de IA para vigilancia doméstica masiva es incompatible con los valores democráticos, y los sistemas actuales no son lo suficientemente confiables para operar armas letales sin supervisión humana.
Durante una reunión reciente entre el secretario de Defensa, Pete Hegseth, y Amodei, funcionarios militares advirtieron que podrían invocar la Ley de Producción para la Defensa para obligar el uso de Claude, cancelar contratos o catalogar a Anthropic como un riesgo estratégico si la empresa se negaba. Aun así, la compañía mantiene firme su posición de proteger la ética y seguridad en el uso de su tecnología.













