Ciudad de México, 9 de marzo del 2026
En los últimos días, el debate sobre la seguridad de la IA ha resurgido tras la polémica entre el Pentágono y la empresa Anthropic. El conflicto surgió por el contrato que limitaba el uso de los modelos Claude de Anthropic para armamento autónomo y vigilancia de ciudadanos estadounidenses. La negativa de la empresa a eliminar estas restricciones derivó en la rescisión del contrato y en que el Secretario de Defensa, Pete Hegseth, calificara a Anthropic como un riesgo para la cadena de suministro.
La disputa evidencia un creciente dilema: la presión por la competencia tecnológica y la adopción militar de la IA amenaza la ética y la seguridad global. Mientras Anthropic buscaba implementar su Política de Escalado Responsable, destinada a mitigar riesgos catastróficos, la carrera por desarrollar IA avanzada ha privilegiado la rapidez y la rentabilidad sobre la supervisión y los límites de seguridad.
El contrato cancelado abrió la puerta a OpenAI, cuyo CEO Sam Altman firmó un acuerdo con el Pentágono para desplegar modelos de IA en redes clasificadas, asegurando que se aplicarían salvaguardas para impedir usos nefastos y armamento autónomo. Sin embargo, esta decisión generó críticas internas: Caitlin Kalinowski, líder de hardware y robótica en OpenAI, renunció argumentando que el acuerdo carecía de protecciones éticas adecuadas.
A pesar de la presión militar y de la competencia entre laboratorios, las empresas aseguran que la seguridad sigue siendo prioritaria. Jared Kaplan, director científico de Anthropic, enfatiza que muchos investigadores buscan que la IA mejore la humanidad y que la seguridad no se vea comprometida por la competencia. OpenAI, por su parte, implementó medidas técnicas como el cifrado de disco completo en servidores de IA para proteger datos y limitar accesos no autorizados.
No obstante, el panorama es preocupante: la falta de regulación internacional y la creciente militarización de la IA podrían acelerar la carrera armamentista y aumentar los riesgos de aplicaciones fuera de control. La renuncia de Kalinowski y las tensiones entre empresas y el Pentágono muestran que las decisiones sobre tecnologías críticas tienen consecuencias éticas, legales y sociales significativas.
El desafío principal sigue siendo equilibrar innovación, competitividad y responsabilidad. Mientras algunos laboratorios defienden que la seguridad no se ha dejado de lado, la presión por contratos militares y el uso potencial de drones autónomos pone en evidencia que la preocupación pública y regulatoria por la IA ética y segura aún enfrenta enormes obstáculos.













