Home / Tecnologia /  IA, Pentágono y ética: ¿hasta dónde llega la autonomía letal?

 IA, Pentágono y ética: ¿hasta dónde llega la autonomía letal?

Ciudad de México, 9 de marzo del 2026

En los últimos días, el debate sobre la seguridad de la IA ha resurgido tras la polémica entre el Pentágono y la empresa Anthropic. El conflicto surgió por el contrato que limitaba el uso de los modelos Claude de Anthropic para armamento autónomo y vigilancia de ciudadanos estadounidenses. La negativa de la empresa a eliminar estas restricciones derivó en la rescisión del contrato y en que el Secretario de Defensa, Pete Hegseth, calificara a Anthropic como un riesgo para la cadena de suministro.

La disputa evidencia un creciente dilema: la presión por la competencia tecnológica y la adopción militar de la IA amenaza la ética y la seguridad global. Mientras Anthropic buscaba implementar su Política de Escalado Responsable, destinada a mitigar riesgos catastróficos, la carrera por desarrollar IA avanzada ha privilegiado la rapidez y la rentabilidad sobre la supervisión y los límites de seguridad.

El contrato cancelado abrió la puerta a OpenAI, cuyo CEO Sam Altman firmó un acuerdo con el Pentágono para desplegar modelos de IA en redes clasificadas, asegurando que se aplicarían salvaguardas para impedir usos nefastos y armamento autónomo. Sin embargo, esta decisión generó críticas internas: Caitlin Kalinowski, líder de hardware y robótica en OpenAI, renunció argumentando que el acuerdo carecía de protecciones éticas adecuadas.

A pesar de la presión militar y de la competencia entre laboratorios, las empresas aseguran que la seguridad sigue siendo prioritaria. Jared Kaplan, director científico de Anthropic, enfatiza que muchos investigadores buscan que la IA mejore la humanidad y que la seguridad no se vea comprometida por la competencia. OpenAI, por su parte, implementó medidas técnicas como el cifrado de disco completo en servidores de IA para proteger datos y limitar accesos no autorizados.

No obstante, el panorama es preocupante: la falta de regulación internacional y la creciente militarización de la IA podrían acelerar la carrera armamentista y aumentar los riesgos de aplicaciones fuera de control. La renuncia de Kalinowski y las tensiones entre empresas y el Pentágono muestran que las decisiones sobre tecnologías críticas tienen consecuencias éticas, legales y sociales significativas.

El desafío principal sigue siendo equilibrar innovación, competitividad y responsabilidad. Mientras algunos laboratorios defienden que la seguridad no se ha dejado de lado, la presión por contratos militares y el uso potencial de drones autónomos pone en evidencia que la preocupación pública y regulatoria por la IA ética y segura aún enfrenta enormes obstáculos.

Deja un comentario

Descubre más desde Latitud 23

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo