Home / Tecnologia / Startups de defensa adaptan inteligencia artificial para ataques letales con drones 

Startups de defensa adaptan inteligencia artificial para ataques letales con drones 

Ciudad de México, 23 de febrero del 2026

Scout AI, una startup de defensa con sede en California, está desarrollando agentes de inteligencia artificial capaces de controlar drones y vehículos terrestres para ejecutar misiones de ataque en el mundo físico. A diferencia de otras empresas de Silicon Valley, que aplican la IA a tareas como responder correos o automatizar compras, Scout AI busca que sus agentes busquen y destruyan objetivos utilizando explosivos.

En una demostración reciente, los agentes de Scout AI guiaron un vehículo todoterreno autoconducido y un par de drones letales para localizar un camión escondido y destruirlo. El sistema, denominado Fury Orchestrator, interpreta órdenes iniciales de alta complejidad mediante un modelo de IA grande, que coordina modelos más pequeños responsables de controlar los vehículos y drones en tiempo real. Esta estructura jerárquica permite que la IA replanifique sobre la marcha basándose en la información visual y la intención del comandante.

Scout AI forma parte de la tendencia de startups de defensa que buscan aplicar la IA de nueva generación en operaciones militares, un interés que también motiva la regulación de chips avanzados para evitar que caigan en manos extranjeras. Expertos como Michael Horowitz, de la Universidad de Pensilvania, advierten sobre la dificultad de garantizar la ciberseguridad y la robustez de sistemas autónomos, ya que incluso tareas relativamente simples pueden comportarse de manera impredecible.

El CEO Colby Adcock afirma que los sistemas cumplen las normas del ejército estadounidense y convenios internacionales como la Convención de Ginebra, y la empresa ya mantiene varios contratos con el Departamento de Defensa (DOD). Sin embargo, críticos y especialistas en ética advierten que la autonomía de la IA letal introduce riesgos importantes, especialmente si los agentes deben decidir quién es combatiente.

La verdadera prueba para Scout AI será demostrar que sus agentes pueden funcionar de manera fiable y segura en operaciones reales, no solo en demostraciones controladas, y equilibrar la autonomía con la supervisión humana para minimizar consecuencias imprevistas y garantizar la seguridad ética en combate.

Deja un comentario

Descubre más desde Latitud 23

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo