Home / Tecnologia / IA genera campañas de propaganda automatizadas difíciles de detectar en línea

IA genera campañas de propaganda automatizadas difíciles de detectar en línea

Monterrey, 13 de marzo del 2026

Un reciente estudio del Instituto de Ciencias de la Información advierte sobre la capacidad de los agentes de inteligencia artificial (IA) para automatizar campañas de influencia en redes sociales, lo que representa un riesgo directo a la integridad de la información. Los investigadores señalan que estas herramientas ya pueden operar de manera autónoma, superando potencialmente la detección humana en plataformas como X (antes Twitter).

El trabajo, titulado Emergent Coordinated Behaviors in Networked LLM Agents, utilizó un modelo generativo multiagente denominado Generative Agent-Based Modeling (GABM). Este sistema permitió crear agentes con identidades políticas, memoria de interacciones previas y políticas de acción, capaces de publicar mensajes, responder contenidos, difundir publicaciones y seguir perfiles de manera coordinada. La simulación incluyó 50 agentes, divididos en actores activos de la campaña y usuarios ordinarios, con distintas afiliaciones ideológicas.

Los resultados mostraron que incluso con coordinación básica, los agentes de IA pueden replicar comportamientos típicos de campañas de manipulación: refuerzo de narrativas compartidas, amplificación estratégica de contenido y difusión acelerada de mensajes. Por ejemplo, la proporción de republicaciones entre los participantes pasó de 0.82 en un escenario básico a 0.96 cuando los agentes conocían a sus aliados, evidenciando un aumento de coordinación y densidad de red.

La dinámica de estos agentes permite crear la apariencia de consenso, manipular tendencias y amplificar contenidos en poco tiempo, aprovechando algoritmos que priorizan interacciones masivas. Según Jinyi Ye, autora principal, incluso agentes relativamente simples pueden coordinarse y difundir narrativas sin intervención humana, lo que abre la puerta a campañas de desinformación completamente automatizadas y más difíciles de detectar.

Aunque el estudio reconoce limitaciones, como el tamaño reducido de la simulación y el uso de un solo modelo de lenguaje, los hallazgos destacan los riesgos significativos para procesos democráticos, crisis de salud pública y debates políticos, donde la manipulación de la percepción colectiva puede aumentar la polarización.

Los autores enfatizan la necesidad de establecer mecanismos de control y supervisión para mitigar la amenaza que representa la automatización de campañas de influencia mediante IA, ya que estas herramientas podrían distorsionar el discurso público y socavar la confianza en la información digital.

Deja un comentario

Descubre más desde Latitud 23

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo