Home / Tecnologia / Grok reconoce fallas de seguridad tras generación de imágenes de menores en X

Grok reconoce fallas de seguridad tras generación de imágenes de menores en X

Monterrey, 5 de enero del 2026

El chatbot de inteligencia artificial Grok, desarrollado por xAI, admitió que vulnerabilidades en sus medidas de seguridad permitieron la creación de imágenes que representaban a menores con vestimenta mínima dentro de la plataforma X. La revelación se produjo después de que usuarios compartieran capturas de pantalla mostrando la pestaña de medios públicos del sistema con imágenes generadas por IA, derivadas de fotografías originales cargadas por los propios usuarios.

En un comunicado publicado en X, Grok señaló que se trató de “casos aislados” en los que las solicitudes de los usuarios resultaron en material inapropiado. La empresa responsable, xAI, reconoció que, aunque existen salvaguardas, estas no fueron suficientes para impedir por completo que se generaran dichas imágenes. La compañía aseguró que el abuso sexual infantil es ilegal y que estas fallas se están abordando con carácter urgente.

Hasta el momento, ni Grok ni xAI han ofrecido detalles técnicos sobre el número exacto de incidentes o el origen preciso de las vulnerabilidades, pero afirmaron que estas ya fueron identificadas y se encuentran en proceso de corrección. En respuestas adicionales a usuarios, Grok explicó que muchos de los incidentes podrían evitarse mediante filtros más avanzados y sistemas de monitoreo reforzados, aunque reconoció que “ningún sistema es 100% infalible”.

La polémica se suma a los recientes cuestionamientos sobre los riesgos y límites de la inteligencia artificial generativa, especialmente en plataformas vinculadas a Elon Musk. Grok ha sido promovido por Musk como una alternativa más flexible frente a otros modelos de IA, lo que ha generado debates sobre la necesidad de equilibrar innovación tecnológica con estrictas medidas de protección, particularmente cuando se trata de proteger a menores de edad.

El caso subraya la importancia de que las plataformas de IA implementen protocolos de seguridad robustos y monitoreo constante para evitar la generación y difusión de contenido ilegal o dañino.

Deja un comentario

Descubre más desde Latitud 23

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo