Ciudad de México, 12 de noviembre del 2025
El avance de la inteligencia artificial (IA) plantea retos y oportunidades para las Humanidades y las Ciencias Sociales, pues la capacidad de estas tecnologías para generar textos que imitan el lenguaje humano ha despertado preocupación sobre el papel del pensamiento crítico y humanista en la era digital. Sin embargo, también representan una herramienta poderosa para procesar grandes volúmenes de información, identificar patrones y relaciones entre ideas, y así acelerar procesos de análisis que serían imposibles de realizar manualmente.
El especialista Juan Carlos Baena Silva destaca que la IA puede ayudar a extraer significados y conexiones en conjuntos extensos de textos, pero subraya que la interpretación y el sentido de esos resultados solo pueden provenir de las humanidades, cuyo enfoque analítico permite comprender los contextos y matices detrás de los datos.
No obstante, Baena advierte sobre los límites éticos de estas herramientas. Asegura que es urgente establecer criterios de transparencia y responsabilidad, especialmente ante la opacidad con la que muchas inteligencias artificiales son entrenadas. “No sabemos con qué textos se formaron los modelos ni cómo se obtuvieron esos conocimientos”, señala, recordando casos en que contenidos generados por IA resultaron ser copias o versiones no acreditadas de textos existentes.
Por ello, propone impulsar una ética del entrenamiento de la IA, donde se reconozcan las fuentes, se transparente el proceso de generación de modelos y se haga reproducible la creación de resultados.
Para Baena Silva, el futuro de la IA en las Humanidades dependerá de tres principios esenciales: declarar su uso, transparentar sus métodos y permitir la reproducción de resultados. Solo así —afirma— podrá garantizarse un uso ético y confiable de la inteligencia artificial en beneficio del conocimiento humano.













