Promesas convertidas en tipos ideales de la GenAI en Educación Superior
En el debate contemporáneo sobre los agentes artificiales en la educación, asistimos a la instalación de un régimen de promesas que se presentan como verdades compartidas. Personalización del aprendizaje, democratización del acceso, eficiencia administrativa y ética de la innovación aparecen en el discurso público como acuerdos tácitos, casi como tipos ideales que poco debate profundo se les plantea.
PRAXEOLOGIAPERSONALIZACIÓN EN EDUCACIÓNDEMOCRATIZACIÓN GENAISOBERNÍA DIGITAL
Sandro Jiménez
9/7/20255 min read


Promesas convertidas en tipos ideales: una mirada crítica a los agentes artificiales en la educación superior
En el debate contemporáneo sobre los agentes artificiales en la educación, asistimos a la instalación de un régimen de promesas que se presentan como verdades compartidas. Personalización del aprendizaje, democratización del acceso, eficiencia administrativa y ética de la innovación aparecen en el discurso público como acuerdos tácitos, casi como tipos ideales que poco debate profundo se les plantea. La cuestión que aquí propongo es sencilla pero urgente: ¿qué entendemos realmente cuando repetimos estas fórmulas y qué silencios epistemológicos esconden?
El primer ejemplo, y quizás el más repetido, es la promesa de la personalización. En informes, artículos académicos y documentos de política educativa, se afirma que la inteligencia artificial generativa permitirá adaptar contenidos a las necesidades individuales de cada estudiante. Sin embargo, lo que se ofrece bajo esa etiqueta suele reducirse a contenido diferenciado para consumo individual. Los datos empíricos de un estudio reciente en China, por ejemplo, indican que más del 88 % de los estudiantes de ingeniería reportaron mejoras en la eficiencia de su aprendizaje gracias a la retroalimentación instantánea y la generación de textos o ideas (Educational impacts of generative artificial intelligence on learning and performance of engineering, 2025). Pero esta constatación empírica no responde a la pregunta de fondo: acceder a contenidos diferenciados no equivale a una experiencia de aprendizaje personalizada. El aprendizaje no ocurre en soledad, sino en relación con otros, en interacción con un contexto y con un marco pedagógico. Consumir individualmente no asegura aprendizaje en el sentido profundo de transformación subjetiva.
El reduccionismo de la personalización como simple adaptación técnica borra la dimensión dialógica del proceso educativo. No es casual que en la revisión sistemática de la educación superior latinoamericana solo un 6,2 % de los estudios analizados abordara la motivación del profesorado o los aspectos relacionales del aula (González Torres et al., 2025). Se privilegia al estudiante como usuario de herramientas, pero se invisibiliza al docente como mediador crítico. De esta manera, la promesa de la personalización opera como dispositivo de dominación que naturaliza el aprendizaje como consumo individual, despolitizando la complejidad de la experiencia educativa.
Algo similar ocurre con la democratización. En el discurso dominante, los agentes artificiales son presentados como herramientas inclusivas, capaces de cerrar brechas educativas y ampliar el acceso al conocimiento. Sin embargo, los estudios en América Latina muestran la paradoja de la equidad tecnológica: mientras se promete inclusión, la implementación práctica suele favorecer a instituciones con mayores recursos y conectividad, ampliando desigualdades preexistentes (LatIA, 2025). En lugar de democratizar, la IA puede reforzar la colonialidad digital al reproducir la dependencia de plataformas de un número reducido de gigantes tecnológicos y la exclusión de comunidades con baja infraestructura. El acceso formal a una herramienta no garantiza condiciones materiales de uso, y mucho menos procesos de apropiación crítica. Presentar la democratización como un tipo ideal consensuado silencia estos límites y clausura el debate sobre la soberanía digital y educativa que debería ocupar el centro.
La tercera promesa es la de la eficiencia. Se dice que los agentes artificiales liberarán tiempo docente al automatizar tareas repetitivas y administrativas. En principio, esta es una aspiración legítima. Pero los datos empíricos sugieren otra complejidad. Casi la mitad de los estudiantes de ingeniería encuestados en China reconocieron que, a pesar de sentir mayor eficiencia en la realización de tareas, no percibieron mejoras reales en su rendimiento académico (Educational impacts of generative artificial intelligence on learning and performance of engineering, 2025). Lo que aparece es una ilusión de aprendizaje: terminar más rápido no significa aprender mejor. Además, desde el Sur Global, la promesa de eficiencia se traduce en presiones por adoptar sistemas en contextos donde la infraestructura y la formación docente son insuficientes, lo que deriva en cargas adicionales en lugar de alivios (González Torres et al., 2025). La eficiencia, convertida en tipo ideal, opera como justificación tecnocrática que desplaza las discusiones sobre calidad pedagógica hacia métricas de velocidad y productividad.
Finalmente, la promesa de la ética aparece como un lugar común en la literatura. Todos coinciden en que la IA debe ser ética, transparente y justa. Sin embargo, esa consigna suele quedarse en la superficie. Se mencionan sesgos algorítmicos, riesgos de plagio y problemas de privacidad, pero rara vez se traducen en marcos efectivos de gobernanza. La opacidad de los algoritmos dificulta la rendición de cuentas y en muchos casos no existen protocolos claros de auditoría. La ética se vuelve así un significante vacío: sobre todo porque se le atribuye al algoritmo y no a sus fabricantes la responsabilidad con el potencial de daño y generación de sufrimiento (con los casos de suicidio ya documentados), como si el algoritmo fuera una ontología. Lo ético es un asunto político y entre actores sociales y económicos, no una funcionalidad de un agente artificial.
Lo que une a estas promesas no es su capacidad de transformar la educación, sino su condición de tipos ideales que funcionan como acuerdos incuestionados. Actúan como régimen de verdad que orienta la discusión hacia el entusiasmo y la adopción acrítica, en lugar de abrir debates sobre lo que significan en términos pedagógicos, culturales y políticos. La reiteración de estos ideales crea un consenso ficticio: ¿quién podría estar en contra de la personalización, la democratización, la eficiencia o la ética? Pero es precisamente ese consenso el que clausura la posibilidad de pensar otras formas de soberanía educativa.
Si algo nos muestran las experiencias recogidas en China y América Latina es que la implementación de agentes artificiales no es un proceso técnico neutro, sino un campo de poder donde se juegan disputas por recursos, autonomía y sentidos pedagógicos. Los tipos ideales no describen realidades, las modelan. Y al hacerlo, invisibilizan tanto los puntos ciegos epistemológicos como las resistencias locales que buscan alternativas.
De allí que la tarea crítica sea abrir el debate más allá del entusiasmo. No basta con repetir que la personalización es buena, que la democratización es deseable, que la eficiencia es útil o que la ética es necesaria. Hace falta preguntar: ¿qué entendemos por cada una de estas categorías?, ¿qué experiencias de aprendizaje reconocen o borran?, ¿qué relaciones de poder habilitan o consolidan? Solo desde esa interrogación podremos pasar de promesas a discusiones situadas y, con ello, construir una agenda de soberanía digital y educativa que responda a las condiciones materiales y culturales de nuestros contextos.
La agenda mínima que se abre tiene tres ejes claros. Primero, disputar el sentido de la personalización, reconociendo que el aprendizaje no es mera adaptación de contenidos sino experiencia relacional y situada. Segundo, repensar la democratización más allá del acceso formal, enfocándose en las condiciones materiales y en la justicia educativa. Y tercero, someter la promesa de eficiencia a la pregunta por la calidad pedagógica, evitando que la velocidad desplace la reflexión crítica. Todo ello requiere una ética encarnada en marcos de gobernanza efectivos, no en declaraciones retóricas. Solo entonces podremos resignificar las promesas de los agentes artificiales y transformarlas en instrumentos de emancipación en lugar de dispositivos de dominación.
Referencias
Educational impacts of generative artificial intelligence on learning and performance of engineering students. (2025). ResearchGate. https://www.researchgate.net/publication/394888929
González Torres, V. H., Lucero Baldevenites, E. V., Ruiz Esparza, M. de J. A., Bracho-Fuenmayor, P. L., & Caballero de Lamarque, C. P. (2025). Artificial intelligence in Latin American higher education: implementations, ethical challenges, and pedagogical effectiveness. LatIA, 3, 304. https://doi.org/10.62486/latia2025304
Promesas Vs Realidades GenAI Edu. (2025). Documento interno de análisis crítico.