Nuevas narrativas emergentes en Gen AI

Qué se dice, cómo se dice y quién lo dice no son trivlialidades en el debate de la Inteligencia Artificial en educación.

PRAXEOLOGIANARRATIVAS GENAIAGENTES ARTIFICIALES EN EL AULA

Sandro Jiménez

9/3/20256 min read

Nuevas narrativas emergentes en Gen AI en la Educación Superior

Este seguimiento cartografía cinco narrativas emergentes sobre agentes artificiales en la educación superior y las observa a través de tres lentes: posiciones de sujeto (quién habla), estrategias discursivas (cómo lo dice) y propósitos de verdad (para qué se enuncia). Las fuentes consideradas —un debate parlamentario británico, una investigación periodística sobre formación docente financiada por grandes tecnológicas, un boletín de alfabetización en IA y un resumen semanal de desarrollos universitarios— muestran un campo en disputa donde se negocia el estándar de uso responsable, la profesión docente y el horizonte de la alfabetización pública (UK Parliament, 2025; Toppo, 2025; Kennedy, 2025; Buehler, 2025).

Marco de lectura: sujeto, discurso y verdad

En clave arqueológico–genealógica, entendemos por posiciones de sujeto los lugares desde los cuales se habla con autoridad (legisladores, periodistas, curadores académicos, institutos de alfabetización). Las estrategias discursivas refieren a los encuadres, metáforas, métricas y oposiciones con las que se ordena el problema (riesgo/oportunidad, escala, neutralidad, ética aplicada). Los propósitos de verdad son las finalidades que legitiman lo dicho (proteger lo público, acelerar adopción, fijar estándares, democratizar habilidades). Con estas lentes, releemos las nuevas narrativas emergentes.

1) IA como “jurado disidente”

Qué se dice. La primera narrativa reubica a la IA generativa como un provocador epistémico: no para dictar respuestas, sino para abrir deliberaciones, crear fricción productiva y fortalecer el juicio ético de estudiantes y docentes. En educación superior, se traduce en tareas que contrastan hipótesis, ponen a prueba supuestos y piden justificar decisiones frente a salidas automáticas.

Cómo se dice. En las fuentes monitorizadas, esta orientación aparece cuando los actores insisten en evitar soluciones simplistas (p. ej., depender de detectores o de plantillas universales) y desplazan el foco a diseños de evaluación y ética aplicada (UK Parliament, 2025; Buehler, 2025). La retórica privilegia términos como guía, rúbrica, coautoría humano‑máquina y contexto de uso.

Quién lo dice y con qué propósito. Legisladores y autoridades universitarias ocupan aquí la posición de garantes de integridad y criterio, no de adopción acrítica: su propósito de verdad es proteger la calidad epistémica del proceso formativo (UK Parliament, 2025; Buehler, 2025).

2) Crítica a la ‘mid‑tech’

Qué se dice. La segunda narrativa advierte que la IA generativa, en su versión de consumo, funciona como tecnología intermedia: útil para productividad y asistencia, pero limitada para transformar la enseñanza de alta complejidad (p. ej., humanidades, pensamiento crítico profundo).

Cómo se dice. Las fuentes periodísticas y los resúmenes universitarios presentan esta crítica como una cautela pragmática: evitar la sustitución de didácticas ricas por automatismos y exigir evidencia sobre aprendizajes antes de normalizar su uso a gran escala (Toppo, 2025; Buehler, 2025). Se opone así el ‘tutorial de herramienta’ a la ‘pedagogía con propósito’.

Quién lo dice y con qué propósito. Periodistas especializados y curadores académicos se sitúan como contrapeso a los incentivos de mercado: buscan desacelerar la adopción irreflexiva y preservar la agencia docente (Toppo, 2025; Buehler, 2025).

3) Alfabetización y ecologías cognitivas

Qué se dice. La tercera narrativa amplía el foco: la IA generativa se integra en marcos de alfabetización que combinan habilidades técnicas con competencias ejecutivas (planificación, auto‑monitoreo, flexibilidad cognitiva) y con una comprensión de ecologías cognitivas donde lo humano interactúa con sistemas artificiales.

Cómo se dice. El AI Literacy Review ofrece un termómetro global de cursos, guías y programas sectoriales y reporta metas de alcance masivo por parte de actores privados junto con materiales para familias y docentes (Kennedy, 2025). La estrategia discursiva apela a la escala (número de personas a formar) y a la apertura (recursos accesibles), inscribiendo la alfabetización como infraestructura cívica.

Quién lo dice y con qué propósito. Institutos de alfabetización y curadores se posicionan como arquitectos culturales de la transición: su propósito de verdad es democratizar capacidades y reducir asimetrías de uso (Kennedy, 2025; Buehler, 2025).

4) Resurgimiento de la crítica laboral

Qué se dice. La cuarta narrativa recoloca a la universidad en el mercado de trabajo: la IA reorganiza tareas, comprime puestos de entrada y premia competencias complementarias.

Cómo se dice. En los resúmenes universitarios y boletines, la empleabilidad aparece como un imperativo de diseño curricular y como argumento para acelerar la alfabetización institucional (Buehler, 2025; Kennedy, 2025). La retórica usa términos como talento, transición y reconversión, a la vez que subraya la necesidad de trayectorias justas para quienes no controlan la tecnología.

Quién lo dice y con qué propósito. Curadores y observatorios de alfabetización ocupan una posición de alerta estratégica: buscan orientar la oferta formativa para que los egresados puedan crear valor y no solo consumir herramientas (Buehler, 2025; Kennedy, 2025).

5) Desigualdades en la práctica

Qué se dice. La quinta narrativa recoge la brecha entre apariencia y aprendizaje real cuando agentes artificiales producen entregables ‘pulidos’ pero superficiales, y cómo las instituciones responden con ajustes de evaluación (más oralidad, trabajo colaborativo, trazabilidad de procesos).

Cómo se dice. En el debate parlamentario, la integridad académica y la protección de datos escolares se vuelven argumentos para exigir reglas claras de uso y evaluación (UK Parliament, 2025). En el periodismo educativo, las iniciativas de formación masiva son leídas tanto como oportunidad de apoyo a docentes como riesgo de orientación a producto si no se establecen condiciones de agnosticismo tecnológico (Toppo, 2025).

Quién lo dice y con qué propósito. Legisladores y periodistas se colocan como guardianes de estándares públicos: su propósito de verdad es asegurar que la adopción no profundice las desigualdades existentes (UK Parliament, 2025; Toppo, 2025).

Cruce de narrativas: promesas y límites

Personalización, democratización, eficiencia y ética siguen operando como tipos ideales. Las fuentes monitorizadas introducen matices decisivos: la personalización requiere diseños de evaluación y coautoría explícita; la democratización depende de alfabetización a gran escala con recursos abiertos; la eficiencia debe estar condicionada por interoperabilidad y transparencia; y la ética se vuelve operativa en guías de aula y en políticas de uso responsable (UK Parliament, 2025; Kennedy, 2025; Buehler, 2025; Toppo, 2025).

Mapa de actores y condiciones de enunciación

Parlamento/Estado (UK): habla desde la autoridad normativa, con un horizonte de interés público y protección de menores; demanda trazabilidad, privacidad y estándares de evaluación (UK Parliament, 2025).
Sindicatos y big tech (EE. UU.): hablan desde la urgencia de formar a gran escala; su discurso mezcla promesa de acceso con lógicas de mercado; los periodistas problematizan la neutralidad de plataforma y el riesgo de captura (Toppo, 2025).
Universidades/curadores: hablan desde la construcción de gobernanza y práctica; sistematizan guías, casos y políticas que transforman syllabus y evaluaciones (Buehler, 2025).
Institutos de alfabetización: hablan como infraestructura cultural; agregan, traducen y difunden recursos y programas para múltiples públicos (Kennedy, 2025).

Agenda mínima para educación superior

1) Evaluación para el desacuerdo: diseñar tareas que conviertan a la IA en ‘jurado disidente’ (contraste de hipótesis, defensa oral, revisión por pares) con coautoría humano‑máquina declarada (Buehler, 2025).
2) Capacidades sobre herramientas: programas de desarrollo docente centrados en didáctica, ética y evaluación; alianzas con financiadores solo bajo condiciones de agnosticismo tecnológico y materiales abiertos (Toppo, 2025).
3) Alfabetización como política: integrar marcos de alfabetización institucional y recursos abiertos para estudiantes, familias y personal; metas de cobertura realistas y medibles (Kennedy, 2025).
4) Gobernanza con trazabilidad: lineamientos de uso responsable, protección de datos y estándares de interoperabilidad aplicables a plataformas de enseñanza y evaluación (UK Parliament, 2025).

Cierre

Las narrativas emergentes muestran que la discusión madura cuando desplazamos la pregunta de ‘qué puede hacer la herramienta’ a ‘qué tipo de sujetos y verdades instituye en el aula universitaria’. El jurado disidente coloca la fricción cognitiva en el centro; la crítica mid‑tech recuerda que la pedagogía no se terceriza; la alfabetización configura la ecología cultural de largo plazo; la crítica laboral ordena el currículo hacia trayectorias justas; y la desigualdad en práctica obliga a gobernanza y evaluación situadas. Lo que está en juego no es solo la eficiencia, sino la autoridad epistémica de la universidad y su capacidad de producir juicio, ética y ciudadanía en tiempos de algoritmos (UK Parliament, 2025; Toppo, 2025; Kennedy, 2025; Buehler, 2025).

Bibliografía

UK Parliament. (2025, July 8). Generative artificial intelligence: Schools (Hansard). https://hansard.parliament.uk/

Toppo, G. (2025, August 4). Will new AI academy help teachers or just improve tech’s bottom line? The 74. https://www.the74million.org/

Kennedy, K. (2025, August 5). AI Literacy Review – August 5, 2025. AI Literacy Institute. https://www.ailiteracyinstitute.org/

Buehler, M. (2025, August). Generative AI in higher education: Weekly news round‑up. Medium. https://medium.com/