Por Jorge Sainz y María Teresa Ballestar: La Inteligencia Artificial en el pensamiento crítico universitario (I)
El auge de los LLM y la inteligencia artificial en la universidad
Los Modelos de Lenguaje de Gran Escala (Large Language Models o LLMs), representan un tipo de inteligencia artificial que ha evolucionado hasta convertirse en una herramienta versátil para una amplia gama de tareas, incluyendo el procesamiento del lenguaje natural, la traducción automática, generación de imágenes y sistemas de respuesta a preguntas.
En la universidad, el 80% de los estudiantes a nivel global utiliza estos modelos en el formato de la Inteligencia Artificial Generativa (IAG) como ayuda a la hora de estudiar (Chegg, 2025), mientras que solo el 61% del profesorado la ha usado en la enseñanza y, de ellos, la mayoría (88%) lo hace mínimamente (Digital Education Council, 2025).
De las redes neuronales a los modelos Transformer
Los LLMs surgen de la evolución de los modelos de lenguaje y de las redes neuronales. A medida que las tecnologías van madurando aparecen modelos cada vez más complejos: los modelos estadísticos de lenguaje, los modelos de aprendizaje automático, los modelos de aprendizaje profundo y, al final, los modelos basados en transformadores. Ese tipo de arquitectura, denominada Transformer desarrollada por Vaswani et al. (2017) en su trabajo seminal Attention is All You Need, sentó las bases para modelos como GPT (Generative Pre-trained Transformer) de OpenAI o BERT (Bidirectional Encoder Representations from Transformers) de Google. Estas tecnologías son las que emplean nuestros estudiantes cada día en clase. Bueno, seamos sinceros, nosotros también.
La paradoja educativa de la IAG
Esta realidad ha desencadenado un intenso debate sobre sus implicaciones. La irrupción de la IAG en el sistema educativo, pero especialmente en la educación superior, presenta una paradoja de difícil solución.
Por un lado, su uso puede fortalecer la competencia más valiosa de la educación universitaria, el pensamiento crítico. Por otro, puede ser su peor enemigo. Más allá de respuestas de carácter simplista y demagógico, lo que existe realmente es una dialéctica todavía en desarrollo sobre el papel que tiene la IAG sobre las habilidades cognitivas y su desarrollo.
El valor económico del pensamiento crítico frente a la Inteligencia Artificial General (AGI)
El intelecto humano y sus habilidades cognitivas, tienen un valor intrínseco ante la llegada de la Inteligencia Artificial General (AGI). No se vuelven necesariamente obsoletas, como plantean las visiones distópicas de los nuevos luditas, sino que sufren un proceso de revaluación basada en su costo computacional equivalente: los salarios y el valor profesional dependen tanto de la «calidad» del trabajo como del arbitraje de costos frente a la máquina (Restrepo, 2025).
Si replicar una habilidad humana (como la empatía profunda o el juicio ético en situaciones ambiguas) requiere una cantidad masiva de energía y procesamiento para evitar alucinaciones, el «precio» de ese humano sigue siendo competitivo.
Por el contrario, las tareas que la IA puede realizar con bajo consumo de recursos verán sus salarios desplomarse hasta igualar los costes de los inputs necesarios para ejecutarlas.
Por ello, el pensamiento crítico universitario deja de ser solo una aspiración pedagógica para convertirse en un activo.
Si la IA realiza la mayor parte de la labor productiva y el humano actúa solo como verificador final, su papel deja de ser esencial para el crecimiento del sistema.
Aquí, la IA podría escalar sin él, y aunque con menor calidad, el humano acabaría compitiendo a la baja contra el costo marginal de inferencia de la IA.
Por el contrario, si el pensamiento crítico se utiliza para tomar decisiones de alto nivel, dirección estratégica y juicios morales donde la IA no puede actuar de manera autónoma sin riesgos catastróficos, el humano se convierte en el factor limitante. Aquí, el sistema no puede avanzar ni escalar sin la intervención de un juicio crítico experto. Esta es la misión estratégica donde la universidad debe posicionarse.
La IA como medio de predicción sin volición
Como señala Kasy (2025), la IA es un «medio de predicción», pero carece de volición intrínseca. Por tanto, el pensamiento crítico se convierte en el cuello de botella definitivo: la capacidad de decidir qué vale la pena predecir y qué hacer con esas predicciones. Enseñar a los estudiantes a ser meros procesadores de información es condenarlos a la irrelevancia económica; formarlos para ejercer el juicio crítico en situaciones de alta incertidumbre es convertirlos en el recurso más costoso y necesario del sistema.
La mente adormecida: riesgos de la sobredependencia en la inteligencia artificial
La principal preocupación que tenemos nosotros como académicos, y que ya se refleja en la literatura que analiza el impacto de la inteligencia artificial, es que la sobredependencia (overreliance) en las nuevas herramientas frene el desarrollo intelectual de los estudiantes y disminuya su pensamiento crítico.
Como en el caso de otras innovaciones, siempre existe el riesgo de que el entusiasmo tecnológico oculte una falta de reflexión sobre la alineación entre los sistemas de IA y los valores humanos (Alikhani y Hassan, 2025). Los modelos actuales se entrenan con datos que reflejan probabilidades estadísticas, no con juicios éticos, morales o contextuales. Una consecuencia inmediata es que puede haber “daños residuales” imprevistos en la toma de decisiones automatizada.
El fenómeno de la desvinculación cognitiva
Como resultado, hemos sido testigos de un fenómeno de desvinculación cognitiva entre nuestros estudiantes.
Los jóvenes delegan en la IA procesos mentales que deberían ejercitar e interiorizar por sí mismos. La consecuencia es que dejan de analizar, cuestionar y resolver problemas de forma autónoma, confiando ciegamente en las respuestas generadas por algoritmos, ajustando su pensamiento a valores y experiencias que pueden ser distintos a los propios e, incluso, exponiéndose al riesgo de alucinaciones.
Esta pérdida de agencia cognitiva se asemeja al riesgo de “alineamiento fino” (thin alignment), en el que los sistemas cumplen superficialmente con los objetivos humanos sin comprender su significado profundo (Alikhani & Hassan, 2025).
Como resultado, podemos encontrar que esta creciente dependencia disminuye las capacidades analíticas, volviendo a los estudiantes consumidores pasivos de información procesada, la cual no siempre es de la máxima calidad. Más allá del pensamiento crítico, esta tendencia amenaza el desarrollo de competencias holísticas como la creatividad, el razonamiento complejo y la capacidad de síntesis.
Fuente : https://www.universidadsi.es/la-inteligencia-artificial-en-el-pensamiento-critico-universitario-i/

Comentarios
Publicar un comentario