Por Jorge Sainz y María Teresa Ballestar : La Inteligencia Artificial en el pensamiento crítico universitario (II)

 


Retos y visiones éticas sobre la inteligencia artificial en la educación

Como hemos señalado en la primera parte de esta publicación, la dialéctica sobre la incorporación de la IA en la educación superior se sitúa entre el entusiasmo y la cautela. Autores como Usher (2025) plantean que el entusiasmo mediático por los LLMs ha hecho que estos hayan sido sobrevalorados. Su contribución real no supone en ningún caso una revolución comparable a la invención de internet o del motor de combustión. Su adopción debe entenderse, más bien, como una fase más en el proceso histórico de adaptación universitaria a la tecnología. El autor advierte que empresas como OpenAI operan en un contexto económico, donde la educación se convierte en un negocio, y defiende que las instituciones deben fomentar la experimentación docente, no imponer el uso de la IA.

Hacia un aprendizaje activo y responsable con IA

Alikhani y Hassan (2025), desde una perspectiva ética, subrayan la necesidad de que la IA esté alineada con los valores humanos, ya que los modelos actuales reproducen sesgos derivados de sus datos de entrenamiento. Para evitar estos errores consecuencia de dichos sesgos, hace falta un enfoque de aprendizaje activo (active learning) que combine innovación técnica y responsabilidad social. Como resultado, se deben desarrollar sistemas “contextualmente sensibles y éticamente robustos”.

Por su parte, Kasy (2025) plantea un enfoque más radical. Advierte que la IA no es neutral: representa un “medio de predicción” controlado por un número reducido de grandes empresas que concentran poder y condicionan la producción de conocimiento. En esta línea, el riesgo no es solo pedagógico, sino estructural: la subordinación de la universidad a lógicas de mercado.

Finalmente, desde una mirada pedagógica más pragmática, OpenAI (2022) sostiene que herramientas como ChatGPT pueden fomentar el pensamiento crítico al exigir que los estudiantes analicen y verifiquen la información generada. De la misma forma que la Wikipedia puede tener sesgos en su elaboración, y por lo tanto debe ser tratada con cierta precaución, los resultados de los prompts marcan la dirección, pero no el resultado final, que dependerá de los propios estudiantes.

La inteligencia artificial como catalizador intelectual

Quedarse solo con una parte de la realidad es falsearla: la misma tecnología que puede adormecer la mente puede también estimularla, si se utiliza con fines pedagógicos bien definidos.

Cuando los estudiantes usan ChatGPT para verificar respuestas o analizar argumentos, activan procesos metacognitivos de evaluación y contraste. Este fenómeno, que podríamos llamar el “efecto evaluador”, convierte a la IA en cómplice del pensamiento crítico: el estudiante aprende no tanto del contenido generado, sino del acto de juzgar su validez.

Nuestra propia experiencia docente nos ha señalado que los modelos de IA pueden afinarse mediante aprendizaje activo (active learning) para reducir sesgos y errores en contextos específicos, desde la seguridad física en entornos domésticos hasta la promoción de una idea en redes sociales (Alikhani & Hassan, 2025). La mejora continua mediante ejemplos reales de fallos o de situaciones inciertas puede aplicarse también al ámbito educativo. Esto permite a los estudiantes aprender a identificar y corregir las limitaciones de la IA, en lugar de aceptar ciegamente sus resultados.

Así, el aprendizaje con IA se convierte en un laboratorio cognitivo que refuerza la curiosidad intelectual, la autonomía y la verificación constante, ayudando a construir el andamiaje del pensamiento crítico.

Entender cómo funciona la inteligencia artificial

Para la mayor parte de los universitarios, tanto estudiantes como académicos, el funcionamiento de la inteligencia artificial es una caja negra. Creemos en la necesidad que tienen todos ellos de comprender el funcionamiento interno de las herramientas que utilizamos.

Aprender con IA no debe implicar dejar de aprender cómo la IA funciona.

Al igual que el uso de una calculadora no exime de saber sumar, restar o multiplicar, comprender los principios detrás de los modelos de lenguaje permite usarlos de forma más crítica y eficaz.

El nuevo rol del estudiante

Este argumento se alinea con la propuesta de Kasy (2025), quien sostiene que el verdadero poder de la IA no reside solo en su capacidad predictiva, sino en quién controla sus “medios de predicción” y con qué fines. Las universidades deben formar a los estudiantes no solo como usuarios de IA, sino también como intérpretes y auditores de sus mecanismos internos. En programación, en análisis de datos o en humanidades digitales, el estudiante necesita comprender primero los fundamentos subyacentes para poder después pedir, evaluar y cuestionar lo que la IA produce.

La alfabetización algorítmica es una competencia central de la educación superior contemporánea: entender el código, los sesgos de los datos y las limitaciones de los modelos constituyen los pilares modernos del pensamiento crítico.

Más allá de la pedagogía: poder, desigualdad y control

Una debilidad transversal en muchos enfoques educativos sobre la IA, incluido este, es que suelen limitarse a sus efectos cognitivos sin examinar las estructuras de poder que determinan su desarrollo y aplicación. Tal como advierte Kasy (2025), los modelos de IA son instrumentos de predicción que pueden estar controlados por instituciones no democráticas, lo que introduce una dimensión política en el debate sobre su uso educativo.

Del mismo modo que en el sistema educativo no deben imponerse principios o valores éticos o ideológicos, el alineamiento de la IA con valores humanos debe ser contextual y deliberativo, no impuesto (Alikhani y Hassan, 2025). La educación universitaria, por tanto, no puede reducir la IA a una cuestión técnica o instrumental: debe enseñar a los estudiantes a preguntarse quién se beneficia de su despliegue, quién asume los riesgos y cómo se distribuye la responsabilidad en caso de error o sesgo.

Escenarios de transición

La formulación de políticas educativas universitarias ante la IA debe gestionar la incertidumbre entre dos escenarios de implantación opuestos. La velocidad a la que el pensamiento crítico humano sea sustituido o complementado dependerá de cuál sea el factor limitante de la tecnología: el hardware o el software.

En un escenario de transición gradual, donde el factor limitante es la capacidad de cómputo (energía, disponibilidad de chips y centros de datos), la integración de la IA será lineal y predecible. Aquí la universidad podría adaptar los currículos de forma paulatina y contar con tiempo suficiente para el reentrenamiento de la fuerza laboral.

Si la transición fuese disruptiva, donde nuevos modelos logren capacidades superiores con una fracción de los recursos actuales, nos enfrentaríamos a una automatización súbita y generalizada. Este escenario conlleva riesgos profundos de desigualdad temporal y pérdidas abruptas de empleo, donde el mercado laboral no tendría tiempo de reacción para reasignar el capital humano desplazado.

Resiliencia adaptativa frente al shock tecnológico

Para la gestión universitaria, esto plantea una paradoja estratégica: ¿cómo diseñamos planes de estudio válidos para ambos futuros?

Preparar a los estudiantes exclusivamente para una integración lenta podría dejarlos vulnerables ante un shock tecnológico; prepararlos solo para el colapso del empleo tradicional podría resultar en una suboptimización de sus capacidades actuales. La respuesta política debe centrarse en la resiliencia adaptativa: formar estudiantes capaces de operar productivamente en el escenario gradual, pero dotados de la flexibilidad cognitiva y el pensamiento crítico de alto nivel necesarios para pivotar rápidamente si se materializa el escenario disruptivo (Restrepo, 2025).

Conclusión: alfabetización crítica para una era de inteligencia artificial

La relación entre la IA y el pensamiento crítico universitario no es binaria sino dialéctica. Estas herramientas representan a la vez una amenaza y una oportunidad, un riesgo y un recurso. Su impacto dependerá menos de la tecnología que de las prácticas educativas y éticas que adoptemos.

En un mundo con IAG desarrollada, la pregunta no es solo qué habilidades enseñar, sino qué trabajo seguirá siendo inherentemente humano.

Como advierte Restrepo (2025), llegará un momento en que ‘we won’t be missed’, nuestras contribuciones laborales ya no serán esenciales para el crecimiento económico. Ante esta perspectiva, el pensamiento crítico debe redefinirse como fundamento de la dignidad humana y la participación democrática en un mundo donde el valor económico se haya desacoplado del trabajo humano.

Los educadores tenemos la responsabilidad de guiar a los estudiantes hacia un uso crítico, reflexivo y éticamente informado de la IA, que combine competencia técnica con conciencia social. Solo así será posible aprovechar el potencial transformador de la inteligencia artificial sin sacrificar las competencias intelectuales que definen la excelencia universitaria. 

Fuente :  https://www.universidadsi.es/la-inteligencia-artificial-en-el-pensamiento-critico-universitario-ii/


Comentarios

Entradas populares