Francisco Jesús Ocazionez-Cardozo MD, MSc in Health Data Analytics and Machine Learning data scientist y analista en investigación epidemiologica en HealthLumen (Londres, Reino Unido).La inteligencia artificial en salud: ¿Potenciadora o supresora del pensamiento crítico?

 

Autor:

Francisco Jesús Ocazionez-Cardozo MD, MSc in Health Data Analytics and Machine Learning — data scientist y analista en investigación epidemiologica en HealthLumen (Londres, Reino Unido).
Presidente de la Liga Santandereana de Trauma, miembro fundador del Grupo de Investigación en Exposoma y miembro de AIpocrates

Resumen:

La inteligencia artificial (IA) se ha convertido en una herramienta esencial en el ámbito de la salud, capaz de optimizar diagnósticos, agilizar procesos y mejorar la gestión hospitalaria. Sin embargo, su uso indiscriminado plantea un dilema: ¿podría debilitar el pensamiento crítico de los profesionales? Este artículo examina cómo la dependencia excesiva de la IA puede reducir la autonomía cognitiva y erosionar habilidades clínicas esenciales, a partir de estudios recientes en educación médica, neurociencia y práctica hospitalaria. A la vez, propone estrategias para integrar la IA de forma responsable—como copiloto del juicio clínico— y reflexiona sobre los desafíos y oportunidades particulares de América Latina para aprovechar su potencial sin renunciar a la autonomía y la ética profesional.

Tiempo estimado de lectura: 10 min


La inteligencia artificial (IA) se ha convertido en una herramienta cada vez más presente en nuestra vida diaria, capaz de agilizar tareas, procesar enormes cantidades de datos y ofrecer nuevas perspectivas rápidamente. En el ámbito de la salud, sus promesas van desde diagnosticar enfermedades con precisión hasta optimizar procesos hospitalarios.

Sin embargo, junto con estos beneficios surge una preocupación creciente: ¿está el uso de la IA debilitando el pensamiento crítico de profesionales y estudiantes de la salud? Diversos expertos advierten que una dependencia excesiva de la IA —al utilizarla como sustituto en lugar de apoyo— puede generar una peligrosa pérdida de autonomía cognitiva y debilitar habilidades esenciales para la práctica clínica (1,2).

En este texto, exploraremos cómo la IA ha impactado el pensamiento crítico en salud, ilustrando sus ventajas y los riesgos de dejar que la tecnología piense por nosotros, desde una perspectiva global hasta los matices propios de América Latina.

IA en la salud: un poderoso aliado tecnológico

La adopción de IA en el sector salud ha crecido rápidamente en años recientes. Hospitales, clínicas e investigadores de todo el mundo están incorporando algoritmos de machine learning y modelos de lenguaje en múltiples tareas cotidianas. De hecho, 63 % de las organizaciones de atención médica y ciencias de la vida ya utilizan IA en casos de uso reales, según un informe de NVIDIA (3).

Figura 1: Modelo Ideal de IA en Salud. Tomado de Bangolle et al. (4)

Las razones de este entusiasmo son claras: la IA puede encargarse de labores repetitivas o complejas con mayor rapidez, permitiendo que los profesionales se enfoquen en aspectos más humanos de la atención. Por ejemplo, existen asistentes digitales que transcriben automáticamente notas médicas (ambient scribes) y sistemas integrados al expediente clínico electrónico que redactan informes, realizan órdenes médicas e incluso responden correos de interoperabilidad. Estas aplicaciones ahorran tiempo y reducen la carga administrativa, mejorando la eficiencia operativa sin sacrificar la calidad (46).

Áreas clave donde la IA aporta en salud:

  • Prevención: identifica patrones de riesgo y anticipa brotes de enfermedades.
  • Diagnóstico: mejora la precisión y velocidad del diagnóstico mediante análisis avanzado de imágenes médicas. 
  • Gestión y logística: optimiza la administración de recursos y distribución de medicamentos y vacunas.
En América Latina, donde persisten brechas en acceso y calidad, la IA representa una oportunidad de saltar etapas y fortalecer los sistemas de salud (4).

No obstante, a medida que delegamos más funciones a las máquinas, surge una pregunta inevitable: ¿podría este “aliado” volverse un obstáculo para el juicio clínico y la autonomía profesional?

De la eficiencia a la dependencia: riesgos para el pensamiento crítico

Numerosos especialistas advierten que si la inteligencia artificial se utiliza sin la debida moderación y supervisión humana, podría instalarse una peligrosa dependencia cognitiva. En otras palabras, los usuarios corren el riesgo de aceptar las soluciones generadas por algoritmos sin someterlas a juicio crítico, lo que puede debilitar gradualmente su capacidad analítica y de resolución de problemas

(2). Esta complacencia cognitiva surge porque la rapidez y aparente precisión con que la IA ofrece respuestas tiende a desincentivar el esfuerzo mental propio: al percibir que un modelo genera resulta+ dos complejos en segundos, muchos profesionales y estudiantes reducen sus oportunidades de razonar de manera independiente y de cuestionar los hallazgos, desarrollando una destreza superficial en el uso de herramientas tecnológicas pero una menor profundidad en sus competencias analíticas (2).

Diversos estudios han documentado este fenómeno de descarga cognitiva. Una investigación del MIT (7) encontró que jóvenes adultos que utilizaban ChatGPT para redactar ensayos mostraban menor actividad cerebral y un desempeño más pobre en pruebas de comprensión, en comparación con quienes completaban la tarea sin asistencia o mediante búsquedas tradicionales. Este tipo de dependencia cognitiva puede trasladarse al ámbito clínico: un profesional que delega su razonamiento en sistemas automatizados corre el riesgo de atrofiar progresivamente su capacidad diagnóstica y su juicio médico. Este problema ya no es solo hipotético. Un estudio en The Lancet Gastroenterology & Hepatology (8) mostró que endoscopistas en Polonia redujeron significativamente su capacidad de detección de pólipos tras acostumbrarse a herramientas de asistencia por IA. Cuando volvieron a trabajar sin apoyo tecnológico, su tasa de identificación cayó de 28,4 % a 22,4 %, evidenciando que la confianza excesiva en el sistema había deteriorado su agudeza clínica y su atención visual.

A este riesgo se suma el fenómeno de la retroalimentación negativa, en el que los algoritmos entrenados con decisiones humanas previas comienzan a replicar y amplificar los mismos errores. Si los médicos no cuestionan ni validan críticamente las recomendaciones de la IA, el sistema puede perpetuar sesgos y alejar gradualmente la práctica clínica de las mejores evidencias disponibles. Una encuesta global de Wolters Kluwer (9) confirmó esta preocupación: más de la mitad de los profesionales de la salud consultados manifestaron temor a que la confianza excesiva en la IA erosione las habilidades clínicas y favorezca la reproducción de errores algorítmicos no detectados.

El impacto alcanza también a las nuevas generaciones en formación. Algunos estudios (5,10,11) nos sugieren que los estudiantes y residentes enfrentan tres riesgos principales derivados del uso indiscriminado de IA: el deskilling, o pérdida progresiva de destrezas por sobreuso de herramientas automatizadas; el mis-skilling, que ocurre cuando el aprendiz interioriza errores generados por la IA; y el never-skilling, quizá el más preocupante, que describe la incapacidad de desarrollar habilidades cognitivas esenciales al delegar desde el inicio en la tecnología tareas esenciales de análisis y razon+ amiento clínico. En conjunto, la evidencia señala que una dependencia excesiva de la IA puede erosionar el pensamiento crítico y el juicio clínico, desplazando el esfuerzo intelectual humano hacia una confianza pasiva en los sistemas automáticos. El desafío, entonces, consiste en hallar un equilibrio entre aprovechar la potencia analítica de la inteligencia artificial y preservar la autonomía cognitiva que define el ejercicio responsable de la medicina.


Preservar el juicio clínico en la era de la IA

Reconociendo estos riesgos, diversos expertos en educación médica y liderazgo clínico enfatizan que la solución no es rechazar la inteligencia artificial, sino integrarla de manera inteligente y deliberada, de modo que potencie —mas no reemplace— las facultades críticas del pensamiento humano (1,12). La clave está en concebir la IA como una extensión del razonamiento clínico, no como un sustituto del mismo.

En este sentido, los especialistas coinciden en que la inteligencia artificial debe ocupar un papel de copiloto y no de piloto automático. Su función es asistir en la toma de decisiones, ofreciendo información complementaria y sugerencias basadas en datos, pero sin desplazar la responsabilidad ni el juicio del profesional. Tal como subraya Lee et al. en su trabajo (1), el médico debe siempre pausar y evaluar la validez de las recomendaciones generadas por un algoritmo antes de aplicarlas, tratándolas como una segunda opinión más que como una verdad incuestionable.

La consolidación de este enfoque requiere además un compromiso sostenido con la formación digital. Así como antes se enseñaba a los clínicos a utilizar el estetoscopio o a consultar bases de datos científicas, hoy resulta indispensable capacitarlos en el uso crítico de la IA. Esta alfabetización digital no solo implica aprender a operar herramientas, sino también a formular preguntas adecuadas, interpretar respuestas, identificar sesgos y reconocer los límites de los modelos. Así como aprendimos a dejar atrás las historias clínicas en papel para dominar los registros digitales, hoy debemos hacer lo mismo con la inteligencia artificial: comprenderla, adaptarla y mantener siempre el control humano sobre su uso. Sin embargo, en América Latina, apenas un tercio de los trabajadores utiliza herramientas digitales de manera habitual, frente a más de la mitad en países desarrollados, lo que subraya la urgencia de invertir en competencias tecnológicas básicas antes de expandir el uso de la IA a gran escala (4).

Junto con la alfabetización, la educación médica debe incorporar estructuras pedagógicas que fomenten el pensamiento crítico frente a la tecnología. El modelo DEFT-AI —propuesto por Abdulnour et al. (12) — ofrece un marco útil al combinar cinco dimensiones del aprendizaje clínico: Diagnosis, Evidence, Feedback, Teaching y Recommendation. Este enfoque promueve una relación reflexiva con la IA: el estudiante analiza el problema, contrasta la evidencia, recibe retroalimentación, enseña lo aprendido y formula una recomendación final que integra, pero no depende de, la tecnología.

En paralelo, el diseño de las herramientas de IA debe orientarse a fortalecer, y no sustituir, la capacidad de juicio humano. Según Lee et al. (1), los sistemas más efectivos son aquellos que fomentan la reflexión, explican el razonamiento detrás de sus resultados y permiten auditorías transparentes. Estas características no solo fortalecen la confianza del usuario, sino que estimulan el aprendizaje conjunto entre médico y máquina.

Por último, las instituciones sanitarias tienen la responsabilidad de establecer marcos éticos y culturales que regulen el uso de la IA. Las políticas internas deben definir con claridad qué tareas pueden delegarse a los algoritmos y cuáles requieren la revisión o validación humana. En todos los casos, la responsabilidad última debe recaer en la persona, no en el sistema automatizado (9).

Sintetizando, los expertos proponen cinco líneas de acción esenciales para preservar el juicio clínico en la era de la inteligencia artificial:

  1. Usar la IA como copiloto, manteniendo siempre el control humano de las decisiones.
  2. Fomentar la alfabetización digital, desarrollando habilidades críticas y tecnológicas.
  3. Integrar modelos educativos reflexivos, como DEFT-AI, que fortalezcan la interacción crítica.
  4. Impulsar diseños centrados en el humano, con explicabilidad y transparencia.
  5. Promover políticas institucionales claras y éticas, que definan responsabilidades y límites.

Figura 2: Uso Adaptativo de AI basado en acciones. Tomado de Abdulnour et al. (12)

Estas estrategias buscan mantener al ser humano dentro del circuito de decisión, asegurando que la inteligencia artificial amplíe las capacidades cognitivas sin reemplazar la esencia reflexiva y ética que define a la práctica médica. Solo así podrá alcanzarse un equilibrio sostenible entre la precisión de los algoritmos y la sabiduría del juicio clínico.


Hacia una perspectiva latinoamericana: oportunidades y cautelas

Al examinar el impacto de la inteligencia artificial en el pensamiento crítico dentro de la salud, es necesario considerar el contexto particular de América Latina y el Caribe. Al analizar el contexto latinoamericano, emerge una paradoja constante: por un lado, notorias carencias estructurales — como la escasez de personal médico, la limitada inversión en infraestructura sanitaria y las profundas brechas de acceso entre zonas urbanas y rurales—; y por otro, un creciente interés por incorporar innovaciones tecnológicas que puedan compensar estas deficiencias (4). En este escenario, la IA se vislumbra como una herramienta capaz de fortalecer la atención primaria, mejorar los diagnósticos oportunos y optimizar la gestión hospitalaria, abriendo nuevas posibilidades para ampliar la cobertura y la eficiencia de los sistemas de salud.

No obstante, el entusiasmo tecnológico debe equilibrarse con una comprensión crítica de las condiciones locales. La eficacia de la inteligencia artificial depende directamente de la calidad y repre+ sentatividad de los datos que la alimentan. Los modelos desarrollados en contextos ajenos no siempre reflejan la diversidad genética, epidemiológica o socioeconómica de las poblaciones latinoamericanas

(4). Por ello, se requiere invertir en la creación de bases de datos regionales, interoperables y bien curadas, que permitan adaptar los algoritmos globales al contexto local. Este paso no solo mejoraría la precisión de los modelos, sino también su legitimidad frente a los profesionales y pacientes de la región.

Otro aspecto esencial es la construcción de confianza y ética en torno al uso de la IA. La trans+ parencia en los procesos algorítmicos, la protección de la privacidad y la rendición de cuentas son pilares imprescindibles para evitar que la tecnología reproduzca o amplifique desigualdades existentes. Las guías éticas propuestas por la UNESCO (13) resaltan que los sistemas de IA deben ser explicables y auditables, de modo que los profesionales de la salud puedan comprender cómo se generan las recomendaciones y actuar con responsabilidad informada. Un médico entrenado en ética digital no solo sabrá interpretar los resultados de un modelo, sino también cuestionar sus implicaciones cuando estas parezcan injustas o descontextualizadas.

A su vez, la adopción de la inteligencia artificial debe acompañarse de un fortalecimiento deliberado del capital humano. Como advierte Saavedra y Cafagna en el Banco Mundial (14), “Las herramientas digitales potencian el trabajo de los profesionales de la salud. el factor humano y la tecnología deben com- binarse de manera óptima para ofrecer atención de calidad.” Esto implica que cada avance tecnológico debe venir acompañado de estrategias formativas que refuercen las competencias clínicas y reflexivas de los profesionales. En la práctica, la IA puede acelerar el proceso diagnóstico o administrativo, pero la interpretación final —esa decisión matizada frente a la singularidad de un paciente— seguirá requiriendo razonamiento crítico, empatía y juicio ético.

Finalmente, América Latina tiene la oportunidad de aprender de los errores observados en contextos con mayor madurez tecnológica. En lugar de adoptar de forma indiscriminada modelos de automatización, los países de la región pueden impulsar una adopción crítica y gradual de la IA, evaluando sistemáticamente sus beneficios y riesgos. Este enfoque permitiría diseñar sistemas que respondan a las realidades locales sin caer en una dependencia temprana. Por ejemplo, en la educación médica podrían integrarse herramientas de IA como apoyo al aprendizaje, pero manteniendo evaluaciones que exijan razonamiento independiente y juicio clínico. Del mismo modo, los hospitales podrían implementar proyectos piloto supervisados antes de escalar las soluciones a nivel nacional.

En resumidas cuentas, los desafíos y oportunidades de la IA en la región pueden resumirse en los siguientes ejes estratégicos:

  1. Fortalecer la infraestructura y los datos locales, asegurando calidad, interoperabilidad y repre+ sentatividad.
  2. Garantizar la ética, la privacidad y la explicabilidad de los sistemas, construyendo confianza profesional y pública.
  3. Combinar la tecnología con el desarrollo del talento humano, evitando el reemplazo del juicio clínico.
  4. Promover una adopción crítica y gradual, basada en evidencia, evaluación continua y control institucional.

En conjunto, estos elementos delinean un camino posible para que América Latina aproveche el pote cial de la inteligencia artificial sin comprometer el pensamiento crítico ni la autonomía profesional. La región cuenta con una ventaja estratégica: llegar a esta revolución tecnológica en una “segunda ola”, con la posibilidad de incorporar la IA desde una mirada reflexiva y contextualizada, aprendiendo de las experiencias previas de otros sistemas de salud. Si logra hacerlo, la IA podrá convertirse no solo en un motor de modernización, sino también en una oportunidad para redefinir el equilibrio entre innovación tecnológica y sabiduría humana.


Conclusión

La irrupción de la IA en salud es una espada de dos filos. Por un lado, nunca habíamos tenido herramientas tan poderosas para procesar información médica; por otro, corremos el riesgo de delegar nuestro propio criterio clínico.

La clave está en usar la IA como aliada, no como sustituta: aprovechar su rapidez, pero mantener la capacidad de cuestionar y decidir con juicio. Como señaló una especialista en ética digital, “La IA puede pensar, pero no tiene criterio; ese criterio es profundamente humano.” (1)

En última instancia, el pensamiento crítico es lo que nos mantiene humanos en un mundo de algoritmos. Un sistema de salud verdaderamente avanzado será aquel donde la tecnología amplifique ,pero nunca reemplace la mente y el corazón de quienes cuidan de la vida.


Recursos y lecturas recomendadas

  1. Lee HP (Hank), Sarkar A, Tankelevitch L, Drosos I, Rintel S, Banks R, et al. The Impact of Gener+ ative AI on Critical Thinking: Self+Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers. In: Conference on Human Factors in Computing Systems

– Proceedings. Association for Computing Machinery; 2025.

  1. Jose B, Cherian J, Verghis AM, Varghise SM, S M, Joseph S. The cognitive paradox of AI in educa+ tion: between enhancement and erosion. Frontiers in Psychology [Internet]. 2025;16. Available from: https://www.frontiersin.org/articles/10.3389/fpsyg.2025.1550621/full
  2. NVIDIA. State of AI in Healthcare and Life Sciences: 2025 Trends Survey Report. 2025.
  3. Bangolle, Casco, Nelson, Orefice, Raygada, Tejerina. La Gran Oportunidad de la Salud Digital en América Latina y el Caribe. 2022.
  4. Henzler D, Schmidt S, Koçar A, Herdegen S, Lindinger GL, Maris MT, et al. Healthcare profes+ sionals’ perspectives on artificial intelligence in patient care: a systematic review of hindering and facilitating factors on different levels. Vol. 25. BioMed Central Ltd; 2025.
  5. Poon EG, Lemak CH, Rojas JC, Guptill J, Classen D. Adoption of artificial intelligence in healthcare: Survey of health system priorities, successes, and challenges. Journal of the American Medical Informatics Association. 2025;32(7):1093–100.
  6. Kosmyna N, Hauptmann E, Yuan YT, Situ J, Liao XH, Beresnitzky AV, et al. Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. 2025;. Available from: http://arxiv.org/abs/2506.08872
  7. Budzyń K, Romańczyk M, Kitala D, Kołodziej P, Bugajski M, Adami HO, et al. Endoscopist deskilling risk after exposure to artificial intelligence in colonoscopy: a multicentre, observational study. The Lancet Gastroenterology and Hepatology. 2025;10(10):896–903.
  8. Healthcare FR. Generative AI: Balancing today’s needs and tomorrow’s vision. 2025.
  9. Natali C, Marconi L, Duran LDD, Cabitza F. AI+induced Deskilling in Medicine: A Mixed+ Method Review and Research Agenda for Healthcare and Beyond. Artificial Intelligence Review. 2025;58(11).
  10. Kundu S. How will artificial intelligence change medical training?. Vol. 1. Springer Nature; 2021.
  11. Abdulnour REE, Gin B, Boscardin CK. Educational Strategies for Clinical Supervision of Artificial Intelligence Use. New England Journal of Medicine. 2025;393(8):786–97.
  12. Intelligence HLEGOA. Ethics guidelines for trustworthy AI. [Publications Office of the European Union]; 2019.

SAAVEDRA J, CAFAGNA G. Inteligencia Artificial en los sistemas de salud ¿qué falta en América Latina y el Caribe? [Internet]. 2025. Available from: https://blogs.worldbank.org/es/latinamerica/inteligencia+artificial+sistemas+salud+america+latina+caribe


Fuente : https://aipocrates.blog/2025/11/09/la-inteligencia-artificial-en-salud-aliada-o-amenaza-para-el-pensamiento-critico/







Comentarios

Entradas populares