Ir a: [Publicaciones] · [Editorial MedicineAI] · [Otras publicaciones]
Otras publicaciones y documentos de interés
Aquí se recogen todos aquellos originales de la asociación y de sus socios y colaboradores, publicados fuera de la cobertura editorial de MedicineAI considerados de interés general. Incluye también un apartado de documentos relevantes de carácter interno o no publicados.
Publicaciones

Resumen
Antecedentes: La investigación en salud que utiliza inteligencia artificial (IA) predictiva y generativa está creciendo rápidamente. Al igual que en los estudios clínicos tradicionales, la forma en que se llevan a cabo los estudios con IA puede introducir errores sistemáticos. La traducción de esta evidencia basada en IA a la práctica clínica y a la investigación requiere herramientas de evaluación crítica para responsables de la toma de decisiones clínicas e investigadores.
Objetivo: Este estudio tuvo como objetivo identificar las herramientas existentes para la evaluación crítica de estudios clínicos que utilizan IA y examinar los conceptos y dominios que exploran dichas herramientas. La pregunta de investigación se formuló utilizando el marco Población-Concepto-Contexto (PCC). Población (P): estudios clínicos con IA; Concepto (C): herramientas de evaluación crítica y constructos asociados como calidad, notificación, validez, riesgo de sesgo y aplicabilidad; y Contexto (C): práctica clínica. Además, se incluyeron estudios sobre clasificación de sesgos y evaluación de chatbots.
Métodos: Se realizaron búsquedas en bases de datos médicas y de ingeniería (MEDLINE, Embase, CINAHL, PsycINFO e IEEE) desde su inicio hasta abril de 2024. Se incluyó investigación clínica primaria con herramientas de evaluación crítica. Las revisiones clásicas y las revisiones sistemáticas se incluyeron en la primera fase de cribado y se excluyeron en la segunda fase tras identificar nuevas herramientas mediante forward snowballing. Se excluyeron investigaciones no humanas, informáticas y matemáticas, así como cartas, artículos de opinión y editoriales. El cribado se realizó con Rayyan (Qatar Computing Research Institute). La extracción de datos fue realizada por dos revisores y las discrepancias se resolvieron mediante discusión. El protocolo se registró previamente en Open Science Framework. Se siguieron las directrices PRISMA-ScR (Preferred Reporting Items for Systematic Reviews and Meta-Analyses extension for Scoping Reviews) y la extensión PRISMA-S (PRISMA-Search) para la notificación de la literatura en revisiones sistemáticas.
Resultados: Se recuperaron 4393 registros únicos para el cribado. Tras excluir 3803 registros, se seleccionaron 119 para la revisión a texto completo, de los cuales se excluyeron 59. Tras la inclusión de 10 estudios por otros métodos, se incluyeron finalmente un total de 70 registros. Se identificaron 46 herramientas (26 guías para la notificación de estudios con IA, 16 herramientas de evaluación crítica, 2 para la calidad de los estudios y 2 para el riesgo de sesgo). Nueve artículos se centraron en la clasificación o mitigación del sesgo. Se identificaron 15 estudios de evaluación de chatbots o revisiones sistemáticas de estudios sobre chatbots (6 y 9, respectivamente), que constituyen un grupo muy heterogéneo.
Conclusiones: Los resultados dibujan un panorama de herramientas de evaluación de la evidencia en el que predominan las herramientas de notificación, seguidas de las de evaluación crítica, y con un número reducido de herramientas específicas para el riesgo de sesgo. La falta de correspondencia entre los sesgos en inteligencia artificial y en epidemiología debe tenerse en cuenta en la evaluación crítica, especialmente en lo relativo a la equidad y a la mitigación del sesgo en los sistemas de IA. Por último, los estudios de evaluación de chatbots representan un campo amplio y en rápida evolución, en el que el avance en el diseño, la notificación y la evaluación crítica es necesario y urgente.
Cabello JB, Ruiz Garcia V, Torralba M, Maldonado Fernandez M, Ubeda M, Ansuategui E, et al. Critical Appraisal Tools for Evaluating Artificial Intelligence in Clinical Studies: Scoping Review. Journal of Medical Internet Research. 2025;27:e77110–e. doi: https://dx.doi.org/10.2196/77110

Resumen
La IA está transformando la práctica médica y redefiniendo las competencias que los futuros profesionales sanitarios necesitan dominar. A pesar de las recomendaciones internacionales, la integración de la IA en los planes de estudio de Medicina en España no se había evaluado sistemáticamente hasta ahora. Se realizó un estudio transversal (julio-septiembre de 2025) que incluyó las universidades españolas que ofrecen el grado oficial en Medicina, según el Registro de Universidades, Centros y Títulos (RUCT). Se revisaron los planes de estudio y la documentación institucional públicamente disponible para identificar cursos y competencias relacionadas con la IA en el curso académico 2025-2026. El análisis se realizó mediante estadística descriptiva. De las 52 universidades analizadas, diez (19,2%) ofrecen cursos específicos de IA, mientras que 36 (69,2%) no incluyen contenido relacionado. La mayoría de los cursos identificados son optativos, con una carga crediticia que oscila entre tres y seis ECTS, lo que representa una media del 1,17% del total de 360 créditos del grado. La Universidad de Jaén es la única institución que ofrece un curso obligatorio con contenido en IA. El análisis territorial revela marcadas disparidades: Andalucía lidera con el 55,5% de sus universidades que incorporan formación en IA, mientras que varias comunidades carecen de iniciativas en este ámbito. La integración de la IA en el grado de Medicina en España es incipiente, fragmentada y desigual, con una baja ponderación en el ECTS. La limitada carga formativa y el predominio de asignaturas optativas limitan la preparación de los futuros médicos para ejercer en un entorno sanitario cada vez más mediado por la IA. Los resultados respaldan el establecimiento de estándares mínimos y el seguimiento nacional de indicadores.
Janeiro AE, Pereira KP, Mayol J, Crespo J, Carballo F, Cabello JB, et al. The Integration of Artificial Intelligence in Undergraduate Medical Education in Spain: Descriptive Analysis and International Perspectives. arxiv:251017938. https://doi.org/10.48550/arXiv.2510.17938

Resumen
Este comentario de Fernando Carballo (en nombrte de MedicineAI), a propósito del estudio publicado en JAMA Network Open (JAMA Netw Open. 2025;8(8):e2836557), señala que la mención del uso de IA puede reducir la confianza y la elección de los pacientes, sobre todo cuando se vincula a decisiones terapéuticas o se presenta como argumento publicitario. Subraya que la integración de la IA debe ser transparente, clínicamente dirigida y bajo responsabilidad del médico, e invita a profundizar en estudios transculturales sobre su percepción social.
Carballo F. Public Perception of Physicians Who Use AI — Context and Communication Matter 2025 [actualizado 2025/08/13]. Disponible en: https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2836557.
Ir a: [Publicaciones] · [Editorial MedicineAI] · [Otras publicaciones]
