La insuficiencia cardíaca (IC) es una patología crónica compleja que afecta a millones de personas en todo el mundo, representando una carga significativa para el sistema de salud.
Su manejo requiere un enfoque multidisciplinario y una participación activa del paciente en su cuidado.
En este contexto, la educación continua juega un papel crucial en la mejora de los resultados clínicos.
Sin embargo, proporcionar información accesible, precisa y personalizada a los pacientes sigue siendo un desafío.
evalúa el potencial de ChatGPT como fuente de información para pacientes con insuficiencia cardíaca.
Los resultados de este estudio posicionan a la inteligencia artificial (IA) generativa como una herramienta prometedora en la educación del paciente.
precisión y reproducibilidad de las respuestas generadas por dos versiones de ChatGPT (GPT-3.5 y GPT-4) a 107 preguntas frecuentes sobre IC. Los resultados son alentadores: GPT-4 demostró una precisión significativa, proporcionando información correcta en el 100% de las respuestas. Además, mostró un alto nivel de conocimiento integral, especialmente en las categorías de "conocimientos básicos" (89.8%) y "manejo" (82.9%).
Por su parte, GPT-3.5 también tuvo un desempeño aceptable: la reproducibilidad de las respuestas fue alta. GPT-3.5 logró una reproducibilidad superior al 94% en todas las categorías, mientras que GPT-4 alcanzó un 100% de reproducibilidad en todas sus respuestas.
Estos resultados sugieren que ChatGPT tiene el potencial de convertirse en una herramienta valiosa para proporcionar información precisa y confiable a los pacientes con IC. La capacidad de generar respuestas precisas y reproducibles a una amplia gama de preguntas podría complementar significativamente las estrategias actuales de educación del paciente.6
Además, la capacidad de ChatGPT para proporcionar respuestas detalladas y personalizadas podría ayudar a superar algunas de las barreras actuales en la educación del paciente, como la falta de tiempo de los profesionales de la salud o la dificultad para adaptar la información a las necesidades individuales de cada paciente.2,3
El uso de ChatGPT en la investigación médica es un campo emergente y en rápida expansión. Varios estudios recientes han explorado el potencial de esta herramienta en otras áreas de la medicina.
El estudio de Chung et al. concluyó que ChatGPT puede generar informes de radiología precisos para pacientes con cáncer.7
Roberts et al. demostraron que ChatGPT puede realizar resúmenes precisos y extraer información de artículos médicos, complementando la educación para médicos y pacientes en enfermedades como la IC.8
Kim et al. publicaron que ChatGPT puede ayudar a difundir información y educar pacientes con trastornos del sueño.9
Sin embargo, estos estudios enfatizan la necesidad de una validación rigurosa, de supervisión humana y del desarrollo de un marco regulatorio legal y ético para la implementación de estas tecnologías en la práctica clínica.10-12
A pesar de estos resultados prometedores, es crucial abordar las limitaciones y consideraciones éticas asociadas con el uso de IA en la educación del paciente:
Validez: la IA generativa requiere una validación clínica más amplia antes de implementar ChatGPT como una herramienta de educación para pacientes. Esto incluiría estudios que evalúen el impacto real en el conocimiento del paciente, la adherencia al tratamiento y los resultados clínicos.11
Información actualizada: es fundamental asegurar que la información proporcionada por ChatGPT se mantenga actualizada con las últimas guías y evidencia científica.
Sesgo poblacional: es necesario evaluar si las respuestas de ChatGPT son igualmente precisas y útiles para diversos grupos demográficos, considerando factores como el nivel educativo, acceso y conocimiento tecnológico, el origen étnico y el estado socioeconómico.12
Falta de contextualización: aunque ChatGPT puede proporcionar información precisa, los pacientes pueden carecer de las habilidades necesarias para interpretar y contextualizar adecuadamente esta información. Esto subraya la importancia continua de la interacción humana en la educación del paciente.
Seguridad: el uso de la IA en el ámbito de la salud plantea preocupaciones sobre la privacidad y la seguridad de los datos del paciente. Es crucial establecer protocolos robustos para proteger la información sensible.11,12
Como conclusión el estudio sobre el uso de ChatGPT en la educación de pacientes con insuficiencia cardíaca marca un hito importante en la intersección entre la inteligencia artificial y la atención médica. Los resultados sugieren que ChatGPT tiene el potencial de convertirse en una herramienta valiosa para proporcionar información precisa y accesible a los pacientes, complementando las estrategias actuales de educación en salud.
El éxito de ChatGPT como herramienta educativa en la insuficiencia cardíaca dependerá además de nuestra capacidad para integrarla de manera efectiva y ética en los sistemas de atención médica existentes, siempre con el objetivo final de mejorar la calidad de vida y los resultados clínicos de los pacientes con esta compleja condición cardíaca.
Copyright © SIIC, 2024
Bibliografía
1. Ambrosy AP, Fonarow GC, Butler J, et al. The global health and economic burden of hospitalizations for heart failure: lessons learned from hospitalized heart failure registries. J Am Coll Cardiol. 263(12):1123-1133, 2014
2. Li Y, Yang W, Qu Y, et al. Effects of an autonomy-supportive intervention programme (ASIP) on self-care, quality of life, and mental health in heart failure patients: a randomized controlled trial. Qual Life Res. 32(11):3039-3052. 2023.
3. Jonkman NH, Westland H, Groenwold RH, et al. Do Self-Management Interventions Work in Patients With Heart Failure? An Individual Patient Data Meta-Analysis. Circulation. 133(12):1189-1198. 2016
4. Savarese G, Lund LH. Global Public Health Burden of Heart Failure. Card Fail Rev.3(1):7-11. 2017.
5. King RC, Samaan JS, Yeo YH, Mody B, Lombardo DM, Ghashghaei R. Appropriateness of ChatGPT in Answering Heart Failure Related Questions. Heart Lung Circ.33(9):1314-1318. 2024.
6. McDonagh TA, Metra M, Adamo M, et al. 2021 ESC Guidelines for the diagnosis and treatment of acute and chronic heart failure [published correction appears. Eur Heart J. 42(36):3599-3726. 2021.
7. Chung EM, Zhang SC, Nguyen AT, Atkins KM, Sandler HM, Kamrava M. Feasibility and acceptability of ChatGPT generated radiology report summaries for cancer patients. Digit Health. 19;9:20552076231221620. Dic. 2023.
8. Roberts RH, Ali SR, Hutchings HA, Dobbs TD, Whitaker IS. Comparative study of ChatGPT and human evaluators on the assessment of medical literature according to recognised reporting standards. BMJ Health Care Inform. 30(1):e100830. 2023.
9. Kim J, Lee SY, Kim JH, et al. ChatGPT vs. sleep disorder specialist responses to common sleep queries: Ratings by experts and laypeople. Sleep Health. Published online September 21, 2024.
10. Topol EJ. High-performance medicine: the convergence of human and artificial intelligence. Nat Med. 25(1):44-56. 2019.
11. He J, Baxter SL, Xu J, Xu J, Zhou X, Zhang K. The practical implementation of artificial intelligence technologies in medicine. Nat Med. 25(1):30-36. 2019
12. Char DS, Shah NH, Magnus D. Implementing Machine Learning in Health Care - Addressing Ethical Challenges. N Engl J Med. 15;378(11):981-983. Mar 2021.