PARTICIPA

PARTICIPA

viernes, 12 de septiembre de 2025

Implementación de una unidad de corta estancia virtual domiciliaria: viabilidad, seguridad y satisfacción – Revista Emergencias

muy interesante articulo que expresa la satisfaccion alta con un modelo que combina la corta estancia virtual(telemedicina, contactos, dudas, etc) con la hospitalizacion domiciliaria donde enfermeria y medico acuden a colocar tratamientos y hacer valoraciones.
Las ratio son muy interesantes.

https://revistaemergencias.org/numeros-anteriores/volumen-37/numero-4/implementacion-de-una-unidad-de-corta-estancia-virtual-domiciliaria-viabilidad-seguridad-y-satisfaccion/?utm_source=substack&utm_medium=email

Continuity of care in general practice and patient outcomes in Denmark: a population-based cohort study - The Lancet Primary Care

Otro articulo mas que resalta la importancia de l continuidad asistencial. Es de resaltar que en ocasiones al gestor le importa mas las demoras en atencion primaria que la continuidad y prima resolver esas demoras con asistencias por otros profesionales que rompen esa continuidad asistencial.
Es reseñable que para un proceso agudo cualquier profesional del centro puede atenderla sin cambios relevantes en el resultado ("urgencias"), pero para una consulta mas compleja el profesional que tiene continuidad con ese paciente probablemente tenga herramientas para llegar a un manejo mas adecuado del paciente.En este caso las pseudodemoras no son relevantes. Quizas la mejor opción en este caso es esperar un poco para mantener esa continuidad. Y esto es,en muchos casos lo que deciden los pacientes: " prefiero esperar a que me vea otro doctor"




https://www.thelancet.com/journals/lanprc/article/PIIS3050-5143(25)00016-0/fulltext?utm_source=substack&utm_medium=email

PROMoting quality of care through patient reported outcome measures (PROMs) | OECD

https://www.oecd.org/en/publications/promoting-quality-of-care-through-patient-reported-outcome-measures-proms_c17bb968-en.html

Enviado desde mi iPhone

miércoles, 10 de septiembre de 2025

Beta-Blockers after Myocardial Infarction without Reduced Ejection Fraction | New England Journal of Medicine

A raíz de un titular del país del domingo
https://www.nejm.org/doi/full/10.1056/NEJMoa2504735

Enviado desde mi iPhone

Chatbots peligrosos??


Interesante artículo del director de uptodate. 


Chatbots de Inteligencia artificial en sanidad: riesgos y limitaciones

 

La inteligencia artificial (IA) ha invadido en poco tiempo una gran parte de nuestras vidas. Usamos los chatbots de IA para un gran número de trabajos, desde ayudarnos a planear las vacaciones hasta utilizarlos de asistentes en nuestra actividad laboral. También se han colado en el mundo sanitario y de la atención asistencial, lo que no está exento de riesgos, pues estas herramientas no están basadas en la evidencia ni actualizadas por profesionales de la salud. Además, recogen información sensible y ponen en riesgo la privacidad de los pacientes, pues en ocasiones la venden a otras compañías.

 

En los últimos tiempos hemos vistos que el uso de estos chatbots en salud puede poner en riesgo la salud de las personas, como el caso del hombre que acabó ingresado por seguir consejos nutricionales de ChatGPT, como describe la revista científica Annals of Internal Medicine.

Para señalar estos riesgos, el director médico de UpToDate, Dr. Peter Bonis, ha publicado recientemente un artículo de opinión en la revista Chief Healthcare Executive en donde analiza los riesgos y limitaciones de los chatbots de inteligencia artificial generativa (IA Gen) en entornos clínicos. Aunque estas herramientas muestran potencial para apoyar en diagnósticos y gestión de la atención, Bonis advierte que no están preparadas para tomar decisiones clínicas. 

El director médico de UpToDate relata un ejemplo preocupante del riesgo de usar estos asistentes de IA a través de un caso que el mismo experimentó para poner a prueba la capacidad de uno de los chatbots más populares del momento. Bonis preguntó cuál era el tratamiento para una paciente con infección urinaria alérgica a la penicilina, a lo que el chatbot recomendó "fluoroquinolonas o levofloxacina". El primer error es que la levofloxacina es un tipo de fluoroquinolona, cosa que no verbalizó. Pero el error más grave fue que no tuvo en cuenta que la mujer pudiera estar embarazada, y recomendó estos medicamentos, lo que podría resultar en daño fetal en el caso de que la mujer estuviese esperando a un bebé. Al recomendar fluoroquinolonas sin más, la IA no tomaba en contexto todos los posibles escenarios, lo que "evidencia la falta de juicio clínico y de conciencia contextual de la IA", y crea un riesgo para la salud de la paciente y su hijo, explica Bonis.

En el artículo, Bonis identifica varios riesgos del hecho de confiar en la IA para la toma de decisiones clínicas:

 

 

  • Los chatbots son peligrosos si no hay contexto clínico: el chatbot no se percató de que la mujer podría estar embarazada y recomendó igualmente fluoroquinolonas, que podían dañar al feto.
  • Las alucinaciones son un riesgo persistente: Los chatbots de IA frecuentemente se inventan estudios clínicos, errores que no son siempre detectados por los profesionales.
  • Falta de juicio clínico: la IA no tiene el razonamiento de los profesionales, que tienen años de experiencia médica. No puede navegar en los complejos contextos que usan los clínicos para tomar decisiones.
  • Los chatbots de IA no están a punto para tomar decisiones clínicas: No tienen vigilancia, gobernancia ni consciencia contextual.

A pesar de estos desafíos, Bonis subraya que, con una validación rigurosa e integración en tecnologías más amplias, la IA Generativa podría mejorar los flujos de trabajo clínicos y la interacción con los pacientes. No obstante, pide cautela, regulación y supervisión humana continua para evitar daños.

 


Enviado desde mi iPhone