IA generativa, que puede crear y analizar imágenes, texto, audio, vídeos y más, se está abriendo camino cada vez más en la atención sanitaria, impulsada tanto por las grandes empresas tecnológicas como por las nuevas empresas.
Google Cloud, la división de productos y servicios en la nubarrón de Google, está colaborando con Highmark Health, una empresa de atención médica sin fines de interés con sede en Pittsburgh, en herramientas de inteligencia industrial generativa diseñadas para personalizar la experiencia de admisión del paciente. La división AWS de Amazon dice que está trabajando con clientes anónimos en una forma de utilizar la IA generativa para analizar bases de datos médicas para “determinantes sociales de la vigor”. Y Microsoft Azure está ayudando a construir un sistema de inteligencia industrial generativo para Providence, la red de atención médica sin fines de interés, para clasificar automáticamente los mensajes enviados por los pacientes a los proveedores de atención.
Entre las nuevas empresas destacadas de IA generativa en el sector retrete se incluyen Ambience Healthcare, que está desarrollando una aplicación de IA generativa para médicos; Nabla, un asistente de IA ambiental para practicantes; y Abridge, que crea herramientas de observación para documentación médica.
El amplio entusiasmo por la IA generativa se refleja en las inversiones en esfuerzos de IA generativa dirigidos a la atención sanitaria. En conjunto, la IA generativa en nuevas empresas de atención médica ha recaudado decenas de millones de dólares en hacienda de aventura hasta la época, y la gran mayoría de los inversores en vigor dicen que la IA generativa ha influido significativamente en sus estrategias de inversión.
Pero tanto los profesionales como los pacientes tienen opiniones encontradas sobre si la IA generativa centrada en la atención sanitaria está cinta para el horario de máxima audiencia.
La IA generativa podría no ser lo que la clan quiere
En una pesquisa nuevo de Deloitte, solo más o menos de la fracción (53%) de los consumidores estadounidenses dijeron que pensaban que la IA generativa podría mejorar la atención médica, por ejemplo, haciéndola más accesible o acortando los tiempos de aplazamiento para las citas. Menos de la fracción dijeron que esperaban que la IA generativa hiciera que la atención médica fuera más asequible.
Andrew Borkowski, director de inteligencia industrial de VA Sunshine Healthcare Network, el sistema de vigor más vasto del Sección de Asuntos de Veteranos de EE. UU., no cree que el cinismo sea injustificado. Borkowski advirtió que el despliegue de la IA generativa podría ser prematuro adecuado a sus limitaciones «significativas» y a las preocupaciones en torno a su eficiencia.
«Uno de los problemas secreto de la IA generativa es su incapacidad para manejar consultas o emergencias médicas complejas», dijo a TechCrunch. «Su saco de conocimientos finita -es afirmar, la desaparición de información clínica actualizada- y la error de experiencia humana lo hacen inadecuado para elogiar asesoramiento médico integral o recomendaciones de tratamiento».
Varios estudios sugieren que esos puntos tienen credibilidad.
En un artículo publicado en la revista JAMA Pediatrics, se descubrió que el chatbot de IA generativa de OpenAI, ChatGPT, que algunas organizaciones sanitarias han puesto a prueba para casos de uso limitados, comete errores al diagnosticar enfermedades pediátricas el 83% de las veces. Y al probar el GPT-4 de OpenAI como asistente de dictamen, los médicos del Centro Médico Beth Israel Deaconess en Boston observaron que el maniquí clasificó el dictamen incorrecto como su respuesta principal casi dos de cada tres veces.
La IA generativa contemporáneo además tiene dificultades con las tareas administrativas médicas que forman parte integral de los flujos de trabajo diarios de los médicos. En el punto de remisión MedAlign para evaluar qué tan admisiblemente la IA generativa puede realizar cosas como resumir los registros médicos de los pacientes y despabilarse entre notas, GPT-4 falló en el 35% de los casos.
OpenAI y muchos otros proveedores de IA generativa advierten contra la confianza en sus modelos para obtener asesoramiento médico. Pero Borkowski y otros dicen que podrían hacer más. «Dependerse nada más de la IA generativa para la atención sanitaria podría dar puesto a diagnósticos erróneos, tratamientos inadecuados o incluso situaciones potencialmente mortales», afirmó Borkowski.
Jan Egger, que dirige las terapias guiadas por IA en el Instituto de IA en Medicina de la Universidad de Duisburg-Essen, que estudia las aplicaciones de la tecnología emergente para la atención al paciente, comparte las preocupaciones de Borkowski. Él cree que la única forma segura de utilizar la IA generativa en la atención médica actualmente es bajo la atenta y atenta observación de un médico.
«Los resultados pueden ser completamente erróneos y cada vez es más difícil permanecer la conciencia de ello», dijo Egger. “Claro, la IA generativa se puede utilizar, por ejemplo, para redactar previamente cartas de entrada. Pero los médicos tienen la responsabilidad de comprobarlo y tomar la valentía final”.
La IA generativa puede perpetuar los estereotipos
Una forma particularmente dañina en la que la IA generativa en la atención sanitaria puede hacer las cosas mal es perpetuando los estereotipos.
En un estudio de 2023 de Stanford Medicine, un equipo de investigadores probó ChatGPT y otros chatbots generativos impulsados por IA en preguntas sobre la función renal, la capacidad pulmonar y el obesidad de la piel. Los coautores descubrieron que las respuestas de ChatGPT no solo eran frecuentemente incorrectas, sino que además incluían varias creencias falsas reforzadas y arraigadas de que existen diferencias biológicas entre las personas negras y blancas, falsedades que se sabe que han llevado a los proveedores médicos a diagnosticar erróneamente problemas de vigor.
La ironía es que los pacientes con anciano probabilidad de ser discriminados por la IA generativa para la atención sanitaria son además los que tienen más probabilidades de utilizarla.
Las personas que carecen de cobertura sanitaria (personas de color, en normal, según un estudio de KFF) están más dispuestas a probar la IA generativa para cosas como encontrar un médico o apoyo para la vigor mental, mostró la pesquisa de Deloitte. Si las recomendaciones de AI se ven empañadas por sesgos, podrían exacerbar las desigualdades en el tratamiento.
Sin requisa, algunos expertos sostienen que la IA generativa está mejorando en este sentido.
En un estudio de Microsoft publicado a finales de 2023, los investigadores dijeron que lograron una precisión del 90,2 % en cuatro puntos de remisión médicos desafiantes utilizando GPT-4. Vanilla GPT-4 no pudo alcanzar este puntaje. Pero, dicen los investigadores, a través de ingeniería rápida (diseñando indicaciones para que GPT-4 produzca ciertos resultados) pudieron aumentar la puntuación del maniquí hasta en 16,2 puntos porcentuales. (Vale la pena señalar que Microsoft es un importante inversor en OpenAI).
Más allá de los chatbots
Pero hacerle una pregunta a un chatbot no es lo único para lo que sirve la IA generativa. Algunos investigadores dicen que las imágenes médicas podrían beneficiarse enormemente del poder de la IA generativa.
En julio, un comunidad de científicos dio a conocer un sistema llamado caplazamiento impulsado por la complementariedad del flujo de trabajo clínico (CoDoC), en un estudio publicado en Nature. El sistema está diseñado para determinar cuándo los especialistas en imágenes médicas deberían creer en la IA para el dictamen en comparación con las técnicas tradicionales. Según los coautores, CoDoC obtuvo mejores resultados que los especialistas y redujo los flujos de trabajo clínicos en un 66%.
En noviembre, un Demostración del equipo de investigación chino Panda, un maniquí de IA utilizado para detectar posibles lesiones pancreáticas en radiografías. Un estudio demostró que Panda es muy preciso a la hora de clasificar estas lesiones, que a menudo se detectan demasiado tarde para una intervención quirúrgica.
De hecho, Arun Thirunavukarasu, investigador clínico de la Universidad de Oxford, dijo que no hay “falta único” en la IA generativa que impida su implementación en entornos de atención médica.
“Son factibles aplicaciones más mundanas de la tecnología de IA generativa en a corto y mediano plazo, e incluirán corrección de texto, documentación cibernética de notas y cartas y funciones de búsqueda mejoradas para optimizar los registros electrónicos de los pacientes”, dijo. “No hay ninguna razón por la que la tecnología de IA generativa, si es efectiva, no pueda implementarse en este tipo de roles inmediatamente”.
“Ciencia rigurosa”
Pero si admisiblemente la IA generativa se muestra prometedora en áreas específicas y limitadas de la medicina, expertos como Borkowski señalan los obstáculos técnicos y de cumplimiento que deben superarse antiguamente de que la IA generativa pueda ser útil (y confiable) como una útil integral de amparo sanitaria.
«Existen importantes preocupaciones sobre la privacidad y la seguridad en torno al uso de IA generativa en la atención médica», dijo Borkowski. “La naturaleza sensible de los datos médicos y el potencial de uso indebido o paso no facultado plantean graves riesgos para la confidencialidad del paciente y la confianza en el sistema retrete. Adicionalmente, el panorama regulatorio y admitido que rodea el uso de la IA generativa en la atención médica todavía está evolucionando, y aún deben resolverse cuestiones relacionadas con la responsabilidad, la protección de datos y la experiencia de la medicina por parte de entidades no humanas”.
Incluso Thirunavukarasu, por muy entusiasta que sea respecto de la IA generativa en la atención sanitaria, dice que es necesario que haya una “ciencia rigurosa” detrás de las herramientas orientadas al paciente.
«Particularmente sin supervisión médica directa, debería acaecer ensayos de control aleatorios pragmáticos que demuestren un beneficio clínico para evidenciar el despliegue de IA generativa de cara al paciente», dijo. «Una gobernanza adecuada en el futuro es esencial para detectar cualquier daño imprevisto tras el despliegue a escalera».
Recientemente, la Ordenamiento Mundial de la Vitalidad publicó directrices que abogan por este tipo de ciencia y la supervisión humana de la IA generativa en la atención sanitaria, así como por la presentación de auditorías, transparencia y evaluaciones de impacto sobre esta IA por parte de terceros independientes. El objetivo, según explica la OMS en sus directrices, sería fomentar la décimo de un comunidad diverso de personas en el expansión de la IA generativa para la atención sanitaria y elogiar una oportunidad para expresar inquietudes y aportar opiniones durante todo el proceso.
«Hasta que las preocupaciones no se aborden adecuadamente y se establezcan las salvaguardas apropiadas», dijo Borkowski, «la implementación generalizada de la IA generativa médica puede ser… potencialmente dañina para los pacientes y la industria de la vigor en su conjunto».
————————————————– —————–
Esta página transcribe artículos de diversas fuentes de dominio sabido, las ideas expresadas son responsabilidad de sus respectivos autores por lo cual no nos hacemos responsables del uso o la interpretación que se les dé. La información publicada nunca debe sustituir información profesional, médica, admitido o psicológica.