Una confrontación con la realidad en la inteligencia artificial: ¿Son las reclamaciones de la atención sanitaria marchitas?

Los productos de la salud movidos por motor por inteligencia artificial, o el AI, están fluyendo en nuestras vidas, de apps virtuales del doctor a los sensores y a los chatbots usables de la droguería.

IBM se jactó que su AI podría “outthink el cáncer.” Otros dicen que los sistemas informáticos que leen las radiografías hará a radiólogos obsoletos.

“No hay nada que he visto en mis 30 años más que estudiaba el remedio que podría ser tan impactful y transformativo” como el AI, dije al Dr. Eric Topol, cardiólogo y vicepresidente ejecutivo de la investigación de Scripps en La Jolla, la poder de la California AI ayuda a doctores a interpretar MRIs del corazón, de las exploraciones del CT de la culata de cilindro y de las fotografías del dorso del aro, y podría potencialmente asumir el control muchas tareas médicas mundanas, liberando se cuida para pasar más tiempo que habla con los pacientes, Topol dijo.

Incluso Food and Drug Administration - que ha aprobado más de 40 productos del AI en los últimos cinco años - dice que “el potencial de la salud digital no es nada brevemente del revolucionario.”

Con todo muchos expertos de la industria de la salud temen que los productos AI-basados no puedan igualar el bombo. Muchos doctores y defensores del consumidor temen que la industria de la tecnología, que vive por el mantra “fall rápidamente y lo repara más adelante,” esté poniendo a pacientes a riesgo - y que los reguladores no están haciendo suficientes para mantener a consumidores seguros.

Los experimentos tempranos en el AI ofrecen una razón para la cautela, dijeron a Mildred Cho, profesor de la pediatría en el centro de Stanford para los éticas biomédicos.

Los sistemas se convirtieron en un fracaso del hospital a menudo cuando estaban desplegados en una diversa instalación, Cho dijo. El software usado en el cuidado de millones de americanos se ha mostrado para discriminar contra minorías. Y los sistemas del AI aprenden a veces hacer las predicciones basadas en los factores que tienen menos a hacer con enfermedad que la marca de máquina de MRI usada, el tiempo que se toma un análisis de sangre o si a un capellán visitó a un paciente. En un caso, el software del AI concluyó incorrectamente que la gente con pulmonía era menos probable morir si ella tenía asma - un desvío que habría podido llevar a doctores a privar a pacientes del asma del cuidado extra que necesitan.

“Es solamente una cuestión de tiempo antes de que algo similar lleve a un problema de salud serio,” dijo al Dr. Steven Nissen, presidente de la cardiología en la clínica de Cleveland.

El AI médico, que tiró hacia adentro de $1,6 mil millones en el financiamiento de capital de riesgo en el tercer cuarto solamente, está “casi en el pico de expectativas infladas,” concluido un parte de julio de la compañía Gartner de la investigación. “Pues la realidad consigue probada, habrá probablemente un áspero resbala dentro del mínimo de presión de la desilusión.”

Esa confrontación con la realidad podría venir bajo la forma de resultados decepcionantes cuando los productos del AI se anuncian en el mundo real. Incluso Topol, el autor del “remedio profundo: Cómo la inteligencia artificial puede hacer al ser humano de la atención sanitaria una vez más” reconoce que son muchos productos del AI poco más que el aire caliente. “Es una mezcla,” él dijo.

Los expertos tales como Dr. Bob Kocher, socio en la empresa de capital riesgo Venrock, están más embotados. “La mayoría de los productos del AI tienen pocas pruebas para soportarlos,” Kocher dijo. Algunos riesgos no llegarán a ser evidentes hasta que un sistema del AI haya sido utilizado por un gran número de pacientes. “Vamos a guardar el descubrir de un manojo entero de riesgos y las consecuencias involuntarias de usar el AI en datos médicos,” Kocher dijo.

No se ha probado ningunos de los productos del AI vendidos en los E.E.U.U. en juicios clínicas seleccionadas al azar, la fuente más fuerte de las pruebas médicas, Topol dijo. El primer y solamente el ensayo aleatorizado de un sistema del AI - que encontró que colonoscopia con los pólipos más pequeños encontrados de la diagnosis automatizada que colonoscopia estándar - fue publicado en línea en octubre.

Pocos lanzamientos de la tecnología publican su investigación en los gorrones par-revisados, que permiten que otros científicos escudriñen su trabajo, según un artículo de enero en el gorrón europeo de la investigación clínica. Tal “investigación de la cautela” - descrita solamente en comunicados de prensa o acciones promocionales - exagera a menudo las ejecuciones de una compañía.

Y aunque los analistas de programas informáticos pueden jactarse de la exactitud de sus dispositivos del AI, nota de los expertos que los modelos del AI están probados sobre todo en las computadores, no en hospitales u otras instalaciones médicas. Usando software sin probar “puede hacer a pacientes en conejillos de Indias involuntarios,” dijo al Dr. Ron Li, director médico de la informática para la integración clínica del AI en la atención sanitaria de Stanford.

Los sistemas del AI que aprenden reconocer configuraciones en datos se describen a menudo como “cajas negras” porque incluso sus reveladores no saben han alcanzado sus conclusiones. Dado que el AI es tan nuevo - y muchos de su desconocido de los riesgos - el campo necesita descuido cuidadoso, dijo Ossorio Pilar, un profesor de Derecho y bioética en la universidad de Wisconsin-Madison.

Con todo la mayoría de dispositivos del AI no requiere la aprobación del FDA.

No se reviste “ningunas de las compañías que he invertido hacia adentro por las reglas del FDA,” Kocher dijo.

La legislación aprobada por el congreso - y defendido por la industria de la tecnología - exime en 2016 muchos tipos de software médico de la revista federal, incluyendo ciertos apps de la aptitud física, los historiales médicos electrónicos y las herramientas que ayudan a doctores a tomar decisiones médicas.

Es habido poca investigación conectado si los 320.000 apps médicos ahora funcionando perfeccionan real salud, según un parte el 17 de diciembre publicado AI por la academia nacional de remedio.

Si falla medios rápidos que al manojo entero de gente moriré, no piense que queremos fallar rápidamente. Nadie va a ser feliz, incluyendo inversores, si la gente muere o está dañada seriamente.

Oren Etzioni, director general en el instituto de Allen para el AI en Seattle

“Casi ninguna de la materia [AI] comercializada a los trabajos de los pacientes realmente,” dijo al Dr. Ezekiel Manuel, profesor de los éticas y de la política sanitaria médicos en la Facultad de Medicina de Perelman en la Universidad de Pensilvania.

El FDA se ha centrado de largo su atención en los dispositivos que plantean la amenaza más grande para los pacientes. Y los defensores del consumidor reconocen que algunos dispositivos - tales como unos que ayudan a gente a contar sus pasos diarios - necesitan menos escrutinio que unos que diagnostiquen o traten enfermedad.

Algunos analistas de programas informáticos no molestan solicitar tolerancia o la autorización del FDA, incluso cuando están requeridos legalmente, según un estudio 2018 en los anales del remedio interno.

Los analistas industriales dicen que los reveladores del AI tienen poco interés en el conducto de juicios costosas y que toma tiempo. “No es la mayor preocupación de estas empresas para someterse a la evaluación rigurosa que sería publicada en un gorrón par-revisado,” dijo a Joaquín Roski, director en Booz Allen Hamilton, empresa consultora de tecnología, y co-autor del parte de la academia nacional. “Que no es cómo la economía de los E.E.U.U. trabaja.”

Pero Oren Etzioni, director general en el instituto de Allen para el AI en Seattle, dijo los reveladores del AI tiene un incentivo financiero a asegurarse de que sus productos médicos son seguros.

“Si falla medios rápidos al manojo entero de gente morirá, no pienso que queremos fallar rápidamente,” Etzioni dijo. “Nadie va a ser feliz, incluyendo inversores, si la gente muere o está dañada seriamente.”

Patrones del relajante en el FDA

El FDA ha venido bajo fuego estos últimos años para permitir la venta de los aparatos médicos peligrosos, que han sido conectados por el consorcio internacional de periodistas investigadores a 80.000 muertes y a 1,7 millones de daños durante la última década.

Muchos de estos dispositivos fueron autorizados para el uso con un proceso polémico llamado los 510 (k) el camino, que permite que las compañías comercialicen productos del “moderado-riesgo” sin la prueba clínica mientras se juzguen similares a los dispositivos existentes.

En 2011, un comité de la academia nacional de remedio concluyó los 510 (k) el proceso es tan fundamental dañado que el FDA debe rechazarlo y comenzar encima.

En lugar, el FDA está utilizando el proceso a los dispositivos del AI del greenlight.

De los 14 productos del AI autorizados por el FDA en 2017 y 2018, 11 fueron autorizados con los 510 (k) proceso, según un artículo de noviembre en el JAMA. Ningunos de éstos aparecen haber tenido nueva prueba clínica, el estudio dijo. El FDA autorizó un dispositivo del AI diseñado para ayudar a diagnosticar el hígado y el cáncer de pulmón basado en 2018 en su semejanza al software de la proyección de imagen aprobó 20 años anterior. Ese software sí mismo había sido autorizado porque era juzgado “substancialmente equivalente” a los productos comercializados antes de 1976.

Los productos del AI autorizados por el FDA son hoy en gran parte “bloqueados,” de modo que sus cálculos y resultados no cambien después de que incorporen el mercado, dijo a Bakul Patel, director para la salud digital en el centro del FDA para los dispositivos y la salud radiológica. El FDA todavía no ha autorizado los dispositivos “abiertos” del AI, cuyos resultados podrían variar de un mes a otro de las maneras que los reveladores no pueden predecir.

Para tratar de la inundación de los productos del AI, el FDA está probando una aproximación radicalmente diversa a la regla digital del dispositivo, centrándose en las compañías de evaluación, no los productos.

El programa de la “pre-certificación” del piloto del FDA, puesto en marcha en 2017, se diseña “reduce la época y el costo de la entrada en mercado para los analistas de programas informáticos,” imponiendo el “menos” sistema pesado posible. Los funcionarios del FDA dicen que quieren guardar paso con los analistas de programas informáticos del AI, que ponen al día sus productos mucho más con frecuencia que los fabricantes de dispositivos tradicionales, tales como máquinas de radiografía.

Scott Gottlieb dijo en 2017 mientras que él era la comisión del FDA que los reguladores del gobierno necesitan asegurarse de que su aproximación a los productos innovadores “sea eficiente y que fomenta, no impide, innovación.”

Bajo plan, el FDA pre-certificaría a las compañías que “demuestre una cultura de la calidad y de la excelencia orgánica,” que permitiría que ofrecieran menos por adelantado los datos sobre los dispositivos.

las compañías Pre-certificadas podrían entonces liberar los dispositivos con “aerodinamizaron” revista - o ninguna revista del FDA en absoluto. Una vez que los productos están en el mercado, las compañías serán responsables de vigilar su propia seguridad de los productos y de denunciar de nuevo al FDA. Han seleccionado a nueve compañías para el piloto: Apple, FitBit, Samsung, Johnson & Johnson, terapéutica de la pera, fósforo, Roche, Tidepool y en verdad ciencias de la vida.

Los productos de alto riesgo, tales como software usado en marcapasos, todavía conseguirán una evaluación completa del FDA. “No quisiéramos definitivamente que los pacientes estuvieran dañados,” dijo a Patel, que observó que los dispositivos autorizados con la pre-certificación se pueden revocar si es necesario. “Todavía hay muchas barandillas en el lugar.”

Pero la investigación muestra que los incluso dispositivos inferiores y del moderado-riesgo han sido revocado debido a los riesgos serios a los pacientes, dijo a Diana Zuckerman, presidente del centro nacional para la investigación de la salud. La “gente podría ser dañada porque algo no fue requerido ser exacto o seguro probado antes de que sea ampliamente utilizado.”

Johnson & Johnson, por ejemplo, ha revocado los implantes del caballete y la malla quirúrgica.

En una serie de cartas al FDA, American Medical Association y otros han preguntado la sabiduría de permitir que las compañías vigilen su propia seguridad del funcionamiento y del producto.

“El sistema de honor no es un régimen regulador,” dijo al Dr. Jesse Ehrenfeld, que preside a la tabla de administradores del grupo del médico.

En una carta de octubre al FDA, Sens. Elizabeth Warren (D-Masa.), Tina Smith (D-Minn.) y Patty Murray (D-Estela turbulenta.) preguntaron la capacidad de la dependencia de asegurar a la compañía que los partes de seguro son “exactos, oportuno y basado en toda la información disponible.”

Cuando son buenos los algoritmos van malos

Algunos dispositivos del AI se prueban más cuidadosamente que otros.

Una herramienta de blindaje AI-movida por motor para la enfermedad ocular diabética fue estudiada en 900 pacientes en 10 oficinas de la atención primaria antes de ser aprobado en 2018. El fabricante, tecnologías de IDx, trabajadas con el FDA por ocho años para conseguir el producto derecho, dijo al Dr. Michael Abramoff, el fundador de la compañía y presidente del segundo comandante.

La prueba, vendida como IDx-DR, revisa a los pacientes para la retinopatía diabética, una causa de cabeza de la ceguera, y remite a pacientes de alto riesgo a los especialistas de aro, que hacen una diagnosis definitiva.

IDx-DR es el primer producto “autónomo” del AI - uno que pueda tomar una decisión de la investigación sin un doctor. La compañía ahora lo está instalando en clínicas y los colmados de la atención primaria, en donde puede ser operada por los empleados con un diploma de enseñanza secundaria. La compañía de Abramoff ha tomado la medida inusual del seguro de responsabilidad de compra para revestir cualquier daño paciente.

Con todo algunos las innovaciones AI-basadas previstas para perfeccionar cuidado han tenido el efecto opuesto.

Una compañía canadiense, por ejemplo, software desarrollado del AI para predecir el riesgo de una persona de Alzheimer basado en su discurso. Las predicciones eran más exactas para algunos pacientes que otras. La “dificultad que encuentra la palabra correcta puede ser debido a la infamiliaridad con inglés, bastante que a la debilitación cognoscitiva,” dijo al co-autor Frank Rudzicz, profesor adjunto de informática en la universidad de Toronto.

Los doctores en el hospital del monte Sinaí de Nueva York esperaban que el AI podría ayudarles para utilizar radiografías del pecho para predecir qué pacientes estaban en de alto riesgo de la pulmonía. Aunque el sistema hiciera predicciones exactas de las radiografías disparadas en el monte Sinaí, la tecnología se tiró cuando estaba probada en las imágenes tomadas en otros hospitales. Eventual, los investigadores realizaron que la computador había aprendido simplemente informar la diferencia entre las radiografías del pecho portátiles de ese hospital - tomadas en la cabecera de un paciente - con ésos admitida el departamento de la radiología. Los doctores tienden a utilizar las radiografías del pecho portátiles para los pacientes demasiado enfermos para salir de su sitio, así que no es de extrañar que estos pacientes tenían un mayor riesgo de infección del pulmón.

Mientras que es el trabajo de empresarios pensar grande y tomar riesgos, es el trabajo de doctores proteger a sus pacientes.

El Dr. Vikas Saini, cardiólogo y presidente del instituto no lucrativo de Lown, que aboga para un acceso más amplio a la atención sanitaria

DeepMind, una compañía poseída por Google, ha creado un app movible AI-basado que puede predecir que cuál hospitalizó los pacientes desarrollarán la insuficiencia renal aguda hasta 48 horas por adelantado. Un poste del blog en el Web site de DeepMind describió el sistema, usado en un hospital de Londres, como “cambiador del juego.” Pero el sistema del AI también produjo dos alarmas falsas para cada resultado correcto, según un estudio de julio en naturaleza. Eso puede explicar porqué la función del riñón de los pacientes no perfeccionó, dijo al Dr. Saurabh Jha, profesor adjunto de la radiología en el hospital de la Universidad de Pensilvania. Cualquier ventaja de la detección temprana de los problemas serios del riñón se pudo haber diluido por una alta tasa de “overdiagnosis,” en cuál señaló el sistema del AI las entregas del riñón por medio de una bandera de la frontera que no necesitaron el tratamiento, Jha dijo. Google no tenía ningún comentario en respuesta a las conclusiones de Jha.

Los positivos falsos pueden dañar pacientes incitando a doctores pedir pruebas innecesarias o retener recomendó tratamientos, Jha dijo. Por ejemplo, un doctor preocupante de los riñones de un paciente pudo parar el prescribir del ibuprofen - un analgésico generalmente seguro que plantea un pequeño riesgo a la función del riñón - a favor de un opiáceo, que lleva un riesgo serio de apego.

Como estos estudios muestre, software con resultados impresionantes en un laboratorio de la computador puede derrumbarse cuando está probado en tiempo real, Cho de Stanford dijo. Eso es porque las enfermedades son más complejas - y el sistema sanitario lejos más disfuncional - que muchos informáticos anticipan.

Muchos reveladores del AI seleccionan historiales médicos electrónicos porque llevan a cabo enormes cantidades de datos detallados, Cho dijo. Pero esos reveladores no son a menudo conscientes que están construyendo encima de un sistema profundamente fragmentado. Los historiales médicos electrónicos fueron desarrollados para cargar en cuenta, no la atención a los pacientes, y se llenan de errores o de datos faltantes.

Una investigación de KHN publicada en marzo encontró desvíos a veces peligrosos para la vida en los filetes de la medicación de los pacientes, los pruebas de laboratorio y las alergias.

Debido a los riesgos implicados, los doctores necesitan caminar hacia adentro para proteger los intereses de sus pacientes, dijeron al Dr. Vikas Saini, cardiólogo y presidente del instituto no lucrativo de Lown, que aboga para un acceso más amplio a la atención sanitaria.

“Mientras que es el trabajo de empresarios pensar grande y tomar riesgos,” Saini dijo, “es el trabajo de doctores proteger a sus pacientes.”

Noticias de la salud de KaiserEste artículo fue reimpreso de khn.org con permiso del asiento de Henry J. Kaiser Family. Las noticias de la salud de Kaiser, un servicio de noticias editorial independiente, son un programa del asiento de la familia de Kaiser, una organización de investigación independiente del plan de acción de la atención sanitaria unaffiliated con Kaiser Permanente.