Las reclamaciones Hyped que el AI aventaja a doctores en la diagnosis podrían dañar seguro paciente

Varios estudios demandan que la inteligencia artificial (AI) hace también o lo mejoran que doctores en la interpretación de imágenes y el diagnóstico de dolencias. Sin embargo, un estudio reciente publicado en El BMJ revela en marzo de 2020 que la mayor parte de esta investigación es dañada, y los resultados exagerados. El resultado podría ser que la decisión para adoptar el AI como parte de atención a los pacientes está basada sobre las premisas defectuosas, comprometiendo la calidad de la atención a los pacientes para millones de gente.

Inteligencia artificial

El AI es un campo avanzado de calcular, con muchos descubrimientos y logros a su haber. Es también notable para su nivel de innovación. Con su adaptabilidad y capacidad “aprenda” de experiencias anteriores, se importuna como una solución para ayudar a perfeccionar atención a los pacientes y a sacar algo del trabajo de los hombros de los profesionales de la atención sanitaria que tienen demasiado a hacer. Particularmente, el aprendizaje de máquina profundo es un área del AI que es probablemente increíblemente útil en la interpretación de imágenes médicas correctamente.

Haber de imagen: metamorworks/Shutterstock
Los investigadores examinaron sistemáticamente el diseño, denunciando patrones, el riesgo de polarización negativa, y reclamaciones de los estudios que comparaban el funcionamiento de los algoritmos de aprendizaje profundos diagnósticos para la proyección de imagen médica con el de los clínicos expertos. Haber de imagen: metamorworks/Shutterstock

Muchos más estudios están apareciendo en el uso profundamente del aprendizaje en este campo. Los artículos de la investigación y los títulos de los ambientes parecen a menudo implicar que el aprendizaje profundo puede realizarse mejor que doctores en esta tarea, ayudando a impulsar la demanda para traer esto en práctica clínica rutinaria. Sin embargo, el elemento faltante es una revista imparcial de las pruebas que mienten detrás de esta reclamación, así como de una evaluación del riesgo detrás de confiar tales tareas a las máquinas.

El foco de tal investigación está en las redes neuronales circumvolucionales (CNN) que se introducen con informaciones en bruto, y después desarrolla sus propios mecanismos para reconocer configuraciones en los datos. La característica del aprendizaje realizado por CNNs es que el algoritmo sí mismo viene determinar las características de la imagen que ayudan a clasificar la imagen en la categoría correcta. Esto está en contraste con convencional programando eso depende de entrada humana para seleccionar la característica correcta.

Según los investigadores, las reclamaciones exageradas en este campo son aventuradas. “El peligro es que el apetito público y comercial para la atención sanitaria AI pasa el revelado de una base rigurosa de las pruebas para soportar este campo comparativamente joven.” En lugar, apuntan a la necesidad primero de desarrollar y de validar un algoritmo, incluyendo la demostración de su eficacia en predecir la condición elegida. El segundo paso es fijar su utilidad del mundo real en descubrir enfermedad con juicios bien dirigidas y transparentes.

El estudio

El estudio actual fue centrado en producir una revista de todos los estudios publicados durante la última década. El objetivo principal era comparar cómo un algoritmo de aprendizaje profundo se realizó en proyección de imagen médica comparado con médicos especialistas.

Asombrosamente, había solamente dos seleccionó al azar las juicios controladas y 81 estudios no-seleccionados al azar que satisficieron las consideraciones del estudio. Estos estudios apuntaron utilizar imágenes médicas para clasificar a la persona como teniendo o no teniendo la condición de la enfermedad.

En el último grupo, había solamente nueve juicios anticipadas, donde los datos cerco en un cierto plazo rastreando a participantes individuales. Entre éstos, solamente 6 ocurrieron en una situación clínica real. Esto la hace que desafía para comparar el funcionamiento de clínicos comparado con el aprendizaje de máquina. El resultado podría ser un régimen falso-positivo inaceptable alto, que no se denuncia o rápidamente evidente. Por otra parte, los estudios retrospectivos se citan típicamente como pruebas de usos de la aprobación, aunque la diagnosis no se hace restrospectivamente.

Por término medio, había solamente 4 expertos humanos en el grupo contra quien la máquina fue probada sobre todos los estudios. Los investigadores en el estudio actual también encontraron que muy poco de las informaciones en bruto o de la clave fue publicada, limitando su capacidad de revisar los resultados independientemente.

También encontraron una alta probabilidad de la polarización negativa en 58/81 de los estudios. La polarización negativa significa que el diseño del estudio no fue hecho a mano con suficiente cuidado para evitar las entregas que podrían cambiar los resultados de la investigación. En segundo lugar, encontraron que los estudios no siguieron a menudo patrones de la información validados.

En el cerca de 75% de juicios, la conclusión fue acostada en los términos que sugieren que el AI se realizara así como o mejore que los expertos humanos. En comparación, el solamente 38% de estudios indicaron la necesidad de más investigación bajo la forma de estudios anticipados o seleccionaron al azar juicios controladas. El comentario de los autores del actual estudio: “[] Uso juicioso y responsable del lenguaje en los estudios y los comunicados de prensa que descomponen en factores en la fuerza y la calidad de las pruebas puede ayudar” - de lograr una interpretación apropiada de las conclusión del estudio.

Implicaciones

El estudio actual tenía sus limitaciones, tales como la posibilidad que algunos estudios relevantes fueron faltados, y que solamente el papel del AI bajo la forma de aprendizaje de máquina profundo fue examinado. Como consecuencia, las conclusiones pueden no ser generalizables a otros tipos de AI.

Por otra parte, dicen que hay muchas reclamaciones posiblemente exageradas que hacen los cartuchos en el mundo de la investigación sobre el equivalente o el rendimiento superior del aprendizaje de máquina comparado a los expertos clínicos. En sus palabras, “muchas reclamaciones discutible exageradas existen sobre la equivalencia con (o la superioridad encima) los clínicos, que presenta un riesgo potencial para el seguro y la salud pacientes de la población en el nivel social.”

Es decir usando lenguaje hyped-hacia arriba presentar a not-so resultados prometedores puede llevar a su interpretación de los ambientes y del público igualmente. Como consecuencia, dijeron, esto podría llevar “a la disposición posible del cuidado inadecuado que no alinea necesariamente con los mejores intereses de los pacientes.”

En lugar, diga a los investigadores, “el revelado de pruebas más de alta calidad y más transparente denunciadas mudanza baja adelante ayudará a evitar bombo, a disminuir el desecho de la investigación, y a proteger a pacientes.”

Journal reference:
  • Nagendran, M., Chen, Y., Lovejoy C. A., et al. Artificial intelligence versus clinicians: systematic review of design, reporting standards, and claims of deep learning studies. BMJ 2020;368:m689. https://www.bmj.com/content/368/bmj.m689
Dr. Liji Thomas

Written by

Dr. Liji Thomas

Dr. Liji Thomas is an OB-GYN, who graduated from the Government Medical College, University of Calicut, Kerala, in 2001. Liji practiced as a full-time consultant in obstetrics/gynecology in a private hospital for a few years following her graduation. She has counseled hundreds of patients facing issues from pregnancy-related problems and infertility, and has been in charge of over 2,000 deliveries, striving always to achieve a normal delivery rather than operative.

Citations

Please use one of the following formats to cite this article in your essay, paper or report:

  • APA

    Thomas, Liji. (2020, March 25). Las reclamaciones Hyped que el AI aventaja a doctores en la diagnosis podrían dañar seguro paciente. News-Medical. Retrieved on April 01, 2020 from https://www.news-medical.net/news/20200325/Hyped-claims-that-AI-outdoes-doctors-at-diagnosis-could-harm-patient-safety.aspx.

  • MLA

    Thomas, Liji. "Las reclamaciones Hyped que el AI aventaja a doctores en la diagnosis podrían dañar seguro paciente". News-Medical. 01 April 2020. <https://www.news-medical.net/news/20200325/Hyped-claims-that-AI-outdoes-doctors-at-diagnosis-could-harm-patient-safety.aspx>.

  • Chicago

    Thomas, Liji. "Las reclamaciones Hyped que el AI aventaja a doctores en la diagnosis podrían dañar seguro paciente". News-Medical. https://www.news-medical.net/news/20200325/Hyped-claims-that-AI-outdoes-doctors-at-diagnosis-could-harm-patient-safety.aspx. (accessed April 01, 2020).

  • Harvard

    Thomas, Liji. 2020. Las reclamaciones Hyped que el AI aventaja a doctores en la diagnosis podrían dañar seguro paciente. News-Medical, viewed 01 April 2020, https://www.news-medical.net/news/20200325/Hyped-claims-that-AI-outdoes-doctors-at-diagnosis-could-harm-patient-safety.aspx.