Les réclamations Hyped que l'AI surpasse des médecins au diagnostic pourraient nuire à la sécurité patiente

Un certain nombre d'études prétendent que l'artificial intelligence (AI) fait aussi bien ou améliorent que des médecins à interpréter des images et à diagnostiquer des conditions médicales. Cependant, une étude récente publiée dans Le BMJ indique en mars 2020 que la majeure partie de cette recherche est défectueuse, et les résultats exagérés. Les résultats pourraient être que la décision pour adopter l'AI en tant qu'élément des soins aux patients est basée sur les lieux défectueux, compromettant la qualité des soins aux patients pour des millions de gens.

Artificial intelligence

L'AI est un inducteur avancé de calculer, avec beaucoup de découvertes et d'accomplissements à son crédit. Elle est également remarquable pour son niveau d'innovation. Avec sa souplesse et capacité « apprenez » des expériences passées, elle est démarchée comme une solution pour aider à améliorer des soins aux patients et à enlever une partie du travail des épaulements des professionnels de la santé qui ont trop à faire. En particulier, l'apprentissage automatique profond est une région de l'AI qui est vraisemblablement incroyablement utile en interprétant des images médicales correctement.

Crédit d
Les chercheurs ont systématiquement examiné le modèle, enregistrant des normes, le risque de polarisation, et des réclamations des études comparant le rendement des algorithmes apprenants profonds diagnostiques pour l'imagerie médicale à celle des cliniciens experts. Crédit d'image : metamorworks/Shutterstock

Beaucoup plus d'études apparaissent sur l'utilisation d'apprendre profondément dans ce domaine. Les articles de recherches et les titres de medias semblent souvent impliquer qu'apprendre profond peut exécuter mieux que des médecins à cette tâche, aidant à piloter la demande pour introduire ceci dans la pratique clinique courante. Cependant, l'élément manquant est un examen impartial de la preuve qui se trouve derrière cette réclamation, ainsi que d'une évaluation du risque derrière confier à de telles tâches aux machines.

Le centre d'une telle recherche est dans les réseaux neuronaux circonvolutionnaires (CNN) qui sont alimentés avec des données brutes, et puis développe leurs propres mécanismes pour identifier des configurations dans les caractéristiques. La caractéristique d'apprendre effectué par CNNs est que l'algorithme lui-même vient pour recenser les caractéristiques d'image qui aident à classifier l'image dans la bonne catégorie. Ce contraste avec conventionnel programmant cela dépend de l'entrée humaine pour sélecter la bonne caractéristique.

Selon les chercheurs, les réclamations exagérées dans ce domaine sont risquées. « Le danger est que l'appétit public et commercial pour la santé AI dépasse le développement d'une base rigoureuse de preuve pour supporter cet inducteur comparativement jeune. » Au lieu de cela, ils indiquent la nécessité d'abord de développer et valider un algorithme, y compris la démonstration de son efficacité en prévoyant l'état choisi. La deuxième opération est d'évaluer son installation du monde réel en trouvant la maladie par des essais bien-conduits et transparents.

L'étude

L'étude actuelle a été concentrée sur produire un examen de toutes les études publiées au cours de la dernière décennie. L'objectif principal était de comparer comment un algorithme apprenant profond a exécuté dans l'imagerie médicale contre des experts médicaux.

Étonnant, il y avait seulement deux essais contrôlés randomisés et 81 études non-randomisées qui ont rempli les critères d'étude. Ces études ont visé à employer des images médicales pour classifier la personne en tant qu'ayant ou n'ayant pas l'état de la maladie.

Dans le dernier groupe, il y avait seulement neuf essais estimatifs, où la caractéristique a été rassemblée au fil du temps en suivant différents participants. Parmi ces derniers, seulement 6 ont eu lieu dans une situation clinique réelle. Ceci l'effectue contestant pour comparer le rendement des cliniciens contre l'apprentissage automatique. Les résultats pourraient être un régime faussement positif inadmissiblement élevé, qui n'est pas rapporté ou rapidement évident. D'ailleurs, des études rétrospectives sont type citées comme preuve pour des applications d'approbation, bien que le diagnostic ne soit pas effectué rétrospectivement.

En moyenne, il y avait seulement 4 experts humains en matière de groupe contre lequel la machine a été vérifiée au-dessus de toutes les études. Les chercheurs dans l'étude actuelle ont également constaté que très peu des données brutes ou de l'indicatif était publié, limitant leur capacité de réexaminer les résultats indépendamment.

Ils ont également trouvé une probabilité élevée de polarisation dans 58/81 d'études. La polarisation signifie que le modèle d'étude n'a pas été ouvré avec soin suffisant d'éviter les éditions qui pourraient changer les résultats de la recherche. Deuxièmement, ils ont constaté que les études souvent n'ont pas suivi des normes de l'enregistrement reçues.

Dans environ 75% d'essais, la conclusion a été couchée en termes qui proposent que l'AI ait exécuté ainsi qu'ou améliore que les experts humains. En comparaison, seulement 38% d'études a indiqué le besoin de plus de recherche sous forme d'études prospectives ou d'essais contrôlés randomisés. Le commentaire d'auteurs de présente étude : « [] Utilisation judicieuse et responsable de langage dans les études et les communiqués de presse qui factorisent dans la force et la qualité de la preuve peut aider » - de réaliser une évaluation correcte des découvertes d'étude.

Implications

L'étude actuelle a eu ses limitations, telles que la possibilité que quelques études appropriées ont été manquées, et que seulement le rôle de l'AI sous forme d'apprentissage automatique profond a été examiné. Comme résultat, les conclusions peuvent ne pas être généralisables à d'autres types d'AI.

D'autre part, ils disent qu'il y a beaucoup de réclamations probablement exagérées effectuant les ronds dans le monde de recherches au sujet de l'équivalent ou des performances supérieures de l'apprentissage automatique comparées aux experts cliniques. Dans leurs mots, « beaucoup de réclamations discutablement exagérées existent au sujet de l'équivalence avec (ou de la supériorité plus de) des cliniciens, qui présente un risque potentiel pour la sécurité et la santé patientes de population au niveau social. »

En d'autres termes, utilisant le langage hyped- présenter des résultats prometteurs de not-so peut mener à leur erreur d'interprétation par les medias et le public de même. Comme résultat, ils ont dit, ceci pourrait mener « à la fourniture possible de soins inadéquats qui n'alignent pas forcément avec les meilleurs intérêts des patients. »

Au lieu de cela, dites les chercheurs, « le développement d'un plus de haute qualité et avancer de base de preuve plus d'une manière transparente rapportée aidera à éviter l'exagération, à diminuer des rebuts de recherches, et à protéger des patients. »

Journal reference:
  • Nagendran, M., Chen, Y., Lovejoy C. A., et al. Artificial intelligence versus clinicians: systematic review of design, reporting standards, and claims of deep learning studies. BMJ 2020;368:m689. https://www.bmj.com/content/368/bmj.m689
Dr. Liji Thomas

Written by

Dr. Liji Thomas

Dr. Liji Thomas is an OB-GYN, who graduated from the Government Medical College, University of Calicut, Kerala, in 2001. Liji practiced as a full-time consultant in obstetrics/gynecology in a private hospital for a few years following her graduation. She has counseled hundreds of patients facing issues from pregnancy-related problems and infertility, and has been in charge of over 2,000 deliveries, striving always to achieve a normal delivery rather than operative.

Citations

Please use one of the following formats to cite this article in your essay, paper or report:

  • APA

    Thomas, Liji. (2020, March 25). Les réclamations Hyped que l'AI surpasse des médecins au diagnostic pourraient nuire à la sécurité patiente. News-Medical. Retrieved on April 01, 2020 from https://www.news-medical.net/news/20200325/Hyped-claims-that-AI-outdoes-doctors-at-diagnosis-could-harm-patient-safety.aspx.

  • MLA

    Thomas, Liji. "Les réclamations Hyped que l'AI surpasse des médecins au diagnostic pourraient nuire à la sécurité patiente". News-Medical. 01 April 2020. <https://www.news-medical.net/news/20200325/Hyped-claims-that-AI-outdoes-doctors-at-diagnosis-could-harm-patient-safety.aspx>.

  • Chicago

    Thomas, Liji. "Les réclamations Hyped que l'AI surpasse des médecins au diagnostic pourraient nuire à la sécurité patiente". News-Medical. https://www.news-medical.net/news/20200325/Hyped-claims-that-AI-outdoes-doctors-at-diagnosis-could-harm-patient-safety.aspx. (accessed April 01, 2020).

  • Harvard

    Thomas, Liji. 2020. Les réclamations Hyped que l'AI surpasse des médecins au diagnostic pourraient nuire à la sécurité patiente. News-Medical, viewed 01 April 2020, https://www.news-medical.net/news/20200325/Hyped-claims-that-AI-outdoes-doctors-at-diagnosis-could-harm-patient-safety.aspx.