Une confrontation avec la réalité sur l'artificial intelligence : Les réclamations de santé sont-elles dissipées ?

Les produits de santé actionnés par artificial intelligence, ou l'AI, coulent dans nos durées, des apps virtuels de docteur aux détecteurs portables et aux chatbots de pharmacie.

IBM a revendiqué que son AI pourrait « outthink le cancer. » D'autres indiquent que les systèmes informatiques qui indiquent des rayons X rendront des radiologues périmés.

« Il n'y a rien que j'ai vu pendant mes 30 années plus étudiant le médicament qui pourrait être aussi impactful et transformatif » que l'AI, ai dit M. Éric Topol, un cardiologue et vice président exécutif de recherche de Scripps à La Jolla, la boîte de la Californie AI aident des médecins à interpréter des IRM du coeur, des échographies de CT de la tête et des photos de l'arrière de l'oeil, et pourraient potentiellement assurer beaucoup de travaux quotidiens médicaux mondains, libérant soigne pour passer plus de temps parlant aux patients, Topol a dit.

Même Food and Drug Administration - qui a reconnu plus de 40 produits d'AI pendant les dernières cinq années - indique que « le potentiel de la santé digitale n'est rien sous peu du révolutionnaire. »

Pourtant beaucoup de produits basés sur AI de crainte d'experts industriels de santé ne pourront pas apparier l'exagération. Beaucoup de médecins et de défenseurs des consommateurs craignent que l'industrie de tech, qui vit à côté de l'incantation « défaillir rapidement et la fixe plus tard, » met des patients en danger - et que les régulateurs ne fassent pas assez pour maintenir des consommateurs sûrs.

Les expériences tôt dans l'AI fournissent une raison pour l'attention, ont dit Mildred Cho, un professeur de la pédiatrie au centre de Stanford pour l'éthique biomédicale.

Les systèmes se sont développés dans un fiasco d'hôpital souvent une fois déployés dans une installation différente, Cho a dit. Le logiciel utilisé dans les soins des millions d'Américains a été montré pour distinguer contre des minorités. Et les systèmes d'AI apprennent parfois à effectuer des prévisions basées sur les facteurs qui ont moins à faire avec la maladie que la marque de la machine d'IRM utilisée, le temps où une prise de sang est passée ou si un patient a été rendu visite par un aumônier. Dans un cas, le logiciel d'AI a inexactement conclu que les personnes avec la pneumonie étaient moins pour mourir si elles avaient l'asthme - une erreur qui pourrait avoir abouti des médecins à priver des asthmatiques des soins supplémentaires qu'elles ont besoin.

« C'est seulement une question de temps avant que n'importe quoi de pareil mène à un grave problème de santé, » a dit M. Steven Nissen, Président de la cardiologie à la clinique de Cleveland.

L'AI médicale, qui a tiré dedans $1,6 milliards dans le capital permanent de capital-risque dans le troisième seul trimestre, est « presque à la crête des attentes gonflées, » conclu un état de juillet de la compagnie Gartner de recherches. « Car la réalité obtient vérifiée, il y aura vraisemblablement un brut glissent dans la cuvette de la désillusion. »

Cette confrontation avec la réalité pourrait venir sous forme de résultats décevants quand des produits d'AI sont conduits dans le monde réel. Même Topol, l'auteur « du médicament profond : Comment l'artificial intelligence peut effectuer l'être humain de santé de nouveau, » reconnaît que beaucoup de produits d'AI sont peu davantage que l'air chaud. « C'est un mélange, » il a dit.

Les experts tels que M. Bob Kocher, un associé à la société de capital risque Venrock, sont plus épointés. « La plupart des produits d'AI ont peu de preuve de les supporter, » Kocher a dit. Quelques risques ne deviendront pas apparents jusqu'à ce qu'un système d'AI ait été employé par un grand nombre de patients. « Nous allons continuer à découvrir un groupe entier de risques et des conséquences involontaires d'employer l'AI sur des caractéristiques médicales, » Kocher a dit.

Aucun des produits d'AI vendus aux États-Unis n'a été vérifié dans les essais cliniques randomisés, la source la plus intense de preuve médicale, Topol a dit. Le premier et seulement l'étude randomisée d'un système d'AI - qui a constaté que coloscopie avec les polypes plus petits trouvés de diagnostic assisté par ordinateur que la coloscopie normale - était en ligne publié en octobre.

Peu de mises en train de tech publient leur recherche en tourillons pair-observés, qui permettent à d'autres scientifiques de contrôler leur travail, selon un article de janvier dans le tourillon européen de l'investigation clinique. Une telle « recherche de la furtivité » - décrite seulement dans des communiqués de presse ou des événements promotionnels - exagère souvent les réalisations d'une compagnie.

Et bien que les programmateurs de logiciel peuvent amorcer au sujet de l'exactitude de leurs dispositifs d'AI, note d'experts que des modèles d'AI sont en grande partie vérifiés sur des ordinateurs, pas aux hôpitaux ou à d'autres équipements médicaux. Utilisant le logiciel non fondé « peut transformer des patients en cobayes inconscients, » a dit M. Ron Li, directeur d'informatique médicale pour l'intégration clinique d'AI à la santé de Stanford.

Des systèmes d'AI qui apprennent à identifier des configurations dans les caractéristiques sont souvent décrits en tant que « boîtes noires » parce que même leurs révélateurs ne savent pas ils ont tiré leurs conclusions. Vu que l'AI est si neuve - et on de son inconnu de risques - l'inducteur a besoin de supervision attentive, a indiqué Ossorio pilaire, un professeur de Droit et la bioéthique à l'université de Wisconsin-Madison.

Pourtant la majorité de dispositifs d'AI n'ont pas besoin de l'approbation de FDA.

« Aucun des compagnies que j'ai investies dedans n'est soumise aux règlements de FDA, » Kocher a dit.

La législation réussie par le congrès en 2016 - et soutenu par l'industrie de tech - exempte beaucoup de types de logiciel médical de la révision fédérale, y compris certains apps de forme physique, les dossiers santé électroniques et les outils qui aident des médecins à prendre des décisions médicales.

Il y est eu peu de recherche en circuit si les 320.000 apps médicaux améliorent maintenant en service réellement la santé, selon un état AI le 17 décembre publié par le conservatoire national du médicament.

Si défaillant des moyens rapides que par groupe entier de gens mourrai, je ne pensez pas que nous voulons défaillir rapidement. Personne ne va être heureux, y compris des investisseurs, si les gens meurent ou sont sévèrement blessés.

Oren Etzioni, cadre supérieur à l'institut d'Allen pour l'AI à Seattle

« Presque rien la substance [AI] lancée sur le marché aux travaux de patients réellement, » a dit M. Ezekiel Emanuel, professeur d'éthique médicale et de politique sanitaire à l'École de Médecine de Perelman à l'Université de Pennsylvanie.

La FDA a longtemps concentré son attention sur les dispositifs qui constituent le danger le plus grand aux patients. Et les défenseurs des consommateurs reconnaissent que quelques dispositifs - tels que ceux qui aident des gens à compter leurs opérations quotidiennes - ont besoin de moins d'examen minutieux que ceux qui diagnostiquent ou traitent la maladie.

Quelques programmateurs de logiciel ne prennent pas la peine de s'appliquer l'habilitation ou l'autorisation de FDA, même lorsque permissible requis, selon une étude 2018 dans les annales de médecine interne.

Les analystes industriels disent que les révélateurs d'AI ont peu d'intérêt en conduisant des essais chers et longs. « Ce n'est pas la principale préoccupation de ces entreprises pour se soumettre à l'évaluation rigoureuse qui serait publiée dans un tourillon pair-observé, » a dit Joachim Roski, un mandant à Booz Allen Hamilton, une entreprise de conseil de technologie, et co-auteur de l'état du conservatoire national. « Qui n'est pas comment l'économie américaine Fonctionne. »

Mais Oren Etzioni, cadre supérieur à l'institut d'Allen pour l'AI à Seattle, a indiqué des révélateurs d'AI ont une incitation financière à s'assurer que leurs produits médicaux sont sûrs.

« Si défaillant des moyens rapides par groupe entier de gens mourra, je ne pense pas que nous voulons défaillir rapidement, » Etzioni a dit. « Personne ne va être heureux, y compris des investisseurs, si les gens meurent ou sont sévèrement blessés. »

Normes de détente à la FDA

La FDA a relevé de l'incendie ces dernières années pour permettre la vente des matériels médicaux dangereux, qui ont été joints par le consortium international de journalistes investigateurs aux 80.000 morts et à 1,7 millions de blessures au cours de la dernière décennie.

Plusieurs de ces dispositifs ont été libérés pour l'usage par un appelé de processus controversé les 510 (k) la voie, qui permet à des compagnies de lancer des produits sur le marché de « modéré-risque » sans des tests cliniques tant que ils sont considérés assimilés aux dispositifs existants.

En 2011, un comité du conservatoire national du médicament a conclu les 510 (k) le procédé est tellement principalement défectueux que la FDA devrait le jeter et commencer plus de.

Au lieu de cela, la FDA emploie le procédé aux dispositifs du greenlight AI.

Des 14 produits d'AI autorisés d'ici la FDA en 2017 et 2018, 11 ont été libérés par les 510 (k) procédé, selon un article de novembre dans le JAMA. Aucun de ces derniers ne semble avoir eu des tests cliniques neufs, l'étude a indiqué. La FDA a libéré un dispositif d'AI conçu pour aider à diagnostiquer le foie et le cancer de poumon en 2018 basé sur sa similitude au logiciel de représentation a reconnu 20 ans plus tôt. Ce logiciel lui-même avait été libéré parce qu'il a été considéré « essentiellement équivalent » aux produits lancés sur le marché avant 1976.

Les produits d'AI libérés par la FDA sont aujourd'hui en grande partie « verrouillés, » de sorte que leurs calculs et résultats ne changeront pas après qu'ils accèdent au marché, a dit Bakul Patel, directeur pour la santé digitale au centre de FDA pour des dispositifs et la santé radiologique. La FDA n'a pas encore autorisé les dispositifs « débloqués » d'AI, dont les résultats pourraient varier de mois en mois des voies que les révélateurs ne peuvent pas prévoir.

Pour traiter la pléthore de produits d'AI, la FDA vérifie une approche radicalement différente au règlement d'appareil numérique, se concentrant sur les compagnies de évaluation, pas des produits.

Le programme pilote de la « pré-conformité » de FDA, lancé en 2017, est conçu « réduisent le temps et coût de l'entrée du marché pour des programmateurs de logiciel, » imposant le « moins » système onéreux possible. Les fonctionnaires de FDA déclarent qu'ils veulent suivre les programmateurs de logiciel d'AI, qui mettent à jour leurs produits beaucoup plus fréquemment que des générateurs des dispositifs traditionnels, tels que des machines de rayon X.

Scott Gottlieb a dit en 2017 tandis qu'il était le commissaire de FDA que les régulateurs de gouvernement doivent s'assurer que son approche aux produits novateurs « est efficace et qu'elle stimule, pas entrave, innovation. »

Dans le cadre du régime, la FDA pré-certifierait les compagnies que « expliquez une culture de qualité et d'excellence structurelle, » qui leur permettrait de fournir des caractéristiques moins franches au sujet des dispositifs.

les compagnies Pré-certifiées pourraient alors relâcher des dispositifs avec « ont profilé » la révision - ou aucune FDA n'observent du tout. Une fois que les produits sont sur le marché, les compagnies seront responsables de surveiller leur propre sécurité des produits et de l'enregistrement de nouveau à la FDA. Neuf compagnies ont été sélectées pour le pilote : Pomme, FitBit, Samsung, Johnson & Johnson, thérapeutique de poire, phosphore, Roche, Tidepool et vraiment sciences de la vie.

Les produits à haut risque, tels que le logiciel utilisé dans des stimulateurs, obtiendront toujours un bilan complet de FDA. « Nous réellement ne voulons pas que des patients sont blessés, » a dit Patel, qui a noté que des dispositifs libérés par la pré-conformité peuvent être indiqués si eus besoin. « Il restent beaucoup de rambardes en place. »

Mais la recherche prouve que même les dispositifs inférieurs et de modéré-risque ont été dus indiqué aux risques graves aux patients, a dit Diana Zuckerman, président du centre national pour la recherche de santé. Les « gens pourraient être nuis parce que quelque chose n'a pas été exigée être précise ou sûre prouvé avant qu'elle soit très utilisée. »

Johnson & Johnson, par exemple, a indiqué les implants de hanche et la maille chirurgicale.

Dans une série de lettres à la FDA, American Medical Association et d'autres ont remis en cause la sagesse de permettre à des compagnies de surveiller leur propres rendement et sécurité du produit.

« Le tableau de honneur n'est pas un régime de réglementation, » a dit M. Jesse Ehrenfeld, qui préside le conseil de gestion du groupe de médecin.

Dans une lettre d'octobre à la FDA, Sens. Les terriers d'Elizabeth (la D-Masse.), la Tina Smith (D-Minn.) et la Patty Murray (D-Lavage.) ont remis en cause la capacité de l'agence d'assurer la compagnie que les rapports sur la sécurité sont « précis, opportun et basé sur toutes les informations disponibles. »

Si bons les algorithmes se détériorent

Quelques dispositifs d'AI plus soigneusement sont vérifiés que d'autres.

Un outil de dépistage à la force de l'AI pour la maladie des yeux liée au diabète a été étudié dans 900 patients à 10 bureaux de premier soins avant d'être reconnu en 2018. Le constructeur, technologies d'IDx, travaillées avec la FDA pendant huit années pour obtenir le produit droit, a dit M. Michael Abramoff, le fondateur de la compagnie et Président d'exécutif.

Le test, vendu sous le nom d'IDx-DR, interviewe des patients pour la rétinopathie diabétique, une principale cause de cécité, et met en rapport des patients à haut risque avec les spécialistes en oeil, qui effectuent un diagnostic définitif.

IDx-DR est le premier produit « autonome » d'AI - un qui peut prendre une décision d'examen critique sans docteur. La compagnie le monte maintenant dans des cliniques et des épiceries de premier soins, où elle peut être actionnée par des employés avec un diplôme d'études secondaires. La compagnie d'Abramoff a pris la mesure exceptionnelle de l'assurance-responsabilité de achat pour couvrir toutes les blessures patientes.

Pourtant quelques innovations basées sur AI destinées pour améliorer des soins ont eu l'effet opposé.

Une compagnie canadienne, par exemple, logiciel développé d'AI pour prévoir le risque d'une personne d'Alzheimer basé sur leur discours. Les prévisions étaient plus précises pour quelques patients que d'autres. La « difficulté trouvant le bon mot peut être due au caractère étranger avec l'anglais, plutôt qu'au handicap cognitif, » a dit le co-auteur Frank Rudzicz, un professeur agrégé de l'informatique à l'université de Toronto.

Les médecins à l'hôpital du mont Sinaï de New York ont espéré que l'AI pourrait les aider pour employer des radiographies thoraciques pour prévoir quels patients étaient au haut risque de la pneumonie. Bien que le système ait effectué des prévisions précises à partir des rayons X tirés au mont Sinaï, la technologie s'est effondue une fois vérifiée sur des images prises à d'autres hôpitaux. Éventuellement, les chercheurs ont réalisé que l'ordinateur avait simplement appris à faire la différence entre les radiographies thoraciques portatives de cet hôpital - prises au chevet d'un patient - avec ceux rentré le Service de Radiologie. Les médecins tendent à employer les radiographies thoraciques portatives pour des patients trop malades pour quitter leur chambre, ainsi il n'est pas étonnant que ces patients aient eu un risque plus grand d'infection de poumon.

Tandis que c'est la fonction des entrepreneurs de penser grand et de prendre des risques, c'est la fonction des médecins de protéger leurs patients.

M. Vikas Saini, un cardiologue et président de l'institut sans but lucratif de Lown, qui préconise pour un accès à des soins de santé plus large

DeepMind, une compagnie possédée par Google, a produit un mobile basé sur AI APP qui peut prévoir quels patients hospitalisés développeront l'insuffisance rénale aiguë jusqu'à pendant 48 heures à l'avance. Un goujon de blog sur le site Web de DeepMind a décrit le système, utilisé à un hôpital de Londres, comme « commutateur de jeu. » Mais le système d'AI a également produit deux fausses alertes pour chaque résultat correct, selon une étude de juillet en nature. Cela peut expliquer pourquoi le fonctionnement du rein des patients ne s'est pas amélioré, a dit M. Saurabh Jha, professeur agrégé de la radiologie à l'hôpital de l'Université de Pennsylvanie. N'importe quel avantage du dépistage précoce des problèmes sérieux de rein a pu avoir été dilué par un haut débit de « overdiagnosis, » dans ce que le système d'AI a marqué les éditions de rein limite qui n'ont pas eu besoin de demande de règlement, Jha a dit. Google n'a eu aucun commentaire en réponse aux conclusions de Jha.

Les faux positifs peuvent nuire à des patients en incitant des médecins à commander les tests inutiles ou retenir a recommandé des demandes de règlement, Jha a dit. Par exemple, un docteur s'est inquiété des reins d'un patient pourrait cesser de prescrire l'ibuprofène - une antidouleur généralement sûre qui pose un petit risque au fonctionnement de rein - en faveur d'un opioid, qui comporte un risque grave de dépendance.

En tant que ces études montrez, logiciel avec des résultats impressionnants dans un laboratoire d'ordinateur peut s'effondre une fois vérifié en temps réel, Cho de Stanford a dit. C'est parce que les maladies sont plus complexes - et le système de santé bien plus dysfonctionnel - que beaucoup d'informaticiens anticipent.

Beaucoup de révélateurs d'AI cueillent les dossiers santé électroniques parce qu'ils contiennent des montants considérables de caractéristiques détaillées, Cho a dit. Mais ces révélateurs ne se rendent pas souvent compte qu'ils établissent placé sur un système profondément cassé. Des dossiers santé électroniques n'ont été élaborés pour l'affichage, pas les soins aux patients, et sont remplis d'erreurs ou de caractéristiques manquantes.

Erreurs parfois potentiellement mortelles trouvées publiées d'une enquête de KHN en mars dans les listes du médicament des patients, les essais en laboratoire et les allergies.

En raison des risques impliqués, les médecins doivent intervenir pour protéger les intérêts de leurs patients, ont dit M. Vikas Saini, un cardiologue et président de l'institut sans but lucratif de Lown, qui préconise pour un accès à des soins de santé plus large.

« Tandis que c'est la fonction des entrepreneurs de penser grand et de prendre des risques, » Saini a dit, « c'est la fonction des médecins de protéger leurs patients. »

Journal de la santé de KaiserCet article a été réimprimé de khn.org avec l'autorisation de la fondation de Henry J. Kaiser Family. Le journal de la santé de Kaiser, un service de nouvelles en qualité de rédacteur indépendant, est un programme de la fondation de famille de Kaiser, une organisation pour la recherche indépendante de police de santé indépendante avec Kaiser Permanente.