Un confronto con la realtà su intelligenza artificiale: Sono i reclami di sanità esagerati?

I prodotti di salubrità alimentati da intelligenza artificiale, o il AI, stanno scorrendo nelle nostre vite, dai apps virtuali di medico ai sensori portabili e ai chatbots della farmacia.

IBM si è vantato che il suo AI potrebbe “outthink il cancro.„ Altri dicono che sistemi informatici che leggono raggi x renderà i radiologi obsoleti.

“C'è niente che abbia veduto durante i miei 30 anni più che studio la medicina che potrebbe essere impactful e trasformatrice„ quanto il AI, abbia detto il Dott. Eric Topol, un cardiologo e vice presidente esecutivo della ricerca di Scripps a La Jolla, la latta della California AI aiuta medici ad interpretare MRIs del cuore, delle scansioni di CT della testa e delle fotografie della parte posteriore dell'occhio e potrebbe potenzialmente assumere la direzione di molti lavoretti medici terreni, liberanti cura per passare più tempo che parla con pazienti, Topol ha detto.

Anche Food and Drug Administration - che ha approvato più di 40 prodotti di AI durante i cinque anni scorsi - dice che “il potenziale di salubrità digitale è niente rivoluzionario di a corto di.„

Eppure molti prodotti AI basati di timore degli esperti nell'industria di salubrità non potranno abbinare la campagna pubblicitaria. Molti medici e avvocati di consumatore temono che l'industria di tecnologia, che vive dal mantra “venire a mancare velocemente e lo fissa più successivamente,„ stia mettendo i pazienti al rischio - e che i regolatori non stanno facendo abbastanza per tenere i consumatori sicuri.

Gli esperimenti iniziali nel AI forniscono una ragione per l'avvertenza, hanno detto Mildred Cho, un professore della pediatria al centro di Stanford per l'etica biomedica.

I sistemi si sono sviluppati spesso in una caduta dell'ospedale una volta spiegati in una funzione differente, Cho ha detto. Il software utilizzato nella cura di milioni di Americani è stato indicato per discriminare contro le minoranze. Ed i sistemi di AI a volte imparano fare le previsioni basate sui fattori che hanno di meno da fare con la malattia che la marca di MRI lavora usato, il tempo che un'analisi del sangue è catturata o su se un paziente è stato visualizzato da un cappellano. In un caso, il software di AI ha concluso in modo errato che la gente con polmonite era meno probabile morire se avessero asma - un errore che potrebbe piombo medici privare i pazienti di asma della cura che extra hanno bisogno di.

“È soltanto una questione di tempo prima che qualcosa di simile piombo ad un problema sanitario serio,„ ha detto il Dott. Steven Nissen, presidente della cardiologia alla clinica di Cleveland.

Il AI medico, che ha tirato dentro $1,6 miliardo in finanziamento di capitali di rischio nel terzo trimestre da solo, è “quasi al picco delle aspettative gonfiate,„ conclusivo un rapporto di luglio dalla società Gartner di ricerca. “Poichè la realtà ottiene provata, ci probabilmente sarà un ruvido si infila nella depressione di disillusione.„

Quel confronto con la realtà potrebbe venire sotto forma di risultati deludenti quando i prodotti di AI sono annunciati nel mondo reale. Anche Topol, l'autore “di medicina profonda: Come l'intelligenza artificiale può fare ancora l'essere umano di sanità,„ riconosce che molti prodotti di AI sono poco più dell'aria calda. “È un giardinetto,„ ha detto.

Gli esperti quale il Dott. Bob Kocher, un partner alla società di venture capital Venrock, sono più smussati. “La maggior parte dei prodotti di AI hanno poca prova per supportarle,„ Kocher ha detto. Alcuni rischi non diventeranno evidenti fino ad usare un sistema di AI da tantissimi pazienti. “Stiamo andando continuare scoprire un intero mazzo di rischi e conseguenze non intenzionali di usando AI sui dati medici,„ Kocher ha detto.

Nessuno dei prodotti di AI venduti negli Stati Uniti sono stati provati nei test clinici ripartiti con scelta casuale, la più forte sorgente di prova medica, Topol ha detto. Il primo e soltanto la prova ripartita con scelta casuale di un sistema di AI - che ha trovato che colonoscopia con i polipi più piccoli trovati di diagnosi assistita dall'elaboratore che la colonoscopia standard - è stato pubblicato ad ottobre online.

Pochi avvii di tecnologia pubblicano la loro ricerca in pubblicazioni pari-esaminate, che permettono che altri scienziati controllino il loro lavoro, secondo un articolo di gennaio nel giornale europeo di ricerca clinica. Tale “ricerca di azione furtiva„ - descritta soltanto nei comunicati stampa o negli eventi promozionali - esagera spesso le realizzazioni di una società.

E sebbene gli sviluppatori di software possano vantarsi circa l'accuratezza delle loro unità di AI, nota degli esperti che i modelli di AI principalmente sono provati sui computer, non in ospedali o in altri impianti medici. Facendo uso di software infondato “può trasformare i pazienti le cavie involontarie,„ ha detto il Dott. Ron Li, Direttore medico dell'informatica per integrazione clinica di AI alla sanità di Stanford.

I sistemi di AI che imparano riconoscere i reticoli nei dati sono descritti spesso come “scatole nere„ perché neppure i loro rivelatori non sanno hanno raggiunto le loro conclusioni. Poichè il AI è così nuovo - e molti del suo sconosciuto di rischi - il campo ha bisogno della svista attenta, ha detto Pilar Ossorio, un professore di diritto e bioetica all'università di Wisconsin-Madison.

Eppure la maggior parte delle unità di AI non richiede l'approvazione di FDA.

“Nessuno delle società che ho investito dentro sono coperte dai regolamenti di FDA,„ Kocher ha detto.

La legislazione passata dal congresso nel 2016 - e sostenuto dall'industria di tecnologia - esenta molti tipi di software medici dall'esame federale, compreso determinati apps di forma fisica, le cartelle mediche elettroniche e gli strumenti che aiutano medici a prendere le decisioni mediche.

C'è stato poca ricerca sopra se i 320.000 apps medici ora in uso realmente migliorano la salubrità, secondo un rapporto sul 17 dicembre pubblicato AI dall'accademia nazionale di medicina.

Se venendo a mancare i mezzi veloci un l'intero mazzo di gente morirò, non pensi che vogliamo venire a mancare velocemente. Nessuno sta andando che essere felice, compreso gli investitori, se la gente muore o è severamente ferita.

Oren Etzioni, direttore generale all'istituto di Allen per AI a Seattle

“Quasi nessuno della roba [AI] di marketing agli impianti dei pazienti realmente,„ ha detto il Dott. Ezekiel Emanuel, professore dell'etica e del criterio di integrità medici nella scuola di medicina di Perelman all'università della Pennsylvania.

FDA lungamente ha concentrato la sua attenzione sulle unità che posano la più grande minaccia contro i pazienti. E gli avvocati di consumatore riconoscono che alcune unità - come un che aiutano la gente a contare i loro punti quotidiani - hanno bisogno di meno esame accurato che un che diagnostichino o trattino la malattia.

Alcuni sviluppatori di software non si preoccupano di fare domanda per spazio o autorizzazione di FDA, anche quando richiesti legalmente, secondo uno studio 2018 negli annali di medicina interna.

Gli analisti industriali dicono che i rivelatori di AI hanno poco interesse nella conduzione delle prove costose e che richiede tempo. “Non è il principale preoccupazione di queste ditte per presentarsi alla valutazione rigorosa che sarebbe pubblicata in un giornale pari-esaminato,„ ha detto Joachim Roski, un principale a Booz Allen Hamilton, un'azienda di consulenza di tecnologia e co-author della relazione dell'accademia nazionale. “Che non è come l'economia di Stati Uniti funziona.„

Ma Oren Etzioni, direttore generale all'istituto di Allen per AI a Seattle, ha detto rivelatori di AI ha un incentivo finanziario da assicurarsi che i loro prodotti medici fossero sicuri.

“Se venendo a mancare i mezzi veloci un l'intero mazzo di gente morirà, non penso che vogliamo venire a mancare velocemente,„ Etzioni ha detto. “Nessuno sta andando essere felice, compreso gli investitori, se la gente muore o è severamente ferita.„

Standard di rilassamento a FDA

FDA è venuto sotto tiro negli ultimi anni per permettere la vendita degli apparecchi medici pericolosi, che sono stati collegati dal consorzio internazionale dei giornalisti investigativi a 80.000 morti e a 1,7 milione lesioni negli ultimi dieci anni.

Molte di queste unità sono state rimosse per uso con un trattamento discutibile chiamato i 510 (k) via, che permette che le società commercializzino i prodotti “di moderato-rischio„ senza la prova clinica finchè sono reputati simili alle unità attuali.

Nel 2011, un comitato dell'accademia nazionale di medicina ha concluso i 510 (k) il trattamento è così fondamentalmente difettoso che FDA dovrebbe gettarlo fuori e rincominciare.

Invece, FDA sta usando il trattamento alle unità di AI del greenlight.

Dei 14 prodotti di AI autorizzati entro FDA nel 2017 e 2018, 11 sono stati annullati con i 510 (k) trattamento, secondo un articolo di novembre in JAMA. Nessuno di questi sembrano avere nuova prova clinica, lo studio ha detto. FDA ha rimosso un'unità di AI destinata per contribuire a diagnosticare il fegato ed il cancro polmonare nel 2018 basato sulla sua similarità al software della rappresentazione ha approvato 20 anni più in anticipo. Quel software stesso era stato rimosso perché è stato reputato “sostanzialmente equivalente„ ai prodotti di marketing prima del 1976.

I prodotti di AI rimossi da FDA oggi sono in gran parte “bloccati,„ in modo che i loro calcoli e risultati non cambino dopo che accedono al servizio, ha detto Bakul Patel, Direttore per salubrità digitale al centro di FDA per le unità e la salubrità radiologica. FDA ancora non ha autorizzato le unità “aperte„ di AI, di cui i risultati potrebbero variare da un mese all'altro nei modi che i rivelatori non possono predire.

Per occuparsi della pletora di prodotti di AI, FDA sta verificando un approccio radicalmente differente al regolamento digitale dell'unità, mettente a fuoco sulle società di valutazione, non prodotti.

Il programma pilota “della pre-certificazione„ di FDA, varato nel 2017, è progettato “diminuisce il periodo ed il costo dell'entrata del mercato per gli sviluppatori di software,„ imponendo “il meno„ sistema pesante possibile. I funzionari di FDA dicono che vogliono stare al passo con gli sviluppatori di software di AI, che aggiornano molto più frequentemente i loro prodotti dei creatori delle unità tradizionali, quali i commputer di raggi x.

Scott Gottlieb ha detto nel 2017 mentre era commissario di FDA che i regolatori di governo devono assicurarsi che il suo approccio ai prodotti innovatori “fosse efficiente e che promuove, non impedisce, innovazione.„

Nell'ambito della pianificazione, FDA pre-certificherebbe le società che “dimostri una cultura di qualità e di eccellenza organizzativa,„ che li permetterebbe di fornire di meno in anticipo dati circa le unità.

le società Pre-certificate potrebbero poi rilasciare le unità con una critica “aerodinamica„ - o nessuna critica di FDA affatto. Una volta che i prodotti sono sul servizio, le società saranno responsabili del video della loro propria sicurezza dei prodotti e della segnalazione di nuovo a FDA. Nove società sono state selezionate per il pilota: Apple, FitBit, Samsung, Johnson & Johnson, terapeutica della pera, fosforo, Roche, Tidepool e veramente scienze biologiche.

I prodotti ad alto rischio, quale software utilizzato in stimolatore cardiaci, ancora otterranno una valutazione completa di FDA. “Definitivamente non vogliamo i pazienti essere ferita,„ ha detto Patel, che ha notato che le unità rimosse con la pre-certificazione possono essere richiamate se avute bisogno di. “Ci sono ancora molte guardavie sul posto.„

Ma la ricerca indica che le anche unità di moderato-rischio e basse sono state richiamato dovuto i rischi seri ai pazienti, ha detto Diana Zuckerman, Presidente del centro nazionale per la ricerca di salubrità. “La gente potrebbe essere danneggiata perché qualcosa non è stato richiesto essere accurato o sicuro provato prima che fosse ampiamente usato.„

Johnson & Johnson, per esempio, ha richiamato gli innesti del cinorrodo e la maglia chirurgica.

In una serie delle lettere a FDA, American Medical Association ed altri hanno messo in discussione la saggezza di permettere che le società riflettano la loro proprie prestazione e sicurezza del prodotto.

“Il sistema di onore non è un regime regolatore,„ ha detto il Dott. Jesse Ehrenfeld, che presiede il comitato dei garanti del gruppo del medico.

In una lettera di ottobre a FDA, Sen. Il labirinto di Elizabeth (la D-Massa.), Tina Smith (D-Minn.) e Patty Murray (D-Lavaggio.) hanno messo in discussione la capacità dell'agenzia di assicurare la società le relazioni sulla sicurezza che sono “accurate, tempestivo e basato su tutte le informazioni disponibili.„

Una volta buoni gli algoritmi vanno a male

Alcune unità di AI sono collaudate più con attenzione che altre.

Uno strumento AI a forza della selezione per la malattia dell'occhio diabetica è stato studiato in 900 pazienti a 10 uffici di pronto intervento prima dell'approvazione nel 2018. Il produttore, le tecnologie di IDx, lavorate con FDA affinchè otto anni ottenga la destra del prodotto, ha detto il Dott. Michael Abramoff, il fondatore della società e presidente del dirigente.

La prova, venduta sotto il nome di IDx-DOTT, scherma i pazienti per retinopatia diabetica, una causa principale di cecità e fa riferimento i pazienti ad alto rischio agli specialisti di occhio, che fanno una diagnosi definitiva.

IDx-DOTT è il primo prodotto “autonomo„ di AI - uno che può prendere una decisione della selezione senza un medico. La società ora sta installandolo nelle cliniche e nelle drogherie di pronto intervento, in cui può essere gestita dagli impiegati con un diploma di High School. La società di Abramoff ha intrapreso l'azione insolita di assicurazione sulla responsabilità civile d'acquisto per riguardare tutte le lesioni pazienti.

Eppure alcune innovazioni AI basate progettate per migliorare la cura hanno avute l'effetto opposto.

Una società canadese, per esempio, software sviluppato di AI per predire il rischio di una persona di Alzheimer basato sul loro discorso. Le previsioni erano più accurate per alcuni pazienti che altre. “La difficoltà che trova la giusta parola può essere dovuto la estraneità con l'inglese, piuttosto che a danno conoscitivo,„ ha detto il co-author Rudzicz franco, un professore associato dell'informatica all'università di Toronto.

Medici all'ospedale del monte Sinai di New York hanno sperato che il AI potrebbe aiutarli per usare la radiografia del torace per predire quali pazienti erano ad ad alto rischio di polmonite. Sebbene il sistema faccia le previsioni accurate dallo scatto dei raggi x al monte Sinai, la tecnologia flopped una volta provata sulle immagini catturate ad altri ospedali. Finalmente, i ricercatori hanno realizzato che il computer soltanto aveva imparato dire la differenza fra la radiografia del torace portatile di quell'ospedale - catturata al lato del letto di un paziente - con quelli contenuto l'instituto della radiologia. Medici tendono ad usare la radiografia del torace portatile per i pazienti troppo malati per lasciare la loro stanza, in modo da non è sorprendente che questi pazienti hanno avuti un maggior rischio di infezione del polmone.

Mentre è il processo degli imprenditori pensare grande ed assumersi le responsabilità, è il processo di medici proteggere i loro pazienti.

Dott. Vikas Saini, un cardiologo e Presidente dell'istituto senza scopo di lucro di Lown, che sostiene per più ampio accesso alle cure sanitarie

DeepMind, una società di proprietà da Google, ha creato un cellulare AI basato app che può predire che quale ha ospedalizzato i pazienti svilupperanno in anticipo l'insufficienza renale acuta fino a 48 ore. Un paletto del blog sul sito Web di DeepMind ha descritto il sistema, usato ad un ospedale di Londra, come “commutatore del gioco.„ Ma il sistema di AI egualmente ha prodotto due falsi allarmi per ogni risultato corretto, secondo uno studio di luglio in natura. Quello può spiegare perché la funzione del rene dei pazienti non è migliorato, ha detto il Dott. Saurabh Jha, professore associato della radiologia all'ospedale dell'università della Pennsylvania. Qualsiasi vantaggio da individuazione tempestiva dei problemi seri del rene può essere diluito da un tasso alto “di overdiagnosis,„ in cui il sistema di AI ha inbandierato le emissioni del rene limite che non hanno avuto bisogno del trattamento, Jha ha detto. Google ha avuto no comment in risposta alle conclusioni di Jha.

I falsi positivi possono nuocere ai pazienti spingendo medici ad ordinare le prove inutili o trattenersi ha raccomandato i trattamenti, Jha ha detto. Per esempio, un medico si è preoccupato per i reni di un paziente potrebbe smettere di prescrivere l'ibuprofene - un analgesico generalmente sicuro che comporta un piccolo rischio alla funzione del rene - a favore di un opioide, che porta un rischio serio di dipendenza.

Come questi studi mostri, software con i risultati impressionanti in un laboratorio del computer può affondare una volta provato in tempo reale, il Cho di Stanford ha detto. Quello è perché le malattie sono più complesse - ed il sistema sanitario molto più disfunzionale - che molti informatici anticipano.

Molti rivelatori di AI selezionano le cartelle mediche elettroniche perché tengono i gran quantità dei dati dettagliati, Cho ha detto. Ma quei rivelatori non sono spesso informati che stanno costruendo in cima ad un sistema profondamente rotto. Le cartelle mediche elettroniche sono state elaborate per cura di fatturazione e non paziente e sono compilate di errori o di dati mancanti.

Una ricerca di KHN pubblicata a marzo ha trovato gli errori a volte pericolosi nelle liste del farmaco dei pazienti, nelle prove di laboratorio e nelle allergie.

In considerazione dei rischi coinvolgere, medici devono fare un passo dentro per proteggere gli interessi dei loro pazienti, hanno detto il Dott. Vikas Saini, un cardiologo e Presidente dell'istituto senza scopo di lucro di Lown, che sostiene per più ampio accesso alle cure sanitarie.

“Mentre è il processo degli imprenditori pensare grande ed assumersi le responsabilità,„ Saini ha detto, “è il processo di medici proteggere i loro pazienti.„

Notizie di salubrità di KaiserQuesto articolo è stato ristampato da khn.org con l'autorizzazione delle fondamenta di Henry J. Kaiser Family. Le notizie di salubrità di Kaiser, un servizio di notizie editorialmente indipendente, sono un programma delle fondamenta della famiglia di Kaiser, un organismo di ricerca indipendente di polizza di sanità unaffiliated con Kaiser Permanente.