I reclami pubblicizzati che il AI batte medici alla diagnosi potrebbero nuocere alla sicurezza paziente

Una serie di studi sostengono che l'intelligenza artificiale (AI) fa pure o migliorano che medici all'interpretazione delle immagini ed a diagnosticare le condizioni mediche. Tuttavia, uno studio recente pubblicato Nel BMJ nel marzo 2020 rivela che la maggior parte di questa ricerca è difettosa ed i risultati esagerati. Il risultato potrebbe essere che la decisione per adottare il AI come componente di cura paziente è basata sopra i locali difettosi, compromettenti la qualità di cura paziente per milioni di persone.

Intelligenza artificiale

Il AI è un campo avanzato di computazione, con molti scoperte e risultati al suo credito. È egualmente notevole per il suo livello di innovazione. Con la sue flessibilità ed abilità “impari„ dalle esperienze precedenti, è sollecitata come una soluzione per contribuire a migliorare la cura paziente ed a decollare alcuno del lavoro dalle spalle dei professionisti di sanità che hanno troppo da fare. In particolare, l'apprendimento automatico profondo è un'area di AI che è probabilmente incredibilmente utile nell'interpretazione delle immagini mediche correttamente.

Credito di immagine: metamorworks/Shutterstock
I ricercatori hanno esaminato sistematicamente la progettazione, riferente gli standard, il rischio di tendenziosità ed i reclami degli studi che paragonano la prestazione degli algoritmi di apprendimento profondi diagnostici per imaging biomedico a quello dei clinici esperti. Credito di immagine: metamorworks/Shutterstock

Molti altri studi stanno comparendo sull'uso in profondità dell'apprendimento in materia. Sia gli articoli della ricerca che i titoli di media sembrano spesso implicare che l'apprendimento profondo possa eseguire meglio di medici a questo compito, contribuente a determinare la domanda per introdurre questo in pratica clinica sistematica. Tuttavia, l'elemento mancante è un esame imparziale della prova che si trova dietro questo reclamo come pure di una valutazione del rischio dietro l'affidamento delle tali mansioni ai commputer.

Il fuoco di tale ricerca è nelle reti neurali dell'avvolgimento (CNN) che sono alimentate con i dati grezzi e poi sviluppa i loro propri meccanismi per riconoscere i reticoli nei dati. La caratteristica dell'apprendimento effettuato da CNNs è che l'algoritmo stesso viene ad identificare le funzionalità di immagine che contribuiscono a classificare l'immagine nella giusta categoria. Ciò è contrariamente a convenzionale programmando quello dipende da input umano per selezionare la giusta funzionalità.

Secondo i ricercatori, i reclami esagerati in materia sono rischiosi. “Il pericolo è che l'appetito pubblico e commerciale per la sanità AI supera lo sviluppo di una base rigorosa di prova per supportare questo comparativamente giovane campo.„ Invece, indicano la necessità in primo luogo di sviluppare e convalidare un algoritmo, compreso la dimostrazione della sua efficacia nella predizione dello stato scelto. Il secondo punto è di valutare la sua utilità nell'ambiente nel diagnosticare la malattia con le prove ben-condotte e trasparenti.

Lo studio

Lo studio corrente è stato messo a fuoco sulla produzione dell'esame di tutti gli studi pubblicati negli ultimi dieci anni. Lo scopo principale era di confrontare come un algoritmo di apprendimento profondo ha eseguito nell'imaging biomedico contro i medici specialisti.

Sorprendente, c'erano soltanto due hanno ripartito le probabilità sulle prove controllate e su 81 studio non ripartito le probabilità su che hanno compiuto i criteri di studio. Questi studi hanno mirato ad usare le immagini mediche per classificare la persona come avendo o non avendo lo stato di malattia.

Nel gruppo posteriore, c'erano soltanto nove prove future, dove i dati sono stati raccolti col passare del tempo tenendo la carreggiata i diversi partecipanti. Fra questi, soltanto 6 hanno avuto luogo in una situazione clinica reale. Ciò la fa che sfida per confrontare la prestazione dei clinici contro l'apprendimento automatico. Il risultato potrebbe essere una tariffa erroneamente positiva in modo inaccettabile alta, che non è riferita o rapidamente evidente. Inoltre, gli studi retrospettivi sono citati tipicamente come prova per le applicazioni di approvazione, sebbene la diagnosi non sia fatta retrospettivamente.

In media, c'erano soltanto 4 esperti umani nel gruppo contro cui il commputer è stato collaudato sopra tutti gli studi. I ricercatori nello studio corrente egualmente hanno trovato che pochissimo dei dati grezzi o del codice è stato pubblicato, limitante la loro capacità di esaminare indipendente i risultati.

Egualmente hanno trovato un'alta probabilità di tendenziosità in 58/81 di studi. La tendenziosità significa che la progettazione di studio non non perfezionamento con cura sufficiente per evitare le emissioni che potrebbero cambiare i risultati della ricerca. Secondariamente, hanno trovato che gli studi non hanno seguito spesso gli standard della segnalazione accettati.

In circa 75% delle prove, la conclusione si è coricata nei termini che suggeriscono che il AI eseguisse come pure o migliorasse che gli esperti umani. In confronto, soltanto 38% degli studi ha indicato l'esigenza della più ricerca sotto forma di studi prospettivi o ha ripartito le probabilità sulle prove controllate. Il commento degli autori di studio presente: “[] Uso giudizioso e responsabile del linguaggio negli studi e nei comunicati stampa che scompongono nella resistenza e la qualità della prova può aiutare„ - raggiungere un'interpretazione adeguata dei risultati di studio.

Implicazioni

Lo studio corrente ha presentato le sue limitazioni, quale la possibilità che alcuni studi pertinenti sono stati mancati e che soltanto il ruolo di AI sotto forma di apprendimento automatico profondo è stato esaminato. Di conseguenza, le conclusioni non possono essere generalizzabili ad altri tipi di AI.

D'altra parte, dicono che ci sono molti reclami possibilmente esagerati che fanno i giri nel mondo della ricerca circa la prestazione equivalente o superiore dell'apprendimento automatico confrontata agli esperti clinici. Nelle loro parole, “molti reclami discutibilmente esagerati esistono circa equivalenza con (o superiorità più) i clinici, che presenta un rischio potenziale per la sicurezza e la salubrità pazienti della popolazione al livello sociale.„

Cioè facendo uso del linguaggio pubblicizzato-su presentare i risultati di promessa di not-so può piombo egualmente alla loro interpretazione errata dai media e dal pubblico. Di conseguenza, hanno detto, questo potrebbe piombo “alla disposizione possibile di cura inadeguata che necessariamente non allinea con gli interessi dei pazienti.„

Invece, dica i ricercatori, “lo sviluppo di una prova più di alta qualità e più trasparente riferita muoversi basso in avanti contribuirà ad evitare la campagna pubblicitaria, diminuire lo spreco della ricerca ed a proteggere i pazienti.„

Journal reference:
  • Nagendran, M., Chen, Y., Lovejoy C. A., et al. Artificial intelligence versus clinicians: systematic review of design, reporting standards, and claims of deep learning studies. BMJ 2020;368:m689. https://www.bmj.com/content/368/bmj.m689
Dr. Liji Thomas

Written by

Dr. Liji Thomas

Dr. Liji Thomas is an OB-GYN, who graduated from the Government Medical College, University of Calicut, Kerala, in 2001. Liji practiced as a full-time consultant in obstetrics/gynecology in a private hospital for a few years following her graduation. She has counseled hundreds of patients facing issues from pregnancy-related problems and infertility, and has been in charge of over 2,000 deliveries, striving always to achieve a normal delivery rather than operative.

Citations

Please use one of the following formats to cite this article in your essay, paper or report:

  • APA

    Thomas, Liji. (2020, March 25). I reclami pubblicizzati che il AI batte medici alla diagnosi potrebbero nuocere alla sicurezza paziente. News-Medical. Retrieved on April 01, 2020 from https://www.news-medical.net/news/20200325/Hyped-claims-that-AI-outdoes-doctors-at-diagnosis-could-harm-patient-safety.aspx.

  • MLA

    Thomas, Liji. "I reclami pubblicizzati che il AI batte medici alla diagnosi potrebbero nuocere alla sicurezza paziente". News-Medical. 01 April 2020. <https://www.news-medical.net/news/20200325/Hyped-claims-that-AI-outdoes-doctors-at-diagnosis-could-harm-patient-safety.aspx>.

  • Chicago

    Thomas, Liji. "I reclami pubblicizzati che il AI batte medici alla diagnosi potrebbero nuocere alla sicurezza paziente". News-Medical. https://www.news-medical.net/news/20200325/Hyped-claims-that-AI-outdoes-doctors-at-diagnosis-could-harm-patient-safety.aspx. (accessed April 01, 2020).

  • Harvard

    Thomas, Liji. 2020. I reclami pubblicizzati che il AI batte medici alla diagnosi potrebbero nuocere alla sicurezza paziente. News-Medical, viewed 01 April 2020, https://www.news-medical.net/news/20200325/Hyped-claims-that-AI-outdoes-doctors-at-diagnosis-could-harm-patient-safety.aspx.