Intelligenza artificiale e apprendimento automatico nell'imaging biomedico

insights from industryDr. Hamid R. TizhooshProfessor Faculty of EngineeringUniversity of WaterlooAn interview with Professor Hamid Tizhoosh, conducted by James Ives

Faccia prego una generalità della ricerca passata sull'apprendimento automatico e dell'intelligenza artificiale nell'imaging biomedico. Che cosa possiamo corrente fare con questa ricerca?

Le due mansioni principali nell'imaging biomedico che sembrano essere predestinate naturalmente per essere risolto con gli algoritmi di AI sono la segmentazione e classificazione. La maggior parte delle tecniche utilizzate nell'imaging biomedico erano trattamento convenzionale di immagine, o algoritmi più ampiamente formulati di dispositivo ottico del computer.

Si può trovare molti impianti con le reti neurali artificiali, la spina dorsale in profondità dell'apprendimento. Tuttavia, la maggior parte impianto è stata messa a fuoco su dispositivo ottico del computer convenzionale che ha messo a fuoco ed ancora fa, sulle funzionalità “handcrafted„, tecniche che erano i risultati di progettazione manuale da estrarre utile e differenziando le informazioni dalle immagini mediche.

Un certo progresso era visibile verso la fine di 90s e primi anni '2000 (per esempio, il metodo di SETACCIAMENTO nel 1999, o dizionari visivi all'inizio del 2000 s) ma non c'erano le innovazioni. Tuttavia, le tecniche come il raggruppamento e la classificazione erano in uso con successo moderato.

le K-medie (un vecchio metodo di raggruppamento), i commputer di vettore di sostegno (SVM), gli schemi probabilistici e gli alberi di decisioni e le loro foreste casuali del ` esteso di versione' erano fra i riusciti approcci.  Ma le reti neurali artificiali hanno continuato ad essere a corto di aspettative non appena nell'imaging biomedico, ma nel dispositivo ottico del computer in generale.

Le reti basse (che consistono di alcuni livelli di neuroni artificiali) non potrebbero risolvere i problemi difficili e le reti profonde (che consistono di molti livelli di neuroni artificiali) non potrebbero essere preparate perché erano troppo grandi. Da ora alla metà del 2000 la s là era progresso teorico in materia con i primi esempi di successo principali all'inizio del 2010 s sui grandi gruppi di dati come ImageNet.

Ora improvvisamente, era possibile riconoscere i caponi e le automobili in un'immagine, esegue il riconoscimento facciale ed automaticamente contrassegna le immagini con un titolo che descrive il suo contenuto. Le indagini sulle applicazioni di questi metodi efficaci di AI nell'imaging biomedico ha cominciato durante i 3-4 anni scorsi ed è nella sua infanzia ma i risultati di promessa sono stati riferiti qua e là.  

Le che applicazioni sono ci per l'apprendimento automatico e l'intelligenza artificiale nell'imaging biomedico?

Sulla base delle pubblicazioni recenti, sembra rispettivamente che il fuoco di molti ricercatori sia sulla diagnosi, pricipalmente diagnosi del cancro, dove l'output del software di AI è spesso una decisione “sì/no„ per maligno/benigno.

L'altro flusso sta lavorando a segmentare (marcatura) le parti specifiche delle immagini, ancora con l'attenzione principale di molti impianti che sono sulla diagnosi e sull'analisi del cancro, ma anche per la programmazione del trattamento ed il video.

Tuttavia, ci sono molto più che il AI può offrire ad imaging biomedico. Esaminando i sui potenziali per il radiogenomics, automatico-intitolare delle immagini mediche, il riconoscimento dei reticoli altamente non lineari nei grandi gruppi di dati e quantificazione e visualizzazione del contenuto estremamente complesso di immagine, è appena alcuni esempi. Siamo all'inizio di un percorso emozionante con molte biforcazioni.

Che cosa sono le limitazioni correnti nella caratterizzazione dei tessuti e nei loro attributi con intelligenza artificiale? Che necessità di essere fatto per sormontare questo?

Il AI è un grande campo con un gran numero di tecniche basate delle idee differenti. In profondità imparare è appena uno di loro, ma è quello con la maggior parte del successo nel riconoscimento del contenuto di immagine negli ultimi anni. Tuttavia, l'apprendimento profondo affronta le sfide multiple in patologia digitale.

In primo luogo, richiede tantissime profonde immagini (contrassegnate) (immagini in cui la regione di interesse è stata delineata manualmente da un patologo) ma il flusso di lavoro generale di patologia digitale non fornisce le immagini contrassegnate. Ciò piombo la ricerca per lavorare ai casi specifici, per esempio, cancro al seno, per cui un piccolo numero di immagini contrassegnate possono essere fornite per dimostrare la fattibilità in profondità dell'apprendimento.

Un'altra sfida principale per in profondità l'apprendimento in patologia digitale è la dimensionalità del problema. Le immagini di patologia sono estremamente grandi, cioè, più in gran parte di 50.000 da 50.000 pixel. Le reti profonde, tuttavia, possono trattare soltanto le piccole immagini dell'input, cioè, non in gran parte di 300 da 300 pixel. le immagini di Giù-campionatura (che le rendono più piccole) provocherebbero una perdita di informazioni.

Un ostacolo ulteriore nella formazione delle reti profonde è che eseguono generalmente bene se sono alimentate con i dati “equilibrati„, quel mezzi che hanno quasi lo stesso numero delle immagini per qualunque categoria che dovete riconoscere. I dati squilibrati impediscono la generalizzazione, che significa che la rete può fare gli errori gravi dopo la formazione.

Un problema definitivo degno citare è i cosiddetti “attacchi contraddittori„ quando qualcuno con conoscenza del sistema, o di sfruttamento della presenza di artefatti e di disturbo, potrebbe finalmente imbrogliare una rete profonda in una decisione sbagliata, un effetto che è straordinario importante nell'imaging biomedico; non possiamo permettere che gli algoritmi siano imbrogliati quando stiamo occupando delle vite della gente.

La ricerca intensiva sta conducenda a molte parti anteriori per trovare le soluzioni per questi ed altro sfide. Tra l'altro, una soluzione potenziale che è lavorata sopra è “trasferimento che impara„, imparare in un dominio differente e trasferire la conoscenza nel dominio medico.

Possiamo insegnare al AI con milioni di foto naturali contrassegnate (per esempio, automobili, fronti di taglio, animali, edilizie) e poi usare la conoscenza acquisita sulle immagini dell'istopatologia? Altri rimedi potenziali sono di iniettare la conoscenza del dominio nelle reti profonde, preparanti i modelli “generativi„ che direttamente non si occupano della classificazione e combinanti le soluzioni profonde con gli algoritmi convenzionali e le funzionalità handcrafted.  

Come l'uso dell'interazione di imaging biomedico con altre prove istopatologiche? Hanno potuto essere sostituite con una ricerca semplice di immagine?

Definitivamente non. Le ricerche di immagine sarebbero un nuovo agevolatore che assisterà il patologo e fornirà le nuove comprensioni. Attualmente, non possiamo avere una comprensione accurata di dove la ricerca di immagine si adatterebbe il utilmente, ma sappiamo di sicuro che il patologo deve rimanere nel centro di tutto il trattamento.

Le mansioni che definiamo al AI ed al dispositivo ottico del computer ampiamente saranno specializzate e personalizzate; non possono rendere naturalmente altre tecnologie esistenti (non AI) ed altri modi di prove inutili. È interamente circa complementare le procedure attuali con le nuove comprensioni e la sostituzione loro; bene, almeno questo dovrebbe essere l'atteggiamento guidante.    

Faccia prego una generalità della vostra ricerca recente per avanzare questo campo e le tecniche che avete usato.

Al laboratorio di Kimia, stiamo lavorando ad un gran numero di tecniche, dalle reti profonde per supportare i commputer di vettore, dai reticoli binari locali a radon trasformi e dai autoencoders profondi a riduzione di dimensionalità.

La nostra filosofia della ricerca è senza riserve patologo-centrica; siamo là progettare le tecniche di AI che serviscono la comunità di patologia. Siamo convinti che questo sia il giusto modo di spiegamento del AI, vale a dire come assistente astuto al patologo e non ad un concorrente.

Abbiamo introdotto una variazione fondamentale nella nostra ricerca e ci siamo astenuti da dall'aggancio nella classificazione sì/no ed invece stiamo eseguendo molti esperimenti per capire la natura polimorfica del riconoscimento del tessuto prima che tentassimo di progettare una catena definitiva per il flusso di lavoro clinico.

Inoltre, non abbiamo perso il nostro fuoco su dispositivo ottico del computer non AI per là siamo molti metodi convenzionali che hanno esibito la parte posteriore mediocre della prestazione nel giorno, ma possiamo ora essere riscoperti come partner al AI potente contando sulle piattaforme di calcolo più veloci disponibili.  

Che vantaggi sono ci al radon trasformano che avete utilizzato nella vostra ricerca?

Ciò è un esempio dei nostri sforzi per non perdere di vista le tecnologie affermate. Il radon trasforma è una vecchia tecnica e ci ha permesso, tra l'altro, di fare la tomografia computerizzata.

Le proiezioni nelle piccole e grandi parti dell'immagine possono fornire informazioni compresse sulle caratteristiche del tessuto e dove i cambiamenti significativi accadono. Possono servire da input agli algoritmi di AI fornire l'ulteriore informazione in una regolazione in cui le tecnologie multiple funzionano insieme.

Il radon trasforma è non solo una tecnologia matematicamente sana ma, contrariamente alle reti profonde, è interpretabile. Perché un'immagine specifica è selezionata può essere relativamente facilemente comprensibile quando acquistiamo le proiezioni del radon, mentre milioni di moltiplicazioni e di aggiunte dentro una rete non offrono alcun modo plausibile per la comprensione perché una decisione specifica è stata presa.

Tuttavia, abbiamo bisogno delle architetture profonde di imparare. Quindi, combinare il vecchio ed il nuovo è qualcosa che stiamo investendo molto dentro.    

Come possono la ricerca e la categorizzazione artificialmente intelligenti delle immagini mediche accelerare la ricerca di malattia e migliorare la cura paziente?

Se abbandoniamo al il AI orientato a classificazione (che prende le decisioni sì/no), che punta su eliminare il ruolo diagnostico del patologo, quindi siamo lasciati con a AI orientato a estrazione che identifica ed estrae i simili reticoli dai grandi archivi delle immagini mediche.

La mostra delle immagini simili al patologo quando sta esaminando un nuovo caso non è qualche cosa di straordinaria, a meno che i casi recuperati siano annotati con le informazioni dei pazienti evidentemente diagnosticati a partire dall'esperienza.

Poi abbiamo qualcosa che non sia stato fatto mai prima: stiamo attingendo la saggezza collettiva dei medici stesse per fornire loro consultazione di calcolo. Il consulto degli altri patologi per i casi difficili è una pratica comune.

Tuttavia, la ricerca di immagine ci darà che l'accesso a consulta “informaticamente„ i centinaia di patologi attraverso il paese (ed il globo) attraverso le registrazioni digitali. Ciò accelererà il trattamento, diminuisce le tariffe di errore, salva le vite, rilascia il tempo apprezzato del patologo per altre mansioni (per esempio ricerca e formazione) e definitivo comprime i costi.

Dove vedete il futuro dell'apprendimento automatico per quanto riguarda imaging biomedico?

Forse molti di noi stanno sperando che il radiogeomics sia stato un cambiamento rivoluzionario nella diagnosi di malattia che tra l'altro renderebbe la biopsia superflua, come alcuni ricercatori prevedono audace.

Tuttavia, per il futuro prevedibile, dovremmo piuttosto esaminare “l'edilizia di consenso„. La manifestazione della difficoltà di diagnosi medica è chiaramente visibile nella cosiddetta “variabilità dell'inter osservatore„; medici non possono acconsentiree su una diagnosi o su una misura una volta dati lo stesso caso.

Per alcuni casi come il petto ed il cancro polmonare il disaccordo può avvicinarsi e perfino superare a 50% quando la posizione esatta della malignità è implicata. Facendo uso di AI per l'identificazione ed il recupero le anomalie e delle malignità simili aprirà l'orizzonte per il consenso di costruzione.

Se possiamo trovare parecchie migliaia di casi dei pazienti passati che possono essere abbinati con confidenza con i dati del paziente corrente, quindi “un consenso di calcolo„ non è lontano. La bellezza di è, ancora, che il AI non prenderà alcuna decisione diagnostica ma appena renderà la saggezza medica attuale accessibile, la saggezza che è corrente aratura nell'ambito dei Terabyte di polvere digitale.

Poichè la tecnologia avanza, ci saranno patologi di un bisogno in futuro?

Le mansioni ed il carico di lavoro dei patologi certamente passeranno attraverso una certa trasformazione ma la natura sensibile di cui fanno da un lato e la larghezza e la profondità di conoscenza che tengono, dall'altro lato, rende loro l'indispensabile come le ultime entità del riconoscimento.

È immaginabile in prossimo avvenire che, impiegando i linguaggi di programmazione ad alto livello, i patologi progettano ed insegnano ai loro propri agenti di AI per le mansioni molto specifiche. Non ingegneri, non informatici, sarà i patologi che avrebbero la conoscenza medica da essere incaricata di sfruttamento delle capacità di AI.

Dove possono i lettori trovare più informazioni?

Un buon colto su patologia digitale è il libro “patologia di Digital„ da Pantanowitz e da Parwani. Un buon tecnico colto sulle fondamenta di AI è “le reti neurali e commputer di apprendimento„ da Simon Haykin. Un altro tecnico colto “in profondità sta imparando„ da Goodfellow e da altri.

Per ottenere una generalità, “un'indagine in profondità sull'apprendimento nell'analisi sulla base di immagini medica„ da Litjens ed altre è un articolo aggiornato. Un articolo da intelligenza artificiale nominata di Dott. e me stesso Pantanowitz (università di centro medico di Pittsburgh) “in patologia digitale - le sfide e le opportunità„ presto compariranno nel giornale dell'informatica di patologia.

Circa prof. Hamid Tizhoosh

Il Dott. Hamid R. Tizhoosh è un professore nella facoltà di assistenza tecnica all'università di Waterloo dal 2001 in cui piombo il laboratorio di KIMIA (laboratorio per l'illazione di conoscenza nell'analisi sulla base di immagini medica).

Prima che unisca l'università di Waterloo, era un socio di ricerca al laboratorio dei sistemi di intelligenza e di conoscenza all'università di Toronto in cui ha lavorato all'allocazione dinamica di larghezza di banda facendo uso dei metodi di AI come apprendimento di rinforzo.

Dal 1993, le sue attività di ricerca comprendono l'intelligenza artificiale, il dispositivo ottico del computer e l'imaging biomedico. Ha sviluppato gli algoritmi per la filtrazione, la segmentazione e la ricerca mediche di immagine. È l'autore di due libri, 14 capitoli del libro e più di 140 giornale ed atti del congresso.

Egualmente file 5 brevetti in collaborazione con WatCo (ufficio di commercializzazione di Waterloo). Il Dott. Tizhoosh ha estesa esperienza industriale ed ha lavorato con le numerose società. Attualmente, è il Consigliere di patologia di Huron Digital, la st Jacobs di AI, SOPRA, il Canada.