Attenzione: questa pagina è una traduzione automatica di questa pagina originariamente in lingua inglese. Si prega di notare in quanto le traduzioni sono generate da macchine, non tutte le traduzioni saranno perfetti. Questo sito web e le sue pagine web sono destinati ad essere letto in inglese. Ogni traduzione del sito e le sue pagine web possono essere imprecise e inesatte, in tutto o in parte. Questa traduzione è fornita per comodità.

Lo studio offre i dati relativi alla responsabilità potenziale dei medici per utilizzare il AI nella medicina personale

I medici che seguono il consiglio di intelligenza (AI) artificiale possono essere considerati meno suscettibile per l'atto illecito medico che è ritenuto comunemente, secondo un nuovo studio dei candidati potenziali della giuria negli Stati Uniti pubblicati nell'edizione di gennaio del giornale di medicina nucleare (JNM). Lo studio fornisce i primi dati relativi alla responsabilità potenziale dei medici per utilizzare il AI nella medicina personale, che può deviare spesso da cura standard.

I nuovi strumenti di AI possono assistere i medici nelle raccomandazioni e nei sistemi diagnostici del trattamento, compreso l'interpretazione delle immagini mediche. Ma se i medici contano sugli strumenti di AI e le cose vanno male, quanto probabilmente è un giurato per trovarli legalmente suscettibili? Molti tali casi non raggiungerebbero mai una giuria, ma per una che ha fatto, la risposta dipende dalle visualizzazioni e dalla testimonianza dei medici specialisti e dal processo decisionale delle giurie stese. Il nostro studio è il primo da mettere a fuoco su quell'ultimo aspetto, studiante gli atteggiamenti dei giurati potenziali circa i medici che usano il AI.„

Kevin Tobia, JD, PhD, assistente universitario di legge, centro di legge di Georgetown University, DC di Washington

Per determinare i giudizi dei giurati potenziali della responsabilità, i ricercatori hanno intrapreso gli studi online di un campione rappresentativo di 2.000 adulti negli Stati Uniti. Ogni partecipante ha letto uno di quattro scenari in cui un sistema di AI ha fornito una raccomandazione del trattamento di dosaggio della droga ad un medico. Gli scenari hanno variato la raccomandazione di AI (dosaggio standard o non standard della droga) e la decisione del medico (per accettare o rifiutare la raccomandazione di AI). In tutti gli scenari, la decisione del medico successivamente ha causato il danno al paziente.

I partecipanti di studio poi hanno valutato la decisione del medico valutando se la decisione del trattamento era una che potrebbe essere fatta “dalla maggior parte dei medici„ e “da un medico ragionevole„ in simili circostanze. Gli più alti punteggi hanno indicato il maggior accordo e, pertanto, la responsabilità più bassa.

I risultati dallo studio hanno indicato che i partecipanti hanno usato due fattori differenti per valutare l'utilizzazione dei medici dei sistemi medici di AI: (1) se il trattamento fornito era standard e (2) se il medico ha seguito la raccomandazione di AI. I partecipanti hanno giudicato i medici che accettato una raccomandazione standard di AI più favorevole di coloro che la ha rifiutata. Tuttavia, se un medico ricevesse una raccomandazione non standard di AI, lui o lei non è stata giudicata come più sicura dalla responsabilità rifiutandola.

Mentre la letteratura priore suggerisce che i laypersons siano molto avversi a AI, questo studio ha trovato che, infatti, si oppongono a non forte all'accettazione di un medico delle raccomandazioni mediche di AI. Ciò che trova suggerisce che la minaccia della responsabilità legale di un medico per l'accettazione delle raccomandazioni di AI possa essere più piccola di comunemente è pensata.

In una prospettiva invitata sull'articolo di JNM, sul W. Nicholson Price II e sui colleghi celebri, “responsabilità è probabile influenzare il comportamento dei medici che decidono se seguire il consiglio di AI, gli ospedali che applicano gli strumenti di AI per uso del medico ed i rivelatori che creano quegli strumenti in primo luogo. Lo studio di Tobia ed altri dovrebbe servire da testa di ponte utile affinchè ulteriore lavoro informi il potenziale per l'integrazione del AI in pratica medica.„

In un articolo associato di JNM, gli autori di studio sono stati intervistati da Irène Buvat, PhD e KEN Herrmann, il MD, MBA, sia guide nella medicina nucleare che la rappresentazione molecolare sistema. Nell'intervista gli autori discussi se i risultati del loro studio potrebbero sostenere in altri paesi, se il AI potesse essere considerato come tipo “di medico specialista,„ e dei vantaggi di usando AI da una prospettiva legale, tra altri argomenti.

Source:
Journal reference:

Tobia, K., et al. (2021) When Does Physician Use of AI Increase Liability?. Journal of Nuclear Medicine. doi.org/10.2967/jnumed.120.256032.