Aviso: Esta página é uma tradução automática da página original em inglês. Por favor note uma vez que as traduções são geradas por máquinas, não tradução tudo será perfeita. Este site e suas páginas da Web destinam-se a ler em inglês. Qualquer tradução deste site e suas páginas da Web pode ser imprecisas e imprecisos no todo ou em parte. Esta tradução é fornecida como uma conveniência.

O estudo oferece os dados relativos à responsabilidade potencial dos médicos para usar o AI na medicina personalizada

Os médicos que seguem o conselho da inteligência (AI) artificial podem ser considerados menos responsável para a negligência médica do que são pensados geralmente, de acordo com um estudo novo de candidatos potenciais do júri nos E.U. publicados na introdução de janeiro do jornal da medicina nuclear (JNM). O estudo fornece os primeiros dados relativos à responsabilidade potencial dos médicos usando o AI na medicina personalizada, que pode frequentemente se afastar do cuidado padrão.

As ferramentas novas do AI podem ajudar a médicos nas recomendações e nos diagnósticos do tratamento, incluindo a interpretação de imagens médicas. Mas se os médicos confiam em ferramentas do AI e as coisas vão mal, como é provavelmente um jurado para encontrá-las legalmente responsáveis? Muitos tais casos nunca alcançariam um júri, mas para um que fez, a resposta depende das ideias e do testemunho dos médicos especialistas e da tomada de decisão de júris colocados. Nosso estudo é o primeiro a centrar-se sobre esse último aspecto, estudando as atitudes de jurado potenciais sobre os médicos que usam o AI.”

Kevin Tobia, JD, PhD, professor adjunto da lei, centro de aconselhamento jurídico da universidade de Georgetown, C.C. de Washington

Para determinar os julgamentos de jurado potenciais da responsabilidade, os pesquisadores conduziram um estudo em linha de uma amostra representativa de 2.000 adultos nos E.U. Cada participante leu uma de quatro encenações em que um sistema do AI forneceu uma recomendação do tratamento da dosagem da droga a um médico. As encenações variaram a recomendação do AI (dosagem padrão ou não padronizada da droga) e a decisão do médico (para aceitar ou rejeitar a recomendação do AI). Em todas as encenações, a decisão do médico causou subseqüentemente o dano ao paciente.

Os participantes do estudo avaliaram então a decisão do médico avaliando se a decisão do tratamento era uma que poderia ter sido feita por “a maioria de médicos” e “por um médico razoável” em circunstâncias similares. Umas contagens mais altas indicaram o maior acordo e, conseqüentemente, uma mais baixa responsabilidade.

Os resultados do estudo mostraram que os participantes usaram dois factores diferentes para avaliar a utilização dos médicos de sistemas médicos do AI: (1) se o tratamento fornecido era padrão e (2) se o médico seguiu a recomendação do AI. Os participantes julgaram os médicos que aceitaram uma recomendação padrão do AI mais favoràvel do que aquelas que a rejeitaram. Contudo, se um médico recebeu uma recomendação não padronizada do AI, ou não foram julgados como mais seguro da responsabilidade rejeitando a.

Quando a literatura prévia sugerir que os laypersons fossem muito opostos ao AI, este estudo encontrou que, estão opor de facto não fortemente à aceitação de um médico de recomendações médicas do AI. Isto que encontra sugere que a ameaça da responsabilidade legal de um médico para aceitar recomendações do AI possa ser menor do que é pensado geralmente.

Em uma perspectiva convidada no artigo de JNM, no W. Nicholson Preço II e nos colegas notáveis, “responsabilidade são provável influenciar o comportamento dos médicos que decidem se seguir o conselho do AI, os hospitais que executam ferramentas do AI para o uso do médico e os reveladores que criam aquelas ferramentas no primeiro lugar. O estudo de Tobia e outros deve servir como um cabeça-de-ponte útil para que um trabalho mais adicional informe o potencial para integrar o AI na prática médica.”

Em um artigo associado de JNM, os autores do estudo foram entrevistados por Irène Buvat, PhD, e Ken Herrmann, DM, MBA, líderes na medicina nuclear e imagem lactente molecular coloca. Na entrevista os autores discutidos se os resultados de seu estudo puderam guardarar verdadeiro em outros países, se o AI poderia ser considerado como um tipo de “médico especialista,” e das vantagens de usar o AI de uma perspectiva legal, entre outros assuntos.

Source:
Journal reference:

Tobia, K., et al. (2021) When Does Physician Use of AI Increase Liability?. Journal of Nuclear Medicine. doi.org/10.2967/jnumed.120.256032.