As reivindicações Hyped que o AI excede doutores no diagnóstico poderiam prejudicar a segurança paciente

Um número de estudos reivindicam que a inteligência artificial (AI) faz também ou melhoram-no do que doutores em interpretar imagens e em diagnosticar problemas médicos. Contudo, um estudo recente publicado No BMJ revela em março de 2020 que a maioria desta pesquisa é defeituoso, e os resultados exagerados. O resultado poderia ser que a decisão para adotar o AI como parte do assistência ao paciente está baseada nos locais defeituosos, comprometendo a qualidade do assistência ao paciente para milhões de povos.

Inteligência artificial

O AI é um campo avançado da computação, com muitas descobertas e realizações a seu crédito. É igualmente notável para seu nível de inovação. Com suas flexibilidade e capacidade “aprenda” das experiências anteriores, touted como uma solução para ajudar a melhorar o assistência ao paciente e a descolar algum do trabalho dos ombros dos profissionais dos cuidados médicos que têm demasiado a fazer. Em particular, a aprendizagem de máquina profunda é uma área do AI que é provavelmente incredibly útil em interpretar imagens médicas correctamente.

Crédito de imagem: metamorworks/Shutterstock
Os pesquisadores examinaram sistematicamente o projecto, relatando padrões, risco de polarização, e reivindicações dos estudos que comparam o desempenho de algoritmos de aprendizagem profundos diagnósticos para a imagem lactente médica com o aquele dos clínicos peritos. Crédito de imagem: metamorworks/Shutterstock

Muito mais estudos estão aparecendo no uso profundamente da aprendizagem neste campo. Os artigos da pesquisa e os título dos media parecem frequentemente implicar que a aprendizagem profunda pode executar melhor do que doutores nesta tarefa, ajudando a conduzir a procura para trazer isto na prática clínica rotineira. Contudo, o elemento faltante é uma revisão imparcial da evidência que se encontra atrás desta reivindicação, assim como de uma avaliação do risco atrás de confiar tais tarefas às máquinas.

O foco de tal pesquisa está nas redes neurais circunvolucionais (CNN) que são alimentadas com dados brutos, e desenvolve então seus próprios mecanismos para reconhecer testes padrões nos dados. A característica da aprendizagem realizada por CNNs é que o algoritmo próprio vem identificar as características da imagem que ajudam a classificar a imagem na categoria direita. Isto é em contraste com convencional programando isso depende em cima da entrada humana para seleccionar a característica direita.

De acordo com os pesquisadores, as reivindicações exagerados neste campo são arriscadas. “O perigo é que o apetite público e comercial para os cuidados médicos AI toma a dianteira à revelação de uma base rigorosa da evidência para apoiar este campo comparativamente novo.” Em lugar de, apontam à necessidade de desenvolver e validar primeiramente um algoritmo, incluindo a demonstração de sua eficácia em prever a condição escolhida. A segunda etapa é avaliar seu serviço público do real-mundo em detectar a doença com as experimentações bem-conduzidas e transparentes.

O estudo

O estudo actual foi centrado sobre a produção de uma revisão de todos os estudos publicados ao longo da última década. O alvo principal era comparar como um algoritmo de aprendizagem profundo executou na imagem lactente médica contra médicos especialistas.

Surpreendentemente, havia somente dois randomized as experimentações controladas e 81 estudos não-randomized que cumpriram os critérios do estudo. Estes estudos apontaram usar imagens médicas para classificar a pessoa como tendo ou não tendo a condição da doença.

No último grupo, havia somente nove experimentações em perspectiva, onde os dados foram recolhidos ao longo do tempo seguindo participantes individuais. Entre estes, somente 6 ocorreram em uma situação clínica real. Isto fá-la que desafia para comparar o desempenho dos clínicos contra a aprendizagem de máquina. O resultado poderia ser uma taxa inaceitàvel alta do falso positivo, que não fosse relatada ou rapidamente evidente. Além disso, os estudos retrospectivos são mencionados tipicamente como a evidência para aplicações da aprovação, embora o diagnóstico não é feito na retrospectiva.

Em média, havia somente 4 peritos humanos no grupo contra que a máquina foi testada sobre todos os estudos. Os pesquisadores no estudo actual igualmente encontraram que muito pouco dos dados brutos ou do código estêve publicado, limitando sua capacidade para rever independente os resultados.

Igualmente encontraram uma probabilidade alta da polarização em 58/81 dos estudos. A polarização significa que o projecto do estudo não crafted com suficiente cuidado para evitar as edições que poderiam mudar os resultados da pesquisa. Em segundo lugar, encontraram que os estudos frequentemente não seguiram padrões de relatório aceitados.

Em aproximadamente 75% das experimentações, a conclusão foi deitada nos termos que sugerem que o AI execute assim como ou melhore do que os peritos humanos. Em comparação, somente 38% dos estudos indicou a necessidade para mais pesquisa sob a forma dos estudos em perspectiva ou randomized experimentações controladas. O comentário dos autores do estudo actual: “[] Uso judicioso e responsável da língua nos estudos e nos comunicados de imprensa que fatoram na força e a qualidade da evidência pode ajudar” - conseguir uma interpretação apropriada de resultados do estudo.

Implicações

O estudo actual teve suas limitações, tais como a possibilidade que alguns estudos relevantes estiveram faltados, e que somente o papel do AI sob a forma da aprendizagem de máquina profunda estêve examinado. Em conseqüência, as conclusões não podem ser que se pode generalizar a outros tipos de AI.

Por outro lado, dizem que há muitas reivindicações possivelmente exagerados que fazem os círculos no mundo da pesquisa sobre o desempenho equivalente ou superior da aprendizagem de máquina comparado aos peritos clínicos. Em suas palavras, “muitas reivindicações discutìvel exagerados existem sobre a equivalência com (ou a superioridade sobre) os clínicos, que apresenta um risco potencial para a segurança e a saúde pacientes da população a nível social.”

Ou seja usar a língua hyped-acima para apresentar a not-so resultados prometedores pode conduzir a sua interpretação errónea pelos media e pelo público igualmente. Em conseqüência, disseram, isto poderia conduzir “à disposição possível do cuidado impróprio que não alinha necessariamente com os melhores interesses dos pacientes.”

Em lugar de, diga os pesquisadores, “a revelação de uma evidência mais de alta qualidade e mais transparente relatada mover-se baixo para a frente ajudará a evitar a campanha publicitária, diminuir o desperdício da pesquisa, e a proteger pacientes.”

Journal reference:
  • Nagendran, M., Chen, Y., Lovejoy C. A., et al. Artificial intelligence versus clinicians: systematic review of design, reporting standards, and claims of deep learning studies. BMJ 2020;368:m689. https://www.bmj.com/content/368/bmj.m689
Dr. Liji Thomas

Written by

Dr. Liji Thomas

Dr. Liji Thomas is an OB-GYN, who graduated from the Government Medical College, University of Calicut, Kerala, in 2001. Liji practiced as a full-time consultant in obstetrics/gynecology in a private hospital for a few years following her graduation. She has counseled hundreds of patients facing issues from pregnancy-related problems and infertility, and has been in charge of over 2,000 deliveries, striving always to achieve a normal delivery rather than operative.

Citations

Please use one of the following formats to cite this article in your essay, paper or report:

  • APA

    Thomas, Liji. (2020, March 25). As reivindicações Hyped que o AI excede doutores no diagnóstico poderiam prejudicar a segurança paciente. News-Medical. Retrieved on April 01, 2020 from https://www.news-medical.net/news/20200325/Hyped-claims-that-AI-outdoes-doctors-at-diagnosis-could-harm-patient-safety.aspx.

  • MLA

    Thomas, Liji. "As reivindicações Hyped que o AI excede doutores no diagnóstico poderiam prejudicar a segurança paciente". News-Medical. 01 April 2020. <https://www.news-medical.net/news/20200325/Hyped-claims-that-AI-outdoes-doctors-at-diagnosis-could-harm-patient-safety.aspx>.

  • Chicago

    Thomas, Liji. "As reivindicações Hyped que o AI excede doutores no diagnóstico poderiam prejudicar a segurança paciente". News-Medical. https://www.news-medical.net/news/20200325/Hyped-claims-that-AI-outdoes-doctors-at-diagnosis-could-harm-patient-safety.aspx. (accessed April 01, 2020).

  • Harvard

    Thomas, Liji. 2020. As reivindicações Hyped que o AI excede doutores no diagnóstico poderiam prejudicar a segurança paciente. News-Medical, viewed 01 April 2020, https://www.news-medical.net/news/20200325/Hyped-claims-that-AI-outdoes-doctors-at-diagnosis-could-harm-patient-safety.aspx.