Uma confrontação com a realidade na inteligência artificial: São as reivindicações dos cuidados médicos descomedidos?

Os produtos da saúde postos pela inteligência artificial, ou o AI, estão fluindo em nossas vidas, dos apps virtuais do doutor aos sensores e aos chatbots wearable da drograria.

O IBM vangloriou-se de que seu AI poderia “outthink o cancro.” Outro dizem que os sistemas informáticos que lêem raios X fará radiologistas obsoletos.

“Não há nada que eu vi em meus 30 anos positivos que estudo a medicina que poderia ser tão impactful e transformativo” quanto o AI, disse o Dr. Eric Topol, um cardiologista e vice-presidente executivo da pesquisa de Scripps em La Jolla, a lata da Califórnia AI ajuda doutores a interpretar MRIs do coração, de varreduras do CT da cabeça e de fotografias da parte traseira do olho, e poderia potencial tomar sobre muitas tarefas médicas mundanos, livrando medica para passar mais tempo que fala aos pacientes, Topol disse.

Mesmo Food and Drug Administration - que aprovou mais de 40 produtos do AI nos cinco anos passados - diz que “o potencial da saúde digital não é nada curto do revolucionário.”

Contudo muitos peritos da indústria da saúde temem que os produtos AI-baseados não possam combinar a campanha publicitária. Muitos doutores e advogados de consumidor temem que a indústria da tecnologia, que vive pela mantra “falha rapidamente e a fixa mais tarde,” esteja pondo pacientes em risco - e que os reguladores não estão fazendo bastante para manter consumidores seguros.

As experiências adiantadas no AI fornecem uma razão para o cuidado, disseram Mildred Cho, um professor da pediatria no centro de Stanford para éticas biomedicáveis.

Os sistemas tornaram-se em um falhanço do hospital frequentemente quando distribuídos em uma facilidade diferente, Cho disse. O software usado no cuidado de milhões de americanos foi mostrado para discriminar contra minorias. E os sistemas do AI aprendem às vezes fazer as previsões baseadas nos factores que têm menos a fazer com doença do que o tipo da máquina de MRI usado, o tempo onde uma análise de sangue é tomada ou em se um paciente estêve visitado por um capelão. Em um caso, o software do AI concluiu incorrectamente que os povos com pneumonia eram menos prováveis morrer se estiveram com a asma - um erro que poderia ter conduzido doutores privar pacientes da asma do cuidado que extra precisam.

“É somente uma questão de tempo antes que qualquer outra coisa semelhante conduza a um problema de saúde sério,” disse o Dr. Steven Nissen, presidente da cardiologia na clínica de Cleveland.

O AI médico, que puxou dentro $1,6 bilhões no financiamento de capital de risco no terceiro quarto apenas, está “quase no pico de expectativas infladas,” concluído um relatório de julho da empresa Gartner da pesquisa. “Porque a realidade obtem testada, haverá provavelmente um áspero desliza na calha da desilusão.”

Essa confrontação com a realidade poderia vir sob a forma dos resultados decepcionantes quando os produtos do AI ushered no mundo real. Mesmo Topol, autor “da medicina profunda: Como a inteligência artificial pode fazer o ser humano dos cuidados médicos outra vez,” reconhece que muitos produtos do AI são pouco mais do que o ar quente. “É uma miscelânea,” disse.

Os peritos tais como o Dr. Bob Kocher, um sócio na empresa de capital de risco Venrock, são mais sem corte. “A maioria de produtos do AI têm pouca evidência para apoiá-los,” Kocher disse. Alguns riscos não se tornarão aparentes até que um sistema do AI esteja usado por um grande número pacientes. “Nós estamos indo manter-se descobrir um grupo inteiro dos riscos e conseqüências sem intenção de usar o AI em dados médicos,” Kocher disse.

Nenhuns dos produtos do AI vendidos nos E.U. foram testados em ensaios clínicos randomized, a fonte a mais forte de evidência médica, Topol disse. O primeiro e somente a experimentação randomized de um sistema do AI - que encontrou que colonoscopia com os pólipos menores encontrados do diagnóstico assistido por computador do que a colonoscopia padrão - foi publicado em linha em outubro.

Poucas partidas da tecnologia publicam sua pesquisa nos jornais par-revistos, que permitem que outros cientistas examinem seu trabalho, de acordo com um artigo de janeiro no jornal europeu da investigação clínica. Tal do “pesquisa discrição” - descrita somente nos comunicados de imprensa ou em eventos relativos à promoção - exagera frequentemente as realizações de uma empresa.

E embora os programadores de software possam se vangloriar sobre a precisão de seus dispositivos do AI, nota dos peritos que os modelos do AI estão testados na maior parte em computadores, não nos hospitais ou em outras facilidades médicas. Usar software não demonstrado “pode fazer pacientes em cobaias inconscientes,” disse o Dr. Ron Li, director médico da informática para a integração clínica do AI em cuidados médicos de Stanford.

Os sistemas do AI que aprendem reconhecer testes padrões nos dados são descritos frequentemente como “caixas negras” porque mesmo seus reveladores não sabem alcançaram suas conclusões. Dado que o AI é tão novo - e muitos de seu desconhecido dos riscos - o campo precisa o descuido cuidadoso, disse Ossorio Pilar, um professor de Direito e a bioética na universidade de Wisconsin-Madison.

Contudo a maioria de dispositivos do AI não exige a aprovação do FDA.

“Nenhumas das empresas que eu investi dentro são cobertas pelos regulamentos do FDA,” Kocher disse.

A legislação passada pelo congresso em 2016 - e patrocinado pela indústria da tecnologia - isentam muitos tipos de software médico da revisão federal, incluindo determinados apps da aptidão, os registos de saúde eletrônicos e as ferramentas que ajudam doutores a fazer decisões médicas.

É havido pouca pesquisa sobre se os 320.000 apps médicos agora no uso melhoram realmente a saúde, de acordo com um relatório sobre o 17 de dezembro publicado AI pela academia nacional da medicina.

Se falhando meios que rápidos um o grupo inteiro dos povos morrerei, eu não pense que nós queremos falhar rapidamente. Ninguém está indo estar feliz, incluindo accionistas, se os povos morrem ou são severamente ferido.

Oren Etzioni, director geral no instituto de Allen para o AI em Seattle

“Quase nenhuns do material [AI] introduzido no mercado aos trabalhos dos pacientes realmente,” disse o Dr. Ezekiel Emanuel, professor de éticas e da política sanitária médicas na Faculdade de Medicina de Perelman na Universidade da Pensilvânia.

O FDA tem-se centrado por muito tempo sua atenção sobre os dispositivos que levantam a grande ameaça aos pacientes. E os advogados de consumidor reconhecem que alguns dispositivos - tais como uns que ajudam povos a contar suas etapas diárias - precisam menos exame minucioso do que uns que diagnosticam ou tratam a doença.

Alguns programadores de software não se incomodam aplicar-se para o afastamento ou a autorização do FDA, mesmo quando exigidos legalmente, de acordo com um estudo 2018 nos anais da medicina interna.

Os analistas industriais dizem que os reveladores do AI têm pouco interesse em conduzir experimentações caras e demoradas. “Não é o maior preocupação destas empresas para submeter-se à avaliação rigorosa que seria publicada em um jornal par-revisto,” disse Joachim Roski, um director em Booz Allen Hamilton, uma empresa de consultoria de tecnologia, e co-autor do relatório da academia nacional. “Que não é como a economia de E.U. trabalha.”

Mas Oren Etzioni, director geral no instituto de Allen para o AI em Seattle, disse reveladores do AI tem um incentivo financeiro a se certificar que seus produtos médicos são seguros.

“Se falhando meios rápidos um o grupo inteiro dos povos morrerá, eu não penso que nós queremos falhar rapidamente,” Etzioni disse. “Ninguém está indo estar feliz, incluindo accionistas, se os povos morrem ou são severamente ferido.”

Padrões de relaxamento no FDA

O FDA tem vindo sob o incêndio nos últimos anos para permitir a venda dos dispositivos médicos perigosos, que foram ligados pelo consórcio internacional de journalistas investigatórios a 80.000 mortes e a 1,7 milhão ferimentos ao longo da última década.

Muitos destes dispositivos foram cancelados para o uso com um processo controverso chamado os 510 (k) o caminho, que permite que as empresas introduzam no mercado produtos do “moderado-risco” sem o teste clínico enquanto são julgados similares aos dispositivos existentes.

Em 2011, um comitê da academia nacional da medicina concluiu os 510 (k) o processo é tão fundamental defeituoso que o FDA deve o jogar para fora e começar sobre.

Em lugar de, o FDA está usando o processo aos dispositivos do AI do greenlight.

Dos 14 produtos do AI autorizados no FDA em 2017 e 2018, 11 foi cancelado com os 510 (k) processo, de acordo com um artigo de novembro no JAMA. Nenhuma destes parece ter tido o teste clínico novo, o estudo disse. O FDA cancelou um dispositivo do AI projetado ajudar a diagnosticar o fígado e o câncer pulmonar baseado em 2018 em sua similaridade ao software da imagem lactente aprovou 20 anos mais adiantado. Esse software próprio tinha sido cancelado porque foi julgado “substancialmente equivalente” aos produtos introduzidos no mercado antes de 1976.

Os produtos do AI cancelados pelo FDA são hoje pela maior parte “fechados,” de modo que seus cálculos e resultados não mudarão depois que incorporam o mercado, disse Bakul Patel, director para a saúde digital no centro do FDA para dispositivos e a saúde radiológica. O FDA não autorizou ainda os dispositivos “destravados” do AI, cujos os resultados poderiam variar da revista mensal nas maneiras que os reveladores não podem prever.

Para tratar a inundação de produtos do AI, o FDA está testando uma aproximação radicalmente diferente ao regulamento digital do dispositivo, centrando-se sobre empresas de avaliação, não produtos.

O programa da “pre-certificação” do piloto do FDA, lançado em 2017, é projectado “reduz a época e o custo da entrada do mercado para programadores de software,” impor “menos” sistema oneroso possível. Os oficiais do FDA dizem que querem manter o ritmo com programadores de software do AI, que actualizam seus produtos muito mais freqüentemente do que fabricantes de dispositivos tradicionais, tais como máquinas de raio X.

Scott Gottlieb disse em 2017 quando era o comissário do FDA de que os reguladores do governo precisam de se certificar que sua aproximação aos produtos inovativos “é eficiente e que promove, não impede, inovação.”

Sob o plano, o FDA pre-certificaria as empresas que “demonstre uma cultura da qualidade e da excelência de organização,” que permitiria que fornecessem dados menos honestos sobre dispositivos.

as empresas Pre-certificadas poderiam então liberar dispositivos com “aerodinamizaram” a revisão - ou nenhuma revisão do FDA de todo. Uma vez que os produtos estão no mercado, as empresas serão responsáveis para monitorar sua própria segurança de produtos e relatá-la de volta ao FDA. Nove empresas foram seleccionadas para o piloto: Apple, FitBit, Samsung, Johnson & Johnson, terapêutica da pera, fósforo, Roche, Tidepool e certamente ciências da vida.

Os produtos de alto risco, tais como o software usado nos pacemaker, ainda obterão uma avaliação detalhada do FDA. “Nós definida não queremos pacientes ser dano,” disse Patel, que notou que os dispositivos cancelados com a pre-certificação podem ser recordados se necessários. “Há muitos corrimões ainda no lugar.”

Mas a pesquisa mostra que os mesmo dispositivos baixos e do moderado-risco foram recordado devido aos riscos sérios aos pacientes, disse Diana Zuckerman, presidente do centro nacional para a pesquisa da saúde. Os “povos poderiam ser prejudicados porque algo não estêve exigido ser exacto ou seguro provado antes que esteja amplamente utilizado.”

Johnson & Johnson, por exemplo, recordou implantes ancas e a malha cirúrgica.

Em uma série de letras ao FDA, American Medical Association e outro questionaram a sabedoria de permitir que as empresas monitorem sua própria segurança do desempenho e de produto.

“O sistema de honra não é um regime regulador,” disse o Dr. Jesse Ehrenfeld, que preside a placa do grupo do médico de depositários.

Em uma letra de outubro ao FDA, Sens. Elizabeth Warren (de Massachusetts.), Tina Smith (D-Minn.) e Patty Murray (D-Lavagem.) questionaram a capacidade da agência para assegurar a empresa as relatórios de segurança que são “exactas, oportuno e baseado em toda a informação disponível.”

Quando bons os algoritmos vão ruins

Alguns dispositivos do AI são testados mais com cuidado do que outro.

Uma ferramenta de exame AI-posta para a doença de olho do diabético foi estudada em 900 pacientes em 10 escritórios da atenção primária antes de ser aprovada em 2018. O fabricante, tecnologias de IDx, trabalhadas com o FDA por oito anos para obter o produto direito, disse o Dr. Michael Abramoff, fundador da empresa e presidente do executivo.

O teste, vendido como IDx-DR., selecciona os pacientes para o retinopathy do diabético, uma causa principal da cegueira, e refere a pacientes de alto risco os especialistas de olho, que fazem um diagnóstico definitivo.

IDx-DR. é o primeiro produto “autônomo” do AI - um que pode fazer uma decisão da selecção sem um doutor. A empresa está instalando-o agora em clínicas e em mercearias da atenção primária, onde pode ser operada por empregados com um diploma do ensino secundário. A empresa de Abramoff tomou a etapa incomum do seguro de responsabilidade de compra para cobrir todos os ferimentos pacientes.

Contudo alguns as inovações AI-baseadas pretendidas melhorar o cuidado tiveram o efeito oposto.

Uma empresa canadense, por exemplo, software desenvolvido do AI para prever o risco de uma pessoa de Alzheimer baseado em seu discurso. As previsões eram mais exactas para alguns pacientes do que outro. A “dificuldade que encontra a palavra direita pode ser devido ao unfamiliarity com inglês, um pouco do que ao prejuízo cognitivo,” disse o co-autor Frank Rudzicz, um professor adjunto da informática na universidade de toronto.

Os doutores no hospital do monte Sinai de New York esperaram que o AI poderia os ajudar a usar raios X de caixa para prever que pacientes estavam no risco elevado de pneumonia. Embora o sistema fizesse previsões exactas dos raios X disparados no monte Sinai, a tecnologia flopped quando testada nas imagens tomadas em outros hospitais. Eventualmente, os pesquisadores realizaram que o computador tinha aprendido meramente dizer a diferença entre os raios X de caixa portáteis desse hospital - tomados na cabeceira de um paciente - com aquelas recolhido o departamento da radiologia. Os doutores tendem a usar raios X de caixa portáteis para os pacientes demasiado doentes para sair de sua sala, assim que não é surpreendente que estes pacientes tiveram um risco maior de infecção do pulmão.

Quando for o trabalho dos empresários pensar grande e tomar riscos, é o trabalho dos doutores proteger seus pacientes.

Dr. Vikas Saini, um cardiologista e presidente do instituto não lucrativo de Lown, que defende para um acesso mais largo aos cuidados médicos

DeepMind, uma empresa possuída por Google, criou um app móvel AI-baseado que pudesse prever que qual hospitalizou os pacientes desenvolverão a insuficiência renal aguda até 48 horas adiantado. Um cargo do blogue no Web site de DeepMind descreveu o sistema, usado em um hospital de Londres, como do “um cambiador jogo.” Mas o sistema do AI igualmente produziu dois alarmes falsos para cada resultado correcto, de acordo com um estudo de julho na natureza. Isso pode explicar porque a função do rim dos pacientes não melhorou, disse o Dr. Saurabh Jha, professor adjunto da radiologia no hospital da Universidade da Pensilvânia. Qualquer benefício da detecção atempada de problemas sérios do rim pode ter sido diluído por uma taxa alta de “overdiagnosis,” em qual o sistema do AI embandeire as edições do rim da fronteira que não precisaram o tratamento, Jha disse. Google não teve nenhum comentário em resposta às conclusões de Jha.

Os falsos positivos podem prejudicar pacientes alertando doutores pedir testes desnecessários ou reter recomendou tratamentos, Jha disse. Por exemplo, um doutor preocupou-se sobre os rins de um paciente pôde parar de prescrever o ibuprofeno - um apaziguador de dor geralmente seguro que levantasse um risco pequeno à função do rim - em favor de um opiáceo, que leva um risco sério de apego.

Como estes estudos mostre, software com resultados impressionantes em um laboratório do computador pode desabar quando testado no tempo real, o Cho de Stanford disse. Isso é porque as doenças são mais complexas - e o sistema de saúde distante mais disfuncional - do que muitos cientistas de computador antecipam.

Muitos reveladores do AI seleccionam registos de saúde eletrônicos porque guardaram enormes quantidade de dados detalhados, Cho disse. Mas aqueles reveladores não estão frequentemente cientes que estão construindo sobre um sistema profundamente quebrado. Os registos de saúde eletrônicos foram desenvolvidos para a factura, não o assistência ao paciente, e são enchidos com os erros ou os dados faltantes.

Uma investigação de KHN publicada em março encontrou erros às vezes risco de vida em lista da medicamentação dos pacientes, em testes de laboratório e em alergias.

Em virtude dos riscos envolvidos, os doutores precisam de pisar dentro para proteger os interesses dos seus pacientes, disseram o Dr. Vikas Saini, um cardiologista e presidente do instituto não lucrativo de Lown, que defende para um acesso mais largo aos cuidados médicos.

“Quando for o trabalho dos empresários pensar grande e tomar riscos,” Saini disse, “é o trabalho dos doutores proteger seus pacientes.”

Notícia da saúde de KaiserEste artigo foi reimprimido de khn.org com autorização da fundação de Henry J. Kaiser Família. A notícia da saúde de Kaiser, um serviço noticioso editorial independente, é um programa da fundação da família de Kaiser, uma organização de investigação nonpartisan da política dos cuidados médicos unaffiliated com Kaiser Permanente.