Advertencia: Esta página es una traducción de esta página originalmente en inglés. Tenga en cuenta ya que las traducciones son generadas por máquinas, no que todos traducción será perfecto. Este sitio Web y sus páginas están destinadas a leerse en inglés. Cualquier traducción de este sitio Web y su páginas Web puede ser imprecisa e inexacta en su totalidad o en parte. Esta traducción se proporciona como una conveniencia.

El estudio ofrece los datos relacionados con la responsabilidad potencial de los médicos para utilizar el AI en remedio personalizado

Piensan a los médicos que siguen consejo (AI) de la inteligencia artificial pueden ser considerados menos obligado para la negligencia médica que común, según un nuevo estudio de candidatos del jurado potenciales en los E.E.U.U. publicados en la aplicación de enero el gorrón del remedio nuclear (JNM). El estudio ofrece los primeros datos relacionados con la responsabilidad potencial de los médicos para usar el AI en el remedio personalizado, que puede desviarse a menudo de cuidado estándar.

Las nuevas herramientas del AI pueden ayudar a médicos en recomendaciones y diagnósticos del tratamiento, incluyendo la interpretación de imágenes médicas. ¿Pero si los médicos confían en las herramientas del AI y salen mal las cosas, cómo está probablemente un miembro del jurado para encontrarlas legalmente obligadas? Muchos tales casos nunca alcanzarían a un jurado, pero para uno que lo hizo, la respuesta depende de las vistas y del testimonio de médicos especialistas y de la toma de decisión de jurados puestos. Nuestro estudio es el primer a centrarse en ese aspecto pasado, estudiando las actitudes de los miembros del jurado potenciales sobre los médicos que utilizan el AI.”

Kevin Tobia, JD, doctorado, profesor adjunto de la ley, centro jurídico de la universidad de Georgetown, C.C. de Washington

Para determinar los juicios de los miembros del jurado potenciales de la responsabilidad, los investigadores conducto un estudio en línea de una muestra representativa de 2.000 adultos en los E.E.U.U. Cada participante leyó uno de cuatro decorados en los cuales un sistema del AI ofreció una recomendación del tratamiento de la dosificación de la droga a un médico. Los decorados variaron la recomendación del AI (dosificación estándar o anticonvencional de la droga) y la decisión del médico (validar o rechazar la recomendación del AI). En todos los decorados, la decisión del médico causó posteriormente daño al paciente.

Los participantes del estudio entonces evaluaron la decisión del médico fijando si la decisión del tratamiento era una que se habría podido hacer por “la mayoría de los médicos” y “un médico razonable” en condiciones económicas similares. Muescas más altas indicaron el mayor acuerdo y, por lo tanto, una responsabilidad más inferior.

Los resultados del estudio mostraron que los participantes utilizaron dos diversos factores para evaluar la utilización de los médicos de los sistemas médicos del AI: (1) si el tratamiento ofrecido era estándar y (2) si el médico siguió la recomendación del AI. Los participantes juzgaron a los médicos que validaron una recomendación estándar del AI más favorable que los que la rechazaron. Sin embargo, si un médico recibió una recomendación anticonvencional del AI, rechazándola lo o la no juzgó como más segura de responsabilidad.

Mientras que la literatura anterior sugiere que los laypersons sean muy contrarios al AI, este estudio encontró que, de hecho, están opuestos no no fuertemente a la aceptación de un médico de las recomendaciones médicas del AI. Esto que encuentra sugiere que la amenaza de la responsabilidad legal de un médico por validar recomendaciones del AI puede ser más pequeña que se piensa común.

En una perspectiva invitada en el artículo de JNM, el W. Nicholson Price II y los colegas conocidos, “responsabilidad es probable influenciar el comportamiento de los médicos que deciden si seguir el consejo del AI, los hospitales que ejecutan las herramientas del AI para el uso del médico y los reveladores que crean esas herramientas en el primer lugar. El estudio de Tobia y otros debe servir como playa de desembarco útil para que el trabajo adicional informe al potencial para integrar el AI en práctica médica.”

En un artículo asociado de JNM, los autores del estudio entrevista por Irène Buvat, doctorado, y Ken Herrmann, Doctor en Medicina, MBA, los líderes en el remedio nuclear y proyección de imagen molecular coloca. En la entrevista los autores discutidos si los resultados de su estudio pudieron ser verdad en otros países, si el AI se podría considerar como tipo de “médico especialista,” y de las ventajas de usar el AI de una perspectiva legal, entre otros temas.

Source:
Journal reference:

Tobia, K., et al. (2021) When Does Physician Use of AI Increase Liability?. Journal of Nuclear Medicine. doi.org/10.2967/jnumed.120.256032.