Avertissement : Cette page est une traduction automatique de cette page à l'origine en anglais. Veuillez noter puisque les traductions sont générées par des machines, pas tous les traduction sera parfaite. Ce site Web et ses pages Web sont destinés à être lus en anglais. Toute traduction de ce site et de ses pages Web peut être imprécis et inexacte, en tout ou en partie. Cette traduction est fournie dans une pratique.

L'étude offre des caractéristiques liées à l'obligation potentielle des médecins pour employer l'AI en médicament personnalisé

Des médecins qui suivent le conseil (AI) d'artificial intelligence peuvent être considérés moins responsable de la faute professionnelle médicale qu'est couramment pensés, selon une étude neuve des candidats de fortune potentiels aux États-Unis publié dans l'édition de janvier du tourillon du médicament nucléaire (JNM). L'étude fournit les premières caractéristiques liées à l'obligation potentielle des médecins pour l'usage de l'AI en médicament personnalisé, qui peut souvent dévier des soins normaux.

Les outils neufs d'AI peuvent aider des médecins dans les recommandations thérapeutiques et la diagnose, y compris l'évaluation des images médicales. Mais si les médecins comptent sur des outils d'AI et les choses vont mal, combien est-il vraisemblablement un juré pour les trouver permissible susceptibles ? Beaucoup de tels cas n'atteindraient jamais un jury, mais pour un qui a fait, la réponse dépend des vues et du témoignage des experts médicaux et de la prise de décision des jurys étendus. Notre étude est la première à concentrer sur ce dernier aspect, étudiant les assiettes de jurés potentiels au sujet des médecins qui emploient l'AI. »

Kevin Tobia, JD, PhD, professeur adjoint de loi, centre juridique d'université de Georgetown, DC de Washington

Pour déterminer les jugements de jurés potentiels de l'obligation, les chercheurs ont entrepris une étude en ligne d'un groupe représentatif de 2.000 adultes aux États-Unis. Chaque participant a affiché un de quatre scénarios dans lesquels un système d'AI a fourni une recommandation thérapeutique de posologie de médicament à un médecin. Les scénarios ont varié la recommandation d'AI (posologie de médicament normale ou non standard) et la décision du médecin (pour recevoir ou rejeter la recommandation d'AI). Dans tous les scénarios, la décision du médecin a par la suite entraîné le tort au patient.

Les participants à l'étude ont alors évalué la décision du médecin par l'évaluation si la décision de demande de règlement était une qui pourrait avoir été effectuée par « la plupart des médecins » et « un médecin raisonnable » dans les circonstances assimilées. Des rayures plus élevées ont indiqué une convention plus grande et, en conséquence, une obligation inférieure.

Les résultats de l'étude ont prouvé que les participants avaient l'habitude deux facteurs différents pour évaluer l'utilisation des médecins des systèmes médicaux d'AI : (1) si la demande de règlement fournie était normale et (2) si le médecin a suivi la recommandation d'AI. Les participants ont jugé les médecins qui ont reçu une recommandation normale d'AI plus favorablement que ceux qui l'ont rejetée. Cependant, si un médecin recevait une recommandation non standard d'AI, lui ou lui n'a pas été jugé comme plus sûr de l'obligation en la rejetant.

Tandis que la littérature antérieure propose que les laypersons soient très opposés à l'AI, cette étude a constaté qu'ils, en fait, sont pas fortement opposés à l'acceptation d'un médecin des recommandations médicales d'AI. Ceci qui trouve propose que le danger de la responsabilité légale d'un médecin pour recevoir des recommandations d'AI puisse être plus petit qu'est couramment pensé.

Dans un point de vue invité sur l'article de JNM, le W. Nicholson Price II et les collègues remarquables, « obligation est susceptible d'influencer le comportement des médecins qui décident si suivre le conseil d'AI, les hôpitaux qui mettent en application des outils d'AI pour utiliser-et de médecin les révélateurs qui produisent ces outils en premier lieu. L'étude de Tobia et autres devrait servir de tête de pont utile davantage à de travail pour aviser le potentiel pour intégrer l'AI dans la pratique médicale. »

Dans un article associé de JNM, les auteurs d'étude ont été interviewés par Irène Buvat, PhD, et Ken Herrmann, DM, MBA, des chefs en médicament nucléaire et représentation moléculaire mettent en place. Dans l'entrevue les auteurs discutés si les résultats de leur étude pourraient juger vrai dans d'autres pays, si l'AI pourrait être considérée comme type de « expert médical, » et des avantages d'employer l'AI d'un point de vue permissible, entre d'autres sujets.

Source:
Journal reference:

Tobia, K., et al. (2021) When Does Physician Use of AI Increase Liability?. Journal of Nuclear Medicine. doi.org/10.2967/jnumed.120.256032.