Alors que l’intelligence artificielle se développe rapidement et devient une présence croissante dans la communication des soins de santé, une nouvelle étude répond à une préoccupation selon laquelle les modèles de langue importants (LLM) peuvent renforcer les stéréotypes nocifs en utilisant un langage stigmatisant. L’étude des chercheurs de Mass General Brigham a révélé que plus de 35% des réponses dans les réponses liées aux conditions liées à la consommation d’alcool et de substances contenaient un langage stigmatisant. Mais les chercheurs soulignent également que les invites ciblées peuvent être utilisées pour réduire considérablement le langage stigmatisant dans les réponses des LLMS. Les résultats sont publiés dans Le Journal of Addiction Medicine.
« L’utilisation d’un langage centré sur le patient peut renforcer la confiance et améliorer l’engagement et les résultats des patients. Il dit aux patients que nous nous soucions à leur sujet et voulons aider », a déclaré l’auteur correspondant Wei Zhang, MD, Ph.D., professeur adjoint de médecine dans la division de gastroentérologie à l’hôpital général de masse, membre fondateur du système de soins de santé général de masse Brigham. « Le langage stigmatisant, même par le biais des LLM, peut faire en sorte que les patients se sentent jugés et peuvent provoquer une perte de confiance dans les cliniciens. »
Les réponses LLM sont générées à partir de la langue quotidienne, qui comprend souvent un langage biaisé ou nocif envers les patients. L’ingénierie rapide est un processus d’instructions d’entrée stratégiquement pour guider les sorties du modèle vers un langage non stigmatisant et peut être utilisé pour former les LLM pour utiliser un langage plus inclusif pour les patients. Cette étude a montré que l’emploi d’ingénierie rapide au sein des LLMS réduisait la probabilité de stigmatisation de 88%.
Pour leur étude, les auteurs ont testé 14 LLM sur 60 invites cliniquement pertinentes générées liées au trouble de la consommation d’alcool (AUD), à la maladie hépatique associée à l’alcool (ALD) et au trouble de la consommation de substances (SUD). Les médecins généraux de masse Brigham ont ensuite évalué les réponses à la stigmatisation du langage en utilisant les directives de l’Institut national sur l’abus de drogues et de l’Institut national sur l’abus d’alcool et l’alcoolisme (les noms officiels des deux organisations contiennent toujours une terminologie obsolète et stigmatisante).
Leurs résultats ont indiqué que 35,4% des réponses des LLM sans ingénierie rapide contenaient un langage stigmatisant, par rapport à 6,3% des LLM avec une ingénierie rapide. De plus, les résultats ont indiqué que les réponses plus longues sont associées à une probabilité plus élevée de stigmatisation du langage par rapport aux réponses plus courtes. L’effet a été observé dans les 14 modèles testés, bien que certains modèles soient plus susceptibles que d’autres d’utiliser des termes stigmatisants.
Les orientations futures incluent le développement de chatbots qui évitent la stigmatisation du langage pour améliorer l’engagement et les résultats des patients. Les auteurs conseillent aux cliniciens de relire le contenu généré par LLM pour éviter le langage stigmatisant avant de l’utiliser dans les interactions du patient et d’offrir des options de langage alternatives centrées sur le patient.
Les auteurs notent que les recherches futures devraient impliquer les patients et les membres de la famille ayant une expérience vécue pour affiner les définitions et les lexiques du langage stigmatisant, garantissant aux résultats LLM des besoins des besoins les plus touchés. Cette étude renforce la nécessité de prioriser le langage dans les soins aux patients à mesure que les LLM sont de plus en plus utilisées dans la communication des soins de santé.