La toxicomanie est depuis des décennies l’un des problèmes de santé publique croissants aux États-Unis. Malgré le développement de traitements efficaces et de ressources de soutien, peu de personnes souffrant d’un trouble lié à l’usage de substances demandent de l’aide. La réticence à demander de l’aide a été attribuée à la stigmatisation souvent attachée à cette maladie. Ainsi, dans le but de résoudre ce problème, des chercheurs de l’Université Drexel sensibilisent au langage stigmatisant présent dans les forums en ligne et ont créé un outil d’intelligence artificielle pour aider à éduquer les utilisateurs et proposer un langage alternatif.
Présenté lors de la récente Conférence sur les méthodes empiriques dans le traitement du langage naturel (EMNLP), l’outil utilise de grands modèles de langage (LLM), tels que GPT-4 et Llama, pour identifier le langage stigmatisant et suggérer des formulations alternatives, comme le signalent les programmes de vérification orthographique et grammaticale. fautes de frappe.
« Le langage stigmatisé est tellement enraciné que les gens ne savent même pas qu’ils le font », a déclaré Shadi Rezapour, Ph.D., professeur adjoint au College of Computing & Informatics qui dirige le laboratoire de PNL sociale de Drexel et la recherche. qui a développé l’outil.
« Les mots qui attaquent la personne, plutôt que la maladie de la dépendance, ne servent qu’à isoler davantage les personnes qui souffrent, ce qui rend difficile pour elles de faire face à leur affliction et de demander l’aide dont elles ont besoin. Lutter contre le langage stigmatisant dans les communautés en ligne est une nécessité. une première étape clé pour éduquer le public et réduire son utilisation.
Selon la Substance Abuse and Mental Health Services Administration, seulement 7 % des personnes vivant avec un trouble lié à l’usage de substances reçoivent une forme de traitement, malgré des dizaines de milliards de dollars alloués au soutien des programmes de traitement et de rétablissement. Des études montrent que les personnes qui estimaient avoir besoin d’un traitement ne le cherchaient pas de peur d’être stigmatisées.
« Présenter la dépendance comme une faiblesse ou un échec n’est ni exact ni utile alors que notre société tente de résoudre cette crise de santé publique », a déclaré Rezapour. « Les personnes qui ont été victimes en Amérique souffrent à la fois de leur dépendance et de la stigmatisation sociale qui s’est formée autour de celle-ci. En conséquence, peu de personnes demandent de l’aide, malgré des ressources importantes consacrées au traitement de la dépendance au cours des dernières décennies. »
La prise de conscience de la stigmatisation en tant qu’obstacle au traitement s’est accrue au cours des deux dernières décennies. À la suite de l’épidémie d’opioïdes aux États-Unis – lorsque le marketing stratégique et trompeur, la promotion et la prescription excessive d’analgésiques addictifs ont conduit des millions de personnes à devenir involontairement dépendantes – le grand public a commencé à reconnaître la dépendance comme une maladie à traiter, plutôt que comme un échec moral à traiter. puni – comme cela a souvent été décrit pendant la « guerre contre la drogue » dans les années 1970 et 1980.
Mais selon une étude des Centers for Disease Control and Prevention, si le langage stigmatisant dans les médias traditionnels a diminué au fil du temps, son utilisation sur les plateformes de médias sociaux a augmenté. Les chercheurs de Drexel suggèrent que rencontrer un tel langage sur un forum en ligne peut être particulièrement préjudiciable, car les gens se tournent souvent vers ces communautés pour chercher du réconfort et du soutien.
« Malgré le potentiel de soutien, l’espace numérique peut refléter et amplifier les stigmates sociétaux qu’il a le pouvoir de démanteler, affectant ainsi négativement la santé mentale et le processus de rétablissement des individus », a déclaré Rezapour. « Notre objectif était de développer un cadre qui pourrait aider à préserver ces espaces de soutien. »
En exploitant la puissance des LLM (les systèmes d’apprentissage automatique qui alimentent les chatbots, les vérificateurs d’orthographe et de grammaire et les outils de suggestion de mots), les chercheurs ont développé un cadre qui pourrait potentiellement aider les utilisateurs de forums numériques à devenir plus conscients de la façon dont leurs choix de mots peuvent affecter les autres membres de la communauté. souffrant de troubles liés à l’usage de substances.
Pour ce faire, ils ont d’abord cherché à comprendre les formes que prend un langage stigmatisant sur les forums numériques. L’équipe a utilisé des publications annotées manuellement pour évaluer la capacité d’un LLM à détecter et à réviser les schémas linguistiques problématiques dans les discussions en ligne sur la toxicomanie.
Une fois qu’ils ont réussi à classer le langage avec un haut degré de précision, ils l’ont utilisé sur plus de 1,2 million de messages provenant de quatre forums Reddit populaires. Le modèle a identifié plus de 3 000 messages contenant une forme de langage stigmatisant à l’égard des personnes souffrant de troubles liés à l’usage de substances.
En utilisant cet ensemble de données comme guide, l’équipe a préparé son LLM GPT-4 pour devenir un agent de changement. En intégrant les conseils linguistiques non stigmatisants de l’Institut national sur l’abus des drogues, les chercheurs ont rapidement conçu le modèle pour offrir une alternative non stigmatisante chaque fois qu’ils rencontraient un langage stigmatisant dans un message. Les suggestions portaient sur l’utilisation de récits sympathiques, l’élimination des reproches et la mise en évidence des obstacles structurels au traitement.
Les programmes ont finalement produit plus de 1 600 phrases déstigmatisées, chacune étant associée comme une alternative à un type de langage stigmatisant.
En utilisant une combinaison d’examinateurs humains et de programmes de traitement du langage naturel, l’équipe a évalué le modèle sur la qualité globale des réponses, la déstigmatisation étendue et la fidélité au message d’origine.
« La fidélité au message original est très importante », a déclaré Layla Bouzoubaa, doctorante au College of Computing & Informatics et auteur principal de la recherche.
« La dernière chose que nous voulons faire est de supprimer l’agence de tout utilisateur ou de censurer sa voix authentique. Ce que nous envisageons pour ce pipeline, c’est que s’il était intégré à une plate-forme de médias sociaux, par exemple, il offrirait simplement une autre façon de formuler des mots. leur texte si leur texte contient un langage stigmatisant envers les personnes qui consomment des drogues. L’utilisateur peut choisir de l’accepter ou non.
Bouzoubaa a également souligné l’importance de fournir des explications claires et transparentes sur les raisons pour lesquelles les suggestions ont été proposées et de solides protections de la confidentialité des données des utilisateurs lorsqu’il s’agit d’une adoption généralisée du programme.
Pour promouvoir la transparence du processus et contribuer à éduquer les utilisateurs, l’équipe a pris la décision d’incorporer une couche d’explication dans le modèle afin que lorsqu’elle identifie un cas de langage stigmatisant, elle fournisse automatiquement une explication détaillée de sa classification, basée sur sur les quatre éléments de stigmatisation identifiés lors de l’analyse initiale des publications Reddit.
« Nous pensons que ces commentaires automatisés peuvent sembler moins critiques ou conflictuels que les commentaires humains directs, ce qui pourrait rendre les utilisateurs plus réceptifs aux changements suggérés », a déclaré Bouzoubaa.
Cet effort est le plus récent ajout au travail fondamental du groupe examinant la manière dont les gens partagent en ligne des histoires personnelles sur leurs expériences avec la drogue et les communautés qui se sont formées autour de ces conversations sur Reddit.
« À notre connaissance, aucune recherche n’a été menée pour traiter ou contrer le langage utilisé (informatiquement) qui peut faire en sorte que les personnes appartenant à une population vulnérable se sentent stigmatisées », a déclaré Bouzoubaa.
« Je pense que c’est le plus grand avantage de la technologie LLM et l’avantage de notre travail. L’idée derrière ce travail n’est pas trop complexe ; cependant, nous utilisons les LLM comme un outil pour atteindre des longueurs que nous n’aurions jamais pu atteindre auparavant sur un problème qui est également très exigeant et c’est là que réside la nouveauté et la force de notre travail.
En plus de rendre publics les programmes, l’ensemble des données sur les publications au langage stigmatisant, ainsi que les alternatives déstigmatisées, les chercheurs prévoient de poursuivre leurs travaux en étudiant comment la stigmatisation est perçue et ressentie dans les expériences vécues des personnes souffrant de troubles liés à l’usage de substances. .