Pour les femmes enceintes aux prises avec le trouble de la consommation d’opioïdes, la stigmatisation entourant la dépendance peut rendre difficile la demande d’aide.
Drew Herbert, doctorant à la University of Missouri Sinclair School of Nursing et infirmière à temps plein qui a de l’expérience dans le traitement des personnes atteintes de troubles, a vu cela de première main.
« Cela peut être une conversation difficile pour les femmes enceintes d’élever à leur clinicien, à leur famille ou à leurs amis en premier lieu, et si elles le font, on pourrait se dire simplement: » Vous devriez vous arrêter « , pensez à votre bébé » ou « quittez simplement » « , a déclaré Herbert. « Non seulement ces réponses manquent d’empathie et de compassion, mais il peut également être difficile de quitter la dinde froide, car les retraits d’opioïdes peuvent être dangereux pour la maman et son fœtus à naître. »
Bien que les chatbots en ligne puissent parfois être peu fiables, Herbert sait que beaucoup de gens se sentent souvent plus à l’aise pour demander des conseils médicaux sur Internet de manière anonyme – sans crainte de jugement. Ainsi, Herbert était curieux de savoir si le GPT-4 pouvait être formé pour donner des conseils de traitement sûr, précis, favorable et empathique pour les femmes enceintes souffrant de troubles de la consommation d’opioïdes.
Il s’avère que cela peut, a trouvé Herbert.
Le document est publié dans le Journal des études sur l’alcool et les drogues.
Une ressource de confiance et de compassion
Dans une récente étude de preuve de concept, Herbert a créé « Jade », une femme fictive qui, à six semaines enceinte, a déclaré à la version affinée de GPT-4, elle était prête à quitter les opioïdes mais ne savait pas comment.
Plutôt que de dire immédiatement à Jade quoi faire, le chatbot a d’abord remercié Jade d’avoir partagé son voyage et a félicité la force qu’il a fallu pour demander de l’aide. Ensuite, en s’appuyant sur des lignes directrices fondées sur des preuves de l’American Society of Addiction Médicaments et de l’American College of Obstetrician and Gynecologists, GPT-4 a introduit Jade à la buprénorphine, un médicament qui peut aider à réduire les envies et à prévenir les symptômes de sevrage, créant un environnement plus sûr pour Jade et son bébé à naître.
« Nous avons demandé au chatbot d’utiliser des entretiens de motivation, une approche de conseil où vous aidez les gens à surmonter la résistance au changement », a déclaré Herbert. « Plutôt que de dire à quelqu’un quoi faire, vous le responsabilisez sur leur chemin vers le changement d’un lieu d’empathie et de soutien. Cette approche est très efficace dans les espaces de troubles de la consommation de substances. »
Lorsque Jade a demandé de l’aide à la recherche d’un médecin dans la région de Denver, le chatbot a répondu par une liste de centres de traitement locaux, d’options de télémédecine et de répertoires réputés tels que l’outil de localisation de traitement de la toxicomanie et de la santé mentale et le répertoire des fournisseurs de la médecine de la toxicomanie américaine.
Deux cliniciens ayant une expérience du traitement des troubles de l’utilisation d’opioïdes ont jugé les réponses du chatbot comme sûres, précises et pertinentes plus de 96% du temps.
Juste le début
Herbert voit un potentiel significatif de cette étude initiale. Il prévoit de réprimer davantage le chatbot en utilisant les commentaires des cliniciens et des femmes qui ont connu une consommation d’opioïdes pendant la grossesse.
À l’avenir, Herbert ne considère pas les chatbots comme un remplacement des cliniciens, mais comme une source supplémentaire d’informations dignes de confiance qui peuvent être utilisées de diverses manières.
Les premières conversations en ligne avec des chatbots pourraient encourager les gens à voir un clinicien une fois qu’ils se sentent plus préparés. Les informations fondées sur des preuves provenant des chatbots peuvent être incorporées dans les applications et les pages Web pour smartphone avec FAQ. Les séances de thérapie enregistrées peuvent être transcrites afin que les chatbots puissent identifier les meilleures pratiques pour les professionnels du traitement de la toxicomanie et les domaines à améliorer.
« Mon objectif global est de diffuser des informations précises sur le traitement à autant de personnes que possible pour le moins de coût possible », a déclaré Herbert. « Au milieu d’une pénurie de cliniciens à l’échelle nationale, tout le monde n’a pas un accès rapide, facile et abordable aux soins de santé. Nous apprenons davantage sur la façon dont ces modèles de langues peuvent être exploités pour aider les gens à devenir plus sains, et une fois que nous construisons ces modèles davantage, ils peuvent potentiellement aider beaucoup de gens. »