De « Try Yoga » pour « commencer la journalisation », la plupart des conseils de santé mentale se lancent sur des tâches supplémentaires. Rarement, il vous dit d’arrêter de faire quelque chose de nocif.
De nouvelles recherches de l’Université de Bath et de l’Université de Hong Kong montrent que ce « biais de conseils additif » apparaît partout: dans les conversations entre les personnes, les messages sur les réseaux sociaux et même les recommandations des chatbots d’IA. Le résultat? Des conseils bien intentionnés qui peuvent laisser les gens se sentant plus submergés qu’aidés.
Avec des problèmes de santé mentale, la hausse du monde et les services sous pression, les amis, la famille, les communautés en ligne et l’IA sont souvent le premier port d’escale. Comprendre comment nous nous conseillons pourrait être essentiel pour rendre ce soutien plus efficace.
Une collection de huit études impliquant des centaines de participants, publiés dans Psychologie des communicationsanalysé des données expérimentales, des conseils Reddit réels et testé les réponses de Chatgpt. Les participants ont conseillé des étrangers, des amis et eux-mêmes sur des scénarios impliquant des habitudes nocives comme le jeu et manquer des activités bénéfiques telles que l’exercice.
Résultats clés:
- Les conseils additifs dominent: dans tous les contextes, les gens ont suggéré d’ajouter beaucoup plus d’activités que de supprimer les activités nuisibles.
- La faisabilité et les avantages: faire plus a été considéré comme plus facile et plus bénéfique que de réduire les choses nocives.
- Les conseils varient selon la relation: couper des choses nocives est considérée comme plus facile pour nos amis proches que pour nous-mêmes.
- L’IA reflète les préjugés humains: Chatgpt a donné des conseils à prédominance additive, reflétant les modèles dans les médias sociaux en ligne.
L’auteur principal, le Dr Tom Barry, du Département de psychologie de l’Université de Bath, en Angleterre, a déclaré: « En théorie, de bons conseils devraient équilibrer à faire plus en faisant moins. Mais nous avons trouvé une inclinaison cohérente pour empiler davantage sur les plaques des gens et même l’IA a appris à le faire. Bien que bien intentionné, cela peut se sentir intentionnel de la santé mentale comme une liste sans fin de chores. »
Le co-auteur, le Dr Nadia Adelina du Département de psychologie de l’Université de Hong Kong, a déclaré: « Alors que les chatbots de l’IA deviennent une source majeure d’orientation en santé mentale, ils risquent d’amplifier ce biais. Construire dans des invites à explorer ce que les gens pourraient retirer de leur vie pourraient rendre des conseils plus équilibrés et moins écrasants. »