Agrégateur de contenus

Psychologie et intelligence artificielle

Dr William Aubé, neuropsychologue et conseiller scientifique à la Direction des communications de l'Ordre - waube@ordrepsy.qc.ca

Avec la collaboration du Dr Yves Martineau, neuropsychologue et conseiller scientifique à Direction de la qualité et du développement de la pratique à l'Ordre.


L’essor de l’intelligence artificielle (IA), avec le développement de grands modèles de langage, bouscule sans contredit nos repères et suscite diverses réactions, toutes compréhensibles, qu’elles soient optimistes, mitigées, prudentes ou encore défensives. ChatGPT de même que d’autres plateformes ont fait couler beaucoup d’encre notamment en raison de la croissance phénoménale du nombre d’utilisateurs, mais surtout en raison de l’étendue des champs d’application potentiels. Nous voilà donc confrontés à une période charnière, à une transition technologique qui aura des impacts non seulement sur le visage futur de la psychologie, mais aussi sur la pratique des psychologues.

Vous avez probablement eu vent d’applications fondées sur l’IA destinées au soutien psychologique sous la forme de robots conversationnels ou encore de logiciels pour soutenir le travail clinique du psychologue (Kannampallil et al., 2023; Kaywan et al., 2023; Graham et al., 2019 ; Luxton, 2014). L’émergence de ces applications en santé mentale soulève des enjeux éthiques et des questionnements délicats sur un large continuum, des biais découlant d’algorithmes en passant par la transparence de l’IA jusqu’à sa finalité – dont la portée peut rapidement nous échapper (Abrams, 2023, Luxton et al., 2016). Prenons donc un pas de recul pour mieux comprendre l’IA et son potentiel d’application en clinique, mais aussi, plus particulièrement, pour réfléchir à des balises pertinentes à offrir aux psychologues dans le cadre de leur pratique.

Définition et terminologie

Clarifions d’abord ce dont il est question lorsqu’on évoque l’IA. L’Office québécois de la langue française (OQLF) définit l’IA comme un « domaine d’étude ayant pour objet la reproduction artificielle des facultés cognitives de l’intelligence humaine dans le but de créer des systèmes ou des machines capables d’exécuter des fonctions relevant normalement de celle-ci » (OQLF, 2017a). ChatGPT (version 3,5) donne lui-même une définition un peu plus précise : « L’IA est un domaine de l’informatique qui se concentre sur la création de systèmes capables d’effectuer des tâches qui nécessitent généralement l’intelligence humaine (par exemple la résolution de problèmes, la reconnaissance, la prise de décision, etc.). L’IA vise à développer des programmes et des machines qui peuvent simuler des processus cognitifs humains et effectuer des tâches de manière autonome, en s’appuyant sur des données et des algorithmes. » L’IA est donc un vaste champ de recherche à l’intersection de plusieurs disciplines dont les technologies sont complexes (Luxton, 2014 ; De Saint Laurent, 2018).

L’expression « système d’intelligence artificielle » (dont le sigle est SIA) (OQLF, 2023; 2017b) est parfois privilégiée ; elle fait référence à des applications concrètes, comme des logiciels, qui utilisent les technologies de l’IA afin d’atteindre un objectif. L’IA est aussi souvent qualifiée de « générative », selon les applications, puisqu’elle parvient à créer du contenu dit « nouveau » et « original », comme des textes et des images – à partir de modèles d’apprentissage profond. On peut aussi entendre l’appellation « IA disruptive », laquelle fait référence au potentiel de transformations significatives pour d’innombrables secteurs.

Un bref contexte historique

Bien que les enjeux liés à l’IA et à la psychologie paraissent très récents, les réflexions à ce sujet ne datent pas d’hier. En 1950, le mathématicien et informaticien Alan Turing propose un jeu d’imitation – aujourd’hui connu comme le test de Turing – se résumant essentiellement à cette question : est-ce qu’une machine peut berner un humain en lui faisant croire qu’elle est un humain? Plusieurs travaux se poursuivent dans les décennies suivantes, jamais bien loin de la psychologie. Dès 1966, un premier robot conversationnel, nommé ELIZA, est créé par Joseph Weizenbaum du MIT. ELIZA simule une conversation avec un psychothérapeute d’approche rogérienne (Bassett, 2019).

En 2014, dans un article intitulé Artificial intelligence in psychological practice: Current and future applications and implications, le psychologue David D. Luxton discute de l’IA en pratique clinique. Il prévient alors de l’omniprésence à venir de l’IA et invite les psychologues à jouer un rôle proactif dans le déploiement de ces technologies. Considérant les avancées récentes en IA, il ne fait plus aucun doute que la psychologie devra s’adapter à la croissance des SIA et que les psychologues devront tôt ou tard trouver une posture qui leur sied parmi tous les enjeux et les réflexions à considérer.

L’humain au coeur des principes

En juillet 2023, l’American Psychological Association (APA) a répondu à une demande de la Maison-Blanche (plus précisément de l’Office of Science and Technology états-unien) et formulé six principes centraux à appliquer à l’IA en vue de la mise en place d’une stratégie nationale américaine (APA, 2023).

Tableau 1 - Principes centraux à appliquer à l'IA (APA, 2023)

En ce qui nous concerne, ces principes suscitent plusieurs questionnements face à la complexité et à la vastitude de l’IA, invitent à la modération et ont le potentiel de ralentir un optimisme mal avisé. Par ailleurs, soulignons que ces recommandations de l’APA sont tout à fait arrimées avec les principes de la Déclaration de Montréal pour un développement responsable de l’IA (Université de Montréal, 2018) ainsi qu’avec les principes que promeut l’Organisation mondiale de la santé (2021) à cet égard.

Les applications en psychologie : un survol

Il n’est pas nécessairement aisé, selon notre degré de littératie numérique, de saisir tous les usages potentiels des SIA dans le quotidien du psychologue. En effet, ceux-ci pourraient s’appliquer à plusieurs volets (Sutton, 2021), notamment pour la psychothérapie et l’évaluation. Bien au-delà de la réalisation de tâches administratives comme la prise de rendez-vous et la gestion des reçus, les SIA pourraient, voire peuvent déjà, rédiger les notes évolutives, rédiger des sections de rapports dans un style appris, insérer directement dans un rapport des informations colligées par questionnaires ou durant les rencontres, réaliser la correction et la cotation des épreuves psychométriques, intégrer ces résultats au rapport et même aiguiller le clinicien quant aux probabilités d’un trouble X ou d’un diagnostic Y sous la forme d’aide à la décision clinique, puis proposer des recommandations ou des objectifs psychothérapeutiques.

Un SIA pourrait écouter in vivo une rencontre de psychothérapie ou d’évaluation et proposer des analyses sur le contenu (par exemple des thématiques) ou sur la forme (ton de la voix, débit, etc.) des propos, mais aussi des pistes de réflexion ou d’intervention. À l’issue de plusieurs rencontres en psychothérapie, un SIA pourrait résumer l’évolution d’un client, dresser un bilan détaillé ou encore formuler des hypothèses cliniques. Tout cela ne relève désormais plus de la science-fiction. Et on ne discute même pas ici des robots conversationnels destinés au soutien psychologique (Demszky et al., 2023).

Les enjeux

La lecture de ces exemples suscite évidemment de nombreuses questions éthiques et cliniques sur lesquelles il est crucial de se pencher. En voici quelques-unes qu’un clinicien doit se poser : suis-je compétent pour déterminer quel type de SIA convient à mon client? Quels critères permettent d’établir un consentement libre et éclairé face à cette technologie1? Les données personnelles partagées avec un SIA sont-elles protégées? Quel est mon degré de confiance envers un tel système? Est-ce que les informations fournies par un SIA dans un cas donné sont valides et fiables? Est-ce que cela me permettrait de réduire significativement ma marge d’erreur dans une conclusion diagnostique? Quels sont potentiellement les biais induits par l’utilisation d’un SIA? Quels sont les impacts du SIA sur mon jugement clinique? Quels sont les impacts du SIA sur l’alliance thérapeutique et le processus en psychothérapie? Les bienfaits et les avantages outrepassent-ils les risques et les inconvénients? À quels besoins principaux répond l’usage d’un SIA dans un cas donné?

En cette ère où l’efficience et la performance semblent toujours avoir le dernier mot, il est nécessaire de se questionner quant aux besoins auxquels peuvent répondre les SIA et quant à leur contribution à la qualité des services rendus à un client donné. Une posture réflexive porteuse serait de positionner le client au centre de la réflexion de sorte que nous soyons plus à même de cerner la pertinence d’utiliser un SIA eu égard à des besoins spécifiques. Il en va aussi de la confiance du public envers la profession. En sous-question, il importe aussi de se demander à qui profitera la technologie et qui en sera le plus grand bénéficiaire2. Selon Luxton (2022), il est tout aussi juste de se demander qui est derrière la « machine ». Quels sont les objectifs, les motivations et les valeurs de ces entreprises ou de ces entités?

La transparence des données : nécessaire pour prendre une décision éclairée

L’accessibilité aux données et aux informations intégrées aux SIA est primordiale afin de permettre au psychologue d’évaluer si celles-ci peuvent être utilisées dans le cadre de sa pratique. Une des principales forces d’un SIA est de pouvoir traiter une vaste quantité de données – appelées mégadonnées ou données massives (OQLF, 2020) – évidemment bien au-delà des capacités humaines. Cela étant, tout le fonctionnement du SIA repose sur ces données et leurs propriétés. Les capacités semblent illimitées, certes, pourtant les données en question doivent être représentatives de notre clientèle ou d’un client donné et pertinentes. La « qualité » de ces données est donc centrale et le psychologue doit pouvoir en juger pour décider d’y avoir recours ou non. C’est ce à quoi l’on réfère lorsqu’il est question de transparence des données, soit l’accessibilité aux informations intégrées au SIA.

Afin de pouvoir prendre une décision éclairée en ce sens, on pourra alors aussi se demander d’où proviennent les données, comment elles ont été collectées, si elles contiennent des biais, etc. La disponibilité d’informations sur la classification des données et le modèle de prise de décision et de prédiction du SIA peuvent tout autant aider à mieux comprendre et, par conséquent, favoriser ou non la confiance envers le système. Pensons à des questions comme : quels sont les éléments ciblés par le modèle pour indiquer, par exemple, un TDAH, ou un trouble dépressif? Quelle est la marge d’erreur? Par ailleurs, il est difficile de vouloir faire équipe avec une « boîte noire » dont on ne peut comprendre les réflexes (Chin-Yee et Upshur, 2023). La transparence est aussi cruciale puisqu’elle permettra de fournir des informations clés qui mèneront à la décision, par le psychologue, d’utiliser ou pas le SIA dans son travail clinique, ainsi que, par le client, de consentir ou de refuser de manière éclairée (Schiff et Borenstein, 2019).

Cela dit, il n’est pas rare que les humains ne soient même plus en mesure de comprendre la décision d’un SIA en raison de la trop grande complexité du système, ce qui ne facilite en rien la réflexion. Il sera donc essentiel de se référer à des critères d’évaluation des modèles prédictifs tels que ceux proposés par Meehan et ses collaborateurs (2022). À l’issue d’une revue systématique dans le champ de la psychiatrie, ces auteurs énoncent qu’au-delà de la précision statistique des modèles de prédiction, leur utilité en contexte clinique devra être éprouvée en établissant la preuve de leur apport significatif (« bénéfice net ») aux décisions cliniques, en comparaison aux pratiques usuelles, ce qui n’est pas le cas pour la très grande majorité des modèles à l’étude. De plus, les modèles statistiques prédictifs, bien que très performants lorsqu'ils sont appliqués aux données sur lesquelles ils ont été entraînés, sont vulnérables au phénomène de surajustement (« overfitting ») lorsqu'on leur soumet de nouvelles données indépendantes comme c'est le cas en pratique clinique. Concrètement, cela se traduit par des prédictions moins fiables, voire erronées, étant donné notamment la difficulté du modèle à généraliser au-delà des données d'entraînement. Chekroud et ses collaborateurs (2024) ont récemment illustré ce phénomène dans le champ de la psychiatrie où un modèle entraîné ne performait pas mieux que le hasard dans ses prédictions à partir de nouvelles informations. Autrement dit, il y a encore du chemin à parcourir avant de pouvoir confirmer la pertinence clinique de tels outils d’aide à la décision clinique en santé mentale (voir aussi Graham et al., 2019).

Les psychologues québécois et l’IA : les résultats d’un sondage

Des données préliminaires d’un sondage de la Chaire de recherche en santé numérique de HEC Montréal portant sur les perceptions et les intentions liées à l’IA parmi l’ensemble des professionnels au Québec3 aident à cerner où se situent les psychologues à ce sujet.

D’abord, en ce qui a trait à la confiance, il est frappant de relever que 53,7 % des psychologues ayant répondu indiquent ne pas avoir confiance envers les technologies numériques de l’IA, tandis que seulement 18,3 % disent avoir confiance – 27,8 % sont neutres. Les réponses à une autre question du sondage permettent de mieux circonscrire ces appréhensions : 63,4 % des répondants rapportent que l’opacité des technologies basées sur l’IA a un effet sur le niveau de confiance à l’égard de l’IA en général – 12,9 % ne rapportent pas d’effet et 23,7 % sont neutres. De surcroît, ce sont 50 % des psychologues qui anticipent que le recours aux technologies de l’IA aura un effet négatif ou très négatif sur la confiance des patients à l’égard du travail et du jugement professionnel – 13 % indiquent un effet positif et 37 % sont neutres.

Les avis sont par ailleurs très partagés concernant la pertinence de l’IA comme aide à la prise de décision clinique. Ce sont 33,3 % qui indiquent qu’il s’agit d’un domaine propice au recours à l’IA tandis que 36,6 % ne sont pas de cet avis – 30,1 % répondent « je ne sais pas ».

Enfin, bien qu’une majorité de psychologues (58,6 %) disent ne pas se sentir anxieux par rapport aux nouvelles compétences théoriques et pratiques à apprendre pour utiliser l’IA au travail, 20,2 % le sont – 11,7 % répondent « je ne sais pas ».

La finalité

Dans Le désœuvrement du thérapeute et la suprématie du connaître en psychothérapie, Dauphin (2020) discute de notre rapport aux connaissances, aux outils, aux méthodes et aux techniques non sans impact sur les cliniciens. À propos du risque de réduire la psychothérapie au « connaître », l’autrice écrit : « Cette quête contribue notamment à détourner le développement de la pensée critique et créative. Mais, plus précisément, elle tend à atrophier la capacité idiosyncratique et créatrice de puiser en soi une vérité qui puisse être utilisée à tout moment et en présence de tout individu souffrant qui fait une demande de soins. » Cette réflexion ici collée à la psychothérapie se transpose tout à fait à notre rapport à l’IA et à la finalité de son usage en psychologie de façon plus large, dans d’autres champs de pratique. Il y a donc lieu de penser qu’un des pièges de l’intelligence artificielle puisse être celui de sombrer dans l’artifice, voire dans l’artéfact.

L’Ordre et l’IA

Dans le mot de la présidente de décembre dernier, la Dre Grou a résumé ainsi la posture de l’Ordre vis-à-vis des SIA : « Bien qu’il y ait beaucoup d’adaptation, d’incertitude et de questionnements à ce sujet, l’Ordre promeut une posture réflexive et surtout non prescriptive. En ce sens, je vais toujours préconiser le recours au jugement clinique et le respect de l’autonomie professionnelle de chacun. Cette prémisse s’applique tout autant pour les enjeux liés à l’usage de l’intelligence artificielle. »

Rappelons que l’Ordre a adopté en 2008 l’Énoncé de politique sur la pratique fondée sur les données probantes en psychologie, lequel, toujours d’actualité, stipule que : « La pratique fondée sur les données probantes en psychologie (PFDP) intègre les meilleurs résultats de recherches disponibles et l’expertise clinique en tenant compte des caractéristiques des patients, de leur culture et de leurs préférences » (Ordre des psychologues du Québec, 2018). À l’intersection de ces trois éléments à pondérer s’ouvre le jugement clinique du psychologue, qui prévaut de façon autonome (figure 1).

Le Code de déontologie des psychologues contient également bon nombre de repères pour réfléchir à l’usage des SIA en psychologie, au même titre que d’autres technologies et méthodes d’évaluation qui ont suscité, par le passé, des adaptations (voir Laverdière et Régis, 2023, pour des balises déontologiques plus spécifiques à l’IA en santé et en relations humaines). Si l’IA soulève plusieurs questions, nous ne sommes pas sans repères pour y réfléchir.

Figure 1 - La pratique fondée sur les données probantes en psychologie

Conclusion

Les psychologues possèdent des compétences riches et singulières pour voir et réfléchir à l’usage des SIA en psychologie clinique, d’une part, mais aussi, d’autre part, de façon plus large sur le plan sociétal. Des balises et des principes ont été exposés afin d’orienter nos réflexions, et ce, bien que des questionnements cliniques et éthiques subsistent. Il va sans dire que selon la clientèle, le champ de pratique, le milieu de travail, notamment, les besoins de recourir à un SIA pourront grandement varier. Cela dit, positionner le client – et ses besoins – au centre de la réflexion permet de prendre une décision plus éclairée quant au fait d’utiliser ou non un SIA.

À la lueur de données préliminaires, la confiance envers l’IA notamment en ce qui a trait à l’opacité ressort comme un frein potentiel à l’usage des SIA par les psychologues. Bien que les SIA ne soient pas, pour le moment, une panacée en psychologie dans le quotidien du psychologue, il serait judicieux de demeurer vigilant et de tendre une oreille attentive vers les développements à venir. Il est nécessaire que les psychologues puissent jouer un rôle proactif dans cette transition technologique et établir les assises sur lesquelles l’IA prendra place dans nos pratiques respectives.

Enfin, il y a sans contredit beaucoup d’aspects importants qui n’ont pas été abordés dans cette chronique, dont les impacts sur la formation des étudiants en psychologie ou encore les interventions et le soutien auprès d’une clientèle qui vivra elle aussi des inquiétudes ou des changements liés aux transformations suscitées par l’IA. Les réflexions se poursuivent.

Notes et bibliographie

Notes

  1. À cet égard, on s’attend à ce que le psychologue soit d’abord en mesure d’expliquer le fonctionnement de l’IA à son client avant d’explorer avec lui les avantages et les inconvénients de l’usage de cet outil.
     
  2. Ces questionnements ont été évoqués par Lyse Langlois, directrice générale de l’Observatoire international sur les impacts sociétaux de l’IA et du numérique, lors du colloque du Conseil interprofessionnel du Québec (CIQ) intitulé L’impact de l’intelligence artificielle sur les professionnels, tenu en septembre 2023.
     
  3. Par Faustin Armel Etindele Sosso (chercheur postdoctoral) et Guy Paré (professeur titulaire à HEC Montréal). Le sondage exhaustif de plus de 50 questions a été transmis aux membres de l’Ordre par courriel le 18 octobre puis le 6 novembre 2023. Seules les données concernant les psychologues ayant répondu au sondage ont été transmises à l’Ordre (n = 95). Parmi les répondants, 46 % exercent dans le réseau public et 50 % en pratique privée.

Bibliographie