Un robot pourrait-il être un thérapeute décent?

Conférence Ellie Therapist Bot Talkspace

Nous avons vu une intelligence artificielle avancée capable de tenir une conversation comme Siri, Watson d’IBM et Cortana de Microsoft. Mais n'importe quel robot - même quelque chose conçu uniquement pour la psychothérapie et plus avancé que les IA susmentionnées - pourrait-il être un thérapeute décent?





Les gens ont utilisé bots pour la thérapie, mais il n'est pas clair s'ils pourraient surpasser les thérapeutes humains de notre vivant. Regarder le passé, le présent et l'avenir possible des robots en tant que thérapeutes vous donnera une idée de leur efficacité.

Un premier exemple d'un robot essayant d'être un thérapeute

ELIZA est l'un des programmes les plus anciens et les plus connus à avoir tenté d'agir en tant que thérapeute. Joseph Weizenbaum, professeur au MIT et informaticien, a conçu ELIZA pour fournir une psychothérapie rogérienne.





Parce que la psychothérapie rogérienne encourage principalement les clients à parler plus plutôt que de s'engager dans une discussion, les capacités de conversation limitées d'ELIZA ont suffi à convaincre certaines personnes qu'il était humain et à les aider à se sentir un peu mieux face à leurs problèmes. Néanmoins, ELIZA ne ​​pouvait rien fournir de comparable à une thérapie avec un thérapeute humain.

Pour démontrer les limites d'ELIZA, j'ai généré la transcription suivante à l'aide d'un simulateur ELIZA moderne :



ELIZA: Bonjour, je suis Eliza.
Talkspace: Salut Eliza, je me sens seule et déprimée ces derniers temps, mais je ne sais pas pourquoi. Pouvez-vous m'aider à comprendre cela et à me sentir mieux?
ELIZA: Peut-être aimeriez-vous être en mesure de vous aider à comprendre cela et à vous sentir mieux?

Remarquez comment ELIZA prend mon texte et le reformule, en me concentrant de nouveau sur moi et en m'encourageant à parler plus plutôt qu'à converser. Cette approche fonctionne pour certains clients mais devient rapidement frustrante et inutile pour d'autres.

Au fur et à mesure que l'IA et les chatbots progressaient, ils sont devenus capables de conversations plus convaincantes. Que les programmeurs les aient conçus pour une thérapie non, les améliorations technologiques leur ont permis de fournir une bien meilleure thérapie que ELIZA. Pourtant, les robots modernes ne sont généralement pas assez intelligents pour rivaliser avec un thérapeute humain.

Bots modernes qui peuvent fournir une thérapie de base

En créant de plus grandes bases de données de réponses parmi lesquelles choisir et en développant des programmes qui pourraient parler d'eux-mêmes, les programmeurs ont créé des robots qui pourraient plus facilement passer pour des thérapeutes.

Lors de la conférence clinique Talkspace, L'avenir de la thérapie , Professeur à l'USC et directeur de la recherche sur les humains virtuels Jonathan Gratch démontré comment les formes modernes d'intelligence artificielle peuvent fournir un dépistage clinique et une thérapie de base. Gratch a présenté Ellie, une IA qu'il a utilisée pour «obtenir des indicateurs de dépression» au cours d'une étude.

Conférence sur l
Gratch est sur le côté droit de l'image.

Voici une partie du dialogue entre un participant à L'étude de Gratch et Ellie:

Ellie: Alors, comment vas-tu aujourd'hui?
Participant: Je vais bien.
Ellie: C'est bien. Quelle est votre origine?
Participant: Je viens de Los Angeles.
Ellie: Oh, je suis moi-même de Los Angeles.

j'ai une crise d'angoisse

Contrairement à ELIZA, Ellie a pu parler d'elle-même et générer une conversation plutôt que de ne reformuler que les réponses qu'elle a reçues. Le programme reconnaît les expressions faciales et analyse l'audio et la posture, selon Gratch. Il utilise cette analyse pour formuler sa réponse et ajuster son ton.

Néanmoins, Gratch a admis qu'Ellie était loin d'être en mesure de fournir le genre de compréhension qu'un thérapeute humain pouvait.

'Il ne comprend pas profondément de quoi vous parlez', a déclaré Gratch. 'Je ne pense pas que nous soyons capables, avec la technologie à court terme, de comprendre fondamentalement les objectifs, les motivations et les besoins d'une personne.'

Ellie a été implémentée de manière sûre. Il peut cependant y avoir des conséquences négatives lorsqu'un bot ne parvient pas à comprendre les émotions et à filtrer les informations lors de conversations sensibles et à enjeux élevés, comme celles entre thérapeutes et clients.

Un exemple de ceci était Main , un bot Microsoft conçu pour interagir avec les gens et apprendre d'eux, modifiant constamment ses réponses et son comportement en fonction du texte qu'il a reçu. Les créateurs de Tay ont eu l’horrible idée de le libérer sur Twitter, où il pouvait interagir avec n'importe qui sur Internet.

Cela a commencé innocemment, avec Tay utilisant un argot amusant et faisant des blagues. Mais comme Twitter regorge de trolls, cela s'est terminé par des commentaires racistes de Tay et par la négation de l'Holocauste.

Page Twitter de Tay
Microsoft a fermé Tay et protégé ses tweets après l'incident.

Les robots thérapeutes sont plus sensibles, mais il y a toujours le risque de recevoir des réponses volatiles de la part des clients et d'exacerber la situation plutôt que de les réconforter.

Les robots dépasseront-ils les thérapeutes humains dans un proche avenir?

Les robots sont à plusieurs décennies de dépasser la pensée créative et les capacités empathiques des thérapeutes. Il est également possible qu'ils ne puissent jamais rivaliser avec les thérapeutes. Ils sont un outil clinique utile, mais seul un thérapeute en chair et en os peut créer la relation thérapeutique nécessaire pour qu'un client fasse des progrès significatifs.