LE QUOTIDIEN : Comment s’y retrouver dans la jungle des applications en santé mentale ?
Dr STÉPHANE MOUCHABAC : Je distinguerais les applications « bien-être » des applis médicales aux objectifs thérapeutiques définis, utilisées dans le cadre d’une prescription. Ce sont deux champs différents, pour des profils différents… À ceci près que des applications grand public peuvent aider des personnes ayant des troubles caractérisés, ce d’autant qu’elles ne sont pas stigmatisantes.
Aujourd’hui, il n’y a pas d’application avec des objectifs thérapeutiques qui soit remboursée en France. Mais le paysage se modifiera d’ici 3 à 4 ans. Des sociétés ou institutions mènent des études pour les faire valider comme dispositif médical notamment, et réfléchissent à leurs modèles économiques (faut-il cibler le grand public ou aller vers le soin ?). En attendant, certaines sont déjà prises en charge par des mutuelles à l’étranger (en Allemagne par exemple). Sans oublier toutes les applis bien-être à portée de main.
À quoi peuvent servir ces applications ?
Tout dépend de leur conception. Certaines reposent sur un programme de thérapie cognitivo-comportementale (TCC) ou d’engagement, spécifiquement centré sur un symptôme ou des syndromes (l’humeur, l’anxiété). D’autres ont des briques qui composent une constellation : elles proposent un panel d’actions comme de la motivation pour faire de l’exercice physique, de la gestion du stress plus classique avec de la respiration et de la méditation de pleine conscience, de la cohérence cardiaque, des incitations sociales… Ces éléments peuvent être réintégrés dans un cadre thérapeutique. D’ailleurs, dans ma pratique, je recours à des applis validées de cohérence cardiaque, d’activité physique ou encore les agendas de sommeil, des choses simples.
Et ce n’est pas parce qu’elles sont « bien-être » qu’elles ne marchent pas : la méditation de pleine conscience a fait ses preuves. Toute la question est : l’algorithme qui propose les actions est-il bien calculé et adapté à l’individu et à sa symptomatologie actuelle ?
À moyen terme, les outils avec une intelligence artificielle (IA) embarquée, qui seront capables de recueillir des données passives en temps réel, reflets de nos comportements (via GPS, capteurs de lumière, enregistrement de la voix…) pourront aider les soignants à personnaliser les traitements. Bien analysées, ces données peuvent révéler que vous êtes déprimé ou en rechute, entre deux consultations. De telles applications pourraient être des outils complémentaires du thérapeute (sans aucunement le remplacer) pour guider le patient dans la thérapie. Cela n’est pas du coaching, mais la poursuite de la thérapie, assistée par IA.
Enfin, la réalité virtuelle en immersion peut être utilisée pour traiter les phobies, par exemple, en exposant le patient à des environnements infinis, modulables en fonction de son état de santé.
Comment s’assurer de la qualité des outils ?
En France, l’Agence du numérique en santé (ANS) vient de lancer un projet de plateforme d’outils numériques en santé, où seront recensés les applis et services en ligne qu’elle aura validés. Il est important notamment de savoir qui en est le constructeur (institution ? société privée ? individu ? ) ; quelle est la boîte noire (comment cela marche ? à qui appartiennent les données ?) ; quels sont les objectifs et critères scientifiques sous-jacents ; et quelle est l’interopérabilité des données.
Nous travaillons à construire ces grilles d’évaluation. Nous nous sommes aussi penchés sur l’acceptabilité de ces outils, sur le plan technique et sociétal. Il faut encadrer ces innovations pour éviter que ce ne soit le Far West. Un like n’est pas de la science. Nous devons construire un consensus avec toutes les parties prenantes, ingénieurs, informaticiens, entrepreneurs, investisseurs mais aussi médecins, infirmiers, psychologues et patients, car les temporalités et les besoins des uns et des autres sont différents. Le patient doit être au cœur de la création de ces outils.
Les soignants sont-ils prêts à s’en emparer ?
En 2017, nous avions évalué l’acceptabilité sociale et pratique des applis, auprès de 600 psychiatres et 2 000 infirmières. Elle était très faible, soit parce que les professionnels ne les connaissaient pas, soit parce qu’ils y voyaient des risques trop importants.
L’acceptabilité dépend de plusieurs critères. L’outil est-il efficace ? Efficient, tant sur le plan cognitif que technique ? Le temps passé à se l’approprier est-il proportionnel à l’objectif ? Quels sont la fiabilité perçue, les coûts et les risques que la personne y entrevoit ?
Il existe en outre une dimension plus sociétale autour de la sécurisation des données, des bénéfices et coûts pour le collectif… Les réponses à ces questions déterminent la façon dont une société accepte les transformations de ses pratiques.
En quoi les pratiques médicales, notamment en psychiatrie, peuvent-elles être bouleversées ?
Ces outils vont capter des réalités qu’on ne perçoit pas, dans notre discipline qui repose sur le face-à-face subjectif et l’observation clinique. Cela démultiplie le potentiel thérapeutique. Il nous faudra intégrer ces outils dans les algorithmes décisionnels, et trouver des règles de prescription. Ils invitent à imaginer de nouvelles façons de traiter.
En enregistrant nos comportements en continu, les applications peuvent nous renseigner de manière plus fiable que la parole du patient et de sa famille sur la qualité de son sommeil, par exemple. Elles peuvent livrer un phénotype numérique, des signatures de comportements, et émettre des alertes – charge au médecin de savoir s’il faut les prendre en compte. Elles ont le pouvoir de modifier la relation médecin-patient et les pratiques, comme jadis le stéthoscope l’a fait. Elles augmentent notre capacité à soigner, mais ne nous remplacent pas. En revanche, notre ego risque d’en prendre un coup. Et le manque de formation des étudiants sur ces sujets est regrettable.
Êtes-vous étonné que l’IA parvienne à se montrer aussi voire plus empathique qu’un médecin ?
Ce n’est pas étonnant : l’IA sait simuler un comportement et reconnaître des émotions, même si le robot n’a aucune conscience de lui-même. En miroir, nous sommes capables d’attribuer de l’agentivité à du non-vivant (comme un nounours ou la chaise sur laquelle on s’est cogné). Il est important alors, sur le plan éthique, de préciser à l’utilisateur qu’il converse avec un robot.
Quels sont les risques de ces applis ?
Une partie sont inhérents à l’informatique et concernent la protection et la propriété des données. Il existe aussi des risques d’erreur : l’outil doit être fiable et apporter un réel bénéfice. Nous nous interrogeons aussi sur la transformation de la notion de la santé. Qu’est-ce qu’implique le repérage précoce ? Être en bonne santé est-il un impératif ? Pour l’heure, il me semble que ces outils doivent s’appliquer d’abord aux sujets qui ont des troubles. Et ne nous méprenons pas, l’acceptabilité chez les patients psychiatriques est tout aussi aléatoire qu’en population générale, ils ne sont pas plus réticents.
Dr Patrick Gasser (Avenir Spé) : « Mon but n’est pas de m’opposer à mes collègues médecins généralistes »
Congrès de la SNFMI 2024 : la médecine interne à la loupe
La nouvelle convention médicale publiée au Journal officiel, le G à 30 euros le 22 décembre 2024
La myologie, vers une nouvelle spécialité transversale ?