OpenAI annonce une nouvelle fonctionnalité dans le service ChatGPTUne fonction qui rappelle aux utilisateurs de faire une pause, et ajuster simultanément la stratégie de réponse de l'IA face à une prise de décision hautement personnalisée, dans l'espoir de réduire la dépendance trompeuse ou excessive à l'IA.
Cette nouvelle fonctionnalité s'affichera sous forme de rappel contextuel lorsque la conversation d'un utilisateur avec ChatGPT est trop longue, avec un message du type : « Vous discutez depuis un moment ; est-ce le moment de faire une pause ? » L'utilisateur devra cliquer pour confirmer avant de poursuivre la conversation. Ce type de conception est courant sur les consoles Nintendo Wii et Switch, où un message contextuel invite le joueur à mettre en pause lorsque le temps de jeu est trop long. Maintenant qu'OpenAI a appliqué ce concept aux conversations IA, des préoccupations plus profondes se posent.
Selon le New York Times en juin 2025rapportCertains utilisateurs, après une interaction prolongée avec ChatGPT, ont adopté des schémas de pensée malsains, allant même jusqu'à évoquer des pensées suicidaires. Bien que la plupart des cas soient liés à des problèmes de santé mentale préexistants, le modèle d'IA ne parvient toujours pas à démontrer pleinement ses mécanismes de protection face aux sujets sensibles. Il risque plutôt de « suivre » les pensées négatives des utilisateurs, les alimentant et suscitant de nouvelles inquiétudes.
OpenAI a indiqué dans un communiqué officiel que ChatGPT présente des problèmes de réponses inappropriées dans certaines situations, notamment lorsque les utilisateurs soulèvent des questions à haut risque ou privées, auxquelles le système peut ne pas répondre avec suffisamment de prudence. Par conséquent, les futures versions de ChatGPT adopteront une approche de « réflexion assistée » pour répondre à ces questions, plutôt que de fournir des conclusions directes.
Plus précisément, l’IA tentera de guider les utilisateurs pour décomposer les problèmes, poser des questions connexes et même lister les avantages et les inconvénients afin de rendre la conversation plus constructive, tout en évitant les malentendus ou les fardeaux psychologiques causés par des suggestions unidirectionnelles.
OpenAI a déjà tenté de rendre ChatGPT plus humain grâce à des mises à jour, mais ces efforts ont également suscité de vives réactions. Une mise à jour d'avril dernier a rendu l'IA trop amicale, voire trop flatteuse, suscitant le mécontentement des utilisateurs et conduisant finalement OpenAI à annuler certaines mises à jour. L'introduction d'un « rappel de pause » et les ajustements du mécanisme de réponse aux conversations à haut risque visent à trouver un équilibre entre convivialité et retenue.
De plus, cette mise à jour s'inscrit parfaitement dans l'engagement d'OpenAI à promouvoir une utilisation éthique de l'IA. Alors que l'IA générative pénètre rapidement des domaines comme l'éducation, le conseil psychologique et la planification de vie, la manière dont l'IA interagit avec les humains dépasse le simple questionnaire d'information et peut profondément influencer la cognition, la prise de décision et les émotions des utilisateurs. OpenAI reconnaît le potentiel de l'IA à influencer l'état mental des utilisateurs et cherche à l'améliorer par la conception de systèmes.
Bien que cette fonctionnalité n'en soit qu'à ses débuts, il reste à voir si OpenAI étendra son application à l'avenir, voire collaborera davantage avec les établissements de santé mentale. Ce qui est certain, cependant, c'est que si l'IA générative améliore l'efficacité et la commodité, elle doit également relever les nouveaux défis qu'elle engendre sur les plans émotionnel et psychologique.



