Alors que les gouvernements du monde entier renforcent leur surveillance de la sécurité en ligne des mineurs, OpenAI a annoncé qu'elle mettrait en œuvre une série de mesures dans ChatGPT.Un tout nouveau mécanisme de prédiction de l'âge par l'IACette fonctionnalité ne se base plus uniquement sur la date de naissance saisie par l'utilisateur, mais utilise désormais l'IA pour analyser ses comportements et déterminer son âge réel. Dès que le système détecte qu'un utilisateur a moins de 18 ans, il active automatiquement des filtres de sécurité supplémentaires afin d'empêcher les mineurs d'accéder à des contenus inappropriés tels que la pornographie, la violence ou les incitations à l'automutilation.
Avant cela, OpenAI avait annoncé le lancement d'un « ... » conçu spécifiquement pour les utilisateurs âgés de 13 à 18 ans.ChatGPT pour adolescentsLes parents ou tuteurs peuvent lier leurs comptes à ceux des adolescents par invitation et choisir d'activer ou non la mémorisation des conversations, de conserver l'historique des discussions, et même définir des périodes de désactivation pour empêcher les adolescents d'utiliser les outils de messagerie IA pendant de longues périodes tard le soir. Le nouveau mécanisme de prédiction de l'âge par IA analyse et estime l'âge de l'utilisateur grâce à l'intelligence artificielle.
L'IA ne se contente pas d'observer les anniversaires ; elle capte également l'attention des gens en analysant « ce dont ils parlent » et « quand ils en parlent ».
Le nouveau modèle de prédiction d'âge d'OpenAI repose sur une logique assez unique. Il analyse en profondeur de multiples signaux provenant d'un compte, notamment les sujets abordés par l'utilisateur et ses caractéristiques comportementales, comme les périodes pendant lesquelles il utilise ChatGPT. Ainsi, même si un utilisateur falsifie son âge lors de son inscription, si le contenu de ses conversations ou son temps de connexion correspondent aux caractéristiques d'un mineur, l'IA le classera tout de même comme adolescent.
Une fois que le système vous aura identifié comme mineur, ChatGPT activera automatiquement des paramètres de sécurité stricts. Ces mécanismes de filtrage bloqueront ou masqueront les éléments suivants :
• Violence et gore excessifs
• Contenu impliquant le sexe, la romance ou les jeux de rôle
• Automutilation ou comportement dangereux
• Sujets liés à l'esthétique extrême, aux mauvaises habitudes alimentaires ou à l'anxiété liée à l'image corporelle
Cette fonctionnalité a déjà été déployée à l'échelle mondiale et sera disponible dans l'UE dans les prochaines semaines.
Et si je suis jugé à tort ? Je dois télécharger mes pièces d'identité pour vérification.
Puisqu'il s'agit d'une prédiction basée sur l'IA, une erreur d'appréciation est possible. Si un utilisateur adulte est identifié par erreur comme un enfant et que ses restrictions sont allégées, OpenAI propose une procédure de recours.
Les utilisateurs peuvent trouver l'option « Vérifier » dans le menu des paramètres de la version web de ChatGPT. Le système les redirigera ensuite vers Persona, un partenaire tiers, pour la vérification de leur identité. Cette procédure exige la prise d'un selfie en ligne et le téléchargement d'une copie de leur carte d'identité, de leur permis de conduire ou de leur passeport.
OpenAI précise que ces documents et photos servent uniquement à la comparaison effectuée par Persona. OpenAI reçoit uniquement les informations de réussite/échec et d'âge, et Persona supprimera les données d'images concernées sous 7 jours afin de garantir la confidentialité.
Efforts mondiaux pour lutter contre les vulnérabilités en matière de cybersécurité affectant les mineurs
OpenAI n'est pas la seule entreprise à utiliser l'intelligence artificielle pour analyser l'âge des utilisateurs. L'année dernière, Meta a également commencé à y recourir, et le gouvernement australien a pris des mesures fermes en décembre dernier, interdisant aux moins de 16 ans d'utiliser des réseaux sociaux comme TikTok et Facebook. Le Royaume-Uni envisage également de suivre cet exemple. De toute évidence, se fier uniquement à la bonne volonté des utilisateurs pour renseigner leur date de naissance ne suffit plus pour répondre aux exigences réglementaires actuelles, et l'intervention proactive de l'IA dans la détection est devenue une tendance du marché.
Analyse des points de vue
Bien que le système de « mesure de l'âge osseux par IA » d'OpenAI soit bien intentionné, il a également soulevé de nombreuses préoccupations en matière de respect de la vie privée.
Premièrement, l'analyse de l'âge à travers les « sujets de conversation » implique que l'IA doive, dans une certaine mesure, étiqueter sémantiquement l'historique des conversations des utilisateurs. Bien qu'OpenAI affirme pouvoir choisir de ne pas utiliser ces données pour entraîner le modèle, ce sentiment d'être « surveillé en temps réel » peut mettre mal à l'aise certains utilisateurs soucieux de leur vie privée.
Deuxièmement, pour de nombreux utilisateurs adultes qui utilisent ChatGPT pour l'écriture créative (notamment l'écriture de romans et les jeux de rôle), si les sujets de leurs conversations sont jugés « gênants » ou s'ils l'utilisent habituellement après l'école (l'après-midi), l'IA risque de les identifier par erreur comme mineurs et de bloquer certaines fonctionnalités, ce qui est très contraignant. Bien que la vérification d'identité soit proposée pour le déblocage, la transmission de ses documents d'identité à une plateforme tierce représente un obstacle supplémentaire en matière de sécurité.
Cependant, compte tenu des réglementations strictes des gouvernements européens et américains en matière de sécurité de l'IA et de protection de l'enfance, ces mécanismes obligatoires d'évaluation de l'IA, qui privilégient le principe « mieux vaut tuer les innocents que laisser les coupables en liberté », deviendront probablement de plus en plus courants à l'avenir, et deviendront une caractéristique standard de tous les services d'IA générative.



