Lorsque vous portez des lunettes connectées Ray-Ban et utilisez l'IA Meta pour identifier les objets qui vous entourent, vous ignorez probablement que ces images en vue subjective sont surveillées de près par des personnes basées en Afrique. Selon une enquête conjointe des médias suédois et les révélations d'employés d'une société de sous-traitance au Kenya, Meta envoie quotidiennement une grande quantité de séquences vidéo enregistrées par les lunettes connectées Ray-Ban à des spécialistes du traitement des données au Kenya, à des fins de vérification et de formation. Plus choquant encore, en raison de dysfonctionnements fréquents du système de décryptage automatique, ces employés sont contraints de visionner des images extrêmement intimes de familles occidentales, notamment des scènes aux toilettes, de nudité, d'activité sexuelle, et même des images de cartes bancaires.
La classe ouvrière dans la révolution de l'IA : les « étiqueteurs de données » kenyans
SelonUne enquête conjointe des médias suédois Svenska Dagbladet et Göteborgs-PostenIl est précisé que lorsque les utilisateurs de lunettes intelligentes Ray-Ban activent la fonction d'IA (par exemple en posant des questions comme « Hey Meta, regarde ce qui se trouve devant moi et dis-moi… »), les lunettes capturent des images et des vidéos et les renvoient aux serveurs de Meta pour traitement.
Cependant, le parcours de ces données ne s'arrêtait pas là. Afin d'entraîner et d'optimiser en continu le système de reconnaissance visuelle par IA de Meta, ces images, représentant des scènes réelles d'utilisateurs, étaient constamment transmises à Sama, une société d'externalisation située à Nairobi, la capitale du Kenya. Là-bas, des milliers d'annotateurs de données passent leurs journées devant des écrans, à dessiner des cadres et à étiqueter les objets présents sur ces images.
Le décryptage basé sur un algorithme échoue, laissant la vie des utilisateurs complètement « nue ».
Le problème le plus grave est que Meta a une confiance excessive en sa technologie de masquage automatique de la vie privée.
Plusieurs employés de Sama, ayant signé des accords de confidentialité stricts, ont révélé aux médias qu'ils étaient fréquemment contraints de visionner des enregistrements extrêmement privés. En effet, l'algorithme de décryptage automatique intégré au système présente souvent des défaillances dans des conditions d'éclairage complexes, lors de scènes rapides ou dans des situations atypiques. Les annotateurs sont ainsi obligés d'assister directement à des scènes où des utilisateurs se rendent aux toilettes, s'exposent, voire ont des relations sexuelles. De plus, des informations financières personnelles très sensibles, telles que les numéros de carte bancaire et les mots de passe, leur sont présentées sans aucune protection.
Un employé de Sama a déclaré : « Nous pouvons tout voir, du salon à la nudité. Si les utilisateurs savaient exactement ce qu'ils enregistrent, ils n'oseraient plus jamais utiliser ces lunettes. »
Le traitement froid de Meta et la « carte de sortie de prison » cachée dans les conditions générales
Face à ces graves accusations de violation de la vie privée, la réponse de Meta a semblé évasive. L'entreprise n'a pas abordé directement les mesures préventives concrètes mises en place pour empêcher la fuite de vidéos privées, se contentant de souligner qu'elle « respecte scrupuleusement les conditions d'utilisation en matière de traitement des données ».
En réalité, si vous lisez attentivement les longues conditions d'utilisation de Meta (que presque personne ne lit jusqu'au bout), vous constaterez que Meta a déjà subtilement inclus une mention : « Certaines interactions avec l'IA peuvent faire l'objet d'une vérification humaine. » Kleanthi Sardeli, avocate viennoise spécialisée dans la protection des données, a souligné que cette pratique manque cruellement de transparence au regard de la réglementation européenne (comme le RGPD). En effet, lorsque les utilisateurs activent l'assistant vocal, la plupart ignorent totalement que la caméra de leurs lunettes enregistre la scène, et encore moins que ces images seront envoyées à l'autre bout du monde et visionnées par des inconnus.
Analyse des points de vue
Si les smartphones collectent des données, ils restent généralement dans une poche ou sur une table ; les lunettes connectées, en revanche, se portent sur le visage et le monde qu’elles perçoivent est celui que vous voyez de vos propres yeux. Lorsque vous entrez dans la salle de bain, dans votre chambre, ou même lorsque vous ouvrez votre portefeuille, tant que l’IA est en veille ou activée par inadvertance, votre vie devient un terrain d’entraînement gratuit pour les géants de la technologie.
Cet incident met également en lumière un secret de polichinelle dans le monde de la technologie : tous les modèles de vision par IA prétendument avancés dépendent extrêmement de l’« étiquetage » humain. Les algorithmes ne sont pas encore assez intelligents pour comprendre le monde par eux-mêmes ; ils ont besoin de travailleurs kenyans pour leur dire « ceci est une tasse » ou « ça, c’est un chat ».
Cependant, dans ce processus, les entreprises technologiques sacrifient souvent la confidentialité des utilisateurs au profit d'une itération rapide des modèles. À l'avenir, garantir la pureté et l'anonymat des données d'entraînement de l'IA dans le cloud avant la maturité de la technologie d'IA embarquée constituera un enjeu majeur auquel les géants comme Meta, Google et Apple, engagés dans le développement de lunettes intelligentes, devront impérativement répondre.



