Tag: Deepfake

OpenAI lance la plateforme de vidéos courtes « Sora », la qualifiant de version IA de TikTok

La fonctionnalité de portrait « Cameo » de l'application OpenAI Sora fait l'objet d'une poursuite pour contrefaçon de marque déposée intentée par la plateforme vidéo de célébrités Cameo.

L'outil de création vidéo par intelligence artificielle d'OpenAI, Sora, a suscité une controverse juridique avec sa fonctionnalité « Cameo », qui permet aux utilisateurs d'ajouter leur propre portrait à des vidéos générées par l'IA. Selon un article de Reuters, Cameo, plateforme spécialisée dans les courtes vidéos personnalisées de célébrités, a officiellement porté plainte contre OpenAI, l'accusant de contrefaçon de marque pour utilisation abusive du nom « Cameo ». Dans sa déclaration, Cameo critique vivement OpenAI pour « appropriation illicite délibérée d'une marque déposée au niveau fédéral » et pour « mépris flagrant » de la « confusion manifeste des consommateurs » et du « préjudice irréparable » causé aux droits de marque et à l'image de Cameo. Le PDG de Cameo, Steven Galanis, a déclaré avoir tenté de résoudre le différend à l'amiable, mais OpenAI a refusé de cesser d'utiliser le nom, contraignant Cameo à engager une action en justice. Réponse d'OpenAI : La plateforme estime que le terme « Cameo » ne peut faire l'objet d'une revendication exclusive. Concernant la plainte, un porte-parole d'OpenAI a répondu que l'entreprise examinait la plainte mais « ne reconnaît pas que quiconque puisse revendiquer des droits exclusifs sur le terme « camée »...

YouTube lance un outil de détection de portraits basé sur l'IA pour aider les créateurs à lutter contre les Deepfakes

YouTube lance un outil de détection de portraits basé sur l'IA pour aider les créateurs à lutter contre les Deepfakes

Avec le lancement récent de Sora 2 d'OpenAI et d'autres outils de génération d'IA avancés, de plus en plus puissants et répandus, les inquiétudes concernant l'utilisation abusive de la technologie deepfake se sont rapidement accrues. Célébrités et utilisateurs lambda risquent de voir leur image modifiée ou usurpée arbitrairement. En réponse, après avoir annoncé l'année dernière une fonctionnalité similaire, YouTube a récemment commencé à déployer un nouvel outil de détection de ressemblance auprès de certains créateurs, afin de lutter contre les contenus deepfake non autorisés sur la plateforme et de permettre aux créateurs de demander la suppression de ces vidéos. Dans un premier temps, cette fonctionnalité est réservée aux membres du Programme Partenaire YouTube (YPP). Cette stratégie prend clairement en compte le fait que les créateurs disposant de capacités de monétisation ont généralement une plus grande visibilité, ce qui rend leurs traits faciaux plus vulnérables à l'usurpation d'identité par deepfake. Les créateurs doivent soumettre des pièces d'identité et des selfies pour élaborer un modèle de comparaison. Selon YouTube, les créateurs doivent se soumettre à une procédure de vérification pour activer cette fonctionnalité. Concrètement, ils doivent soumettre une pièce d'identité officielle (carte d'identité) et un court selfie à YouTube. Ce système remplit un double objectif : premièrement, vérifier que le demandeur est bien la personne concernée, afin d’éviter toute utilisation abusive de l’outil ; deuxièmement, fournir au système d’IA suffisamment de données pour construire un modèle précis des traits du visage lors des analyses et comparaisons ultérieures. Similaire à Content ID, mais ne prenant pas encore en charge la comparaison vocale par IA, son fonctionnement après vérification sera très proche de celui du système de détection de droits d’auteur Content ID de YouTube. Le système analysera automatiquement les vidéos nouvellement mises en ligne, en les comparant à la présence de contenu modifié par IA correspondant aux traits du visage du créateur. En cas de correspondance potentielle, le système en informera le créateur. Ce dernier pourra alors consulter les résultats et, une fois l’infraction confirmée, signaler la vidéo et demander sa suppression à YouTube. Cependant, cette fonctionnalité ne couvre actuellement que les cas où « le visage d’une personne a été modifié par IA ». Quant aux cas où « le son est modifié par IA » sans que l’image ne soit modifiée, le système ne pourra pas les détecter efficacement pour le moment. Cela signifie que l’utilisation abusive des voix générées par IA reste un problème que YouTube doit résoudre.

Le YouTube Festival a organisé sa première exposition interactive physique à Taiwan, aidant davantage de créateurs de contenu à réaliser des bénéfices et permettant à davantage de marques de mener des activités de marketing numérique.

Google intègre Veo 3, l'outil de génération de vidéos, à YouTube Shorts. L'essor de la création par l'IA est-il sur le point d'exploser ?

Lors de son discours d'ouverture au Festival international de la créativité Cannes Lions, le PDG de YouTube, Neal Mohan, a annoncé l'intégration officielle de Veo 3, le tout dernier outil de génération vidéo par IA, à la plateforme YouTube Shorts, avec un lancement prévu cet été. Grâce à cette intégration, les créateurs pourront générer rapidement de courtes vidéos en saisissant simplement une phrase. Mohan a décrit l'IA comme un « outil aux possibilités illimitées », soulignant que « toute personne ayant une histoire à raconter peut transformer ses rêves en carrière grâce à l'IA » et que « toute personne ayant une voix peut rassembler les gens et changer le monde ». Si cela semble idéaliste, en réalité, cette technologie pourrait inonder YouTube Shorts de vidéos de chats et de chiens, de blagues et de parodies générées par l'IA. Veo 3 : Des effets de fond à un générateur vidéo complet. D'ailleurs, YouTube a déjà implémenté cette technologie dans son précédent Dream Screen…

Combattant la magie par la magie, KKCompany dévoile « TheKeeper », une plateforme de gestion d'avatars numériques alimentée par l'IA, construite avec la technologie blockchain et l'IA.

Combattant la magie par la magie, KKCompany dévoile « TheKeeper », une plateforme de gestion d'avatars numériques alimentée par l'IA, construite avec la technologie blockchain et l'IA.

Face à l'utilisation massive de la technologie deepfake générée par l'intelligence artificielle ces dernières années, KKCompany a dévoilé aujourd'hui (12 décembre) sa plateforme de gestion d'avatars numériques IA, « TheKeeper », lors de son événement Innovation Day. Développée avec les technologies blockchain et d'intelligence artificielle, TheKeeper ambitionne de contrer l'intelligence artificielle par l'intelligence artificielle et d'explorer de nouvelles opportunités de développement d'applications. ▲KKCompany dévoile sa plateforme de gestion d'avatars numériques IA, « TheKeeper », développée avec les technologies blockchain et d'intelligence artificielle. Outre les interventions de représentants d'entreprises telles que le CNRS, Chunghwa Telecom, Taiwan Mobile, Microsoft, CommonWealth Magazine, AWS, IGPI Group et KDDI, qui ont partagé leurs points de vue sur la transformation apportée par l'intelligence artificielle et les opportunités de développement numérique qu'elle offre, KKCompany a également présenté des avatars numériques créés avec la technologie « TheKeeper » par l'intermédiaire de Wang Wei-chung, animateur de télévision taïwanais, et de la YouTubeuse « Chi-Chi-Chi-Chi ». Le groupe populaire Mango Jump a également démontré comment créer davantage de contenu grâce à la technologie « TheKeeper », permettant ainsi de toucher un public plus large. Peng Hongda, directeur général adjoint du Centre de produits d'innovation de KKCompany, a déclaré que le marché est actuellement inondé de contenus « deepfake » générés par l'IA. Le marché des contenus musicaux générés par l'IA connaît une croissance annuelle de 60 %, et les créateurs de musique du monde entier pourraient subir une baisse de revenus allant jusqu'à 11 milliards de dollars d'ici 2028 en raison de l'impact de cette technologie. Cela inclut les œuvres dérivées créées à partir des visages et des voix des créateurs grâce à l'IA. Par conséquent, des créateurs, y compris au Japon, ont récemment appelé à se prémunir contre les effets néfastes de l'IA sur l'écosystème créatif. À mesure que l'IA progresse, de nombreux contenus « deepfake » deviennent de plus en plus réalistes, rendant difficile la distinction entre les œuvres originales et authentiques et impactant ainsi de nombreux créateurs. ▲Combattre la magie par la magie : À l'ère de l'intelligence artificielle, nous devons utiliser cette technologie pour lutter contre la contrefaçon. L'idée de KKCompany est donc de combattre la magie par la magie, en utilisant l'IA pour contrer l'IA, en créant une « banque d'avatars numériques » grâce à la technologie blockchain et en établissant des avatars numériques personnels pour les créateurs. Ces avatars incluent leur apparence physique et leur voix, générées par l'IA, et chaque utilisation est enregistrée. De plus, un tatouage numérique est utilisé pour empêcher le vol du contenu audio et vidéo (à l'aide de tags et de sons numériques difficilement discernables à l'oreille humaine). ▲ Le contenu vocal généré par l'IA est quasiment indiscernable de l'interprète original. Actuellement, la tonalité et la hauteur de la voix sont presque identiques. Tout en garantissant une utilisation responsable du contenu, « TheKeeper » permet d'utiliser l'apparence physique et la voix du créateur pour diverses applications : interaction avec les fans via un avatar numérique, réécriture des paroles de chansons, conversion rapide de documents imprimés en livres audio avec une lecture immersive, et même traduction de podcasts ou de vidéos (nationaux et étrangers) en différentes langues, avec la reproduction de la voix originale. Actuellement, TheKeeper s'est également associé à la plateforme d'hébergement de podcasts Firstory afin de proposer une fonctionnalité de traduction multilingue. ▲ TheKeeper permet d'utiliser l'image et la voix d'un créateur à diverses fins : interagir avec les fans grâce à un avatar numérique, créer des œuvres dérivées de paroles de chansons, convertir rapidement des contenus imprimés en livres audio avec une narration immersive, et même traduire des podcasts ou des vidéos (nationaux et internationaux) en différentes langues tout en reproduisant l'audio original. TheKeeper repose sur les services Microsoft Azure et sa technologie blockchain, qui préserve la confidentialité, est basée sur l'environnement Ethereum 2.0. Cependant, les technologies sous-jacentes n'ont pas encore été divulguées publiquement et devraient être expliquées lors du lancement officiel prévu au premier trimestre 2025.

Trend Micro met à jour son application de prévention de la fraude basée sur l'IA, ajoutant des fonctionnalités à ses fonctionnalités de détection de deepfake et de sécurité du contenu, notamment l'échange de visage et d'autres escroqueries deepfake.

Trend Micro met à jour son application de prévention de la fraude basée sur l'IA, ajoutant des fonctionnalités à ses fonctionnalités de détection de deepfake et de sécurité du contenu, notamment l'échange de visage et d'autres escroqueries deepfake.

Trend Micro a lancé une nouvelle application antifraude basée sur l'IA pour les appareils iOS et Android, mettant l'accent sur quatre fonctions clés : « détection des escroqueries deepfake, vérification des fraudes, filtrage des SMS et protection Web » afin d'empêcher les utilisateurs de devenir victimes d'escroqueries dans un contexte de prolifération des technologies d'IA générative. Fang-Wei Chu, responsable marketing produit chez Trend Micro, a déclaré : « Forts de 35 ans d’expérience dans le domaine des cybermenaces, nous avons commencé à utiliser des technologies liées à l’IA pour renforcer les défenses en matière de cybersécurité bien avant que l’IA générative ne devienne un sujet d’actualité. Face à l’ampleur de la fraude et à l’inquiétude qu’elle engendre pour le public, nous avons lancé une application antifraude basée sur l’IA. Celle-ci intègre une fonction de détection des deepfakes pour identifier les vidéos truquées, et utilise l’analyse sémantique pour développer une fonction de vérification des fraudes permettant d’identifier efficacement les menaces connues et inconnues. De plus, elle met à jour en continu les informations sur les activités frauduleuses publiées sur le réseau antifraude n° 165 de l’Agence nationale de police (telles que les identifiants LINE, les numéros de téléphone et les sites web frauduleux), contribuant ainsi à la sécurité en ligne du public. » Hung Wei-kan, directeur général de Trend Micro Taïwan, a souligné : « La fraude en ligne est devenue une préoccupation majeure. Avec l’essor de l’IA générative, l’environnement numérique est de plus en plus dangereux, ce qui accroît considérablement la fréquence des attaques et la difficulté à distinguer les informations authentiques des contrefaçons. En tant que leader mondial de la cybersécurité, outre l’optimisation continue de nos technologies de R&D et de nos bases de données pour lutter contre les menaces en ligne, nous conseillons également au public de rester vigilant, de vérifier systématiquement toute activité suspecte et de renforcer ses défenses grâce à des outils de cybersécurité afin de se prémunir efficacement contre les menaces. » La nouvelle application AI Anti-Fraud Expert offre une protection supplémentaire contre les arnaques deepfake, en identifiant instantanément les vidéos ou les diffusions en direct comportant des échanges de visages générés par l’IA, empêchant ainsi les personnes mal intentionnées d’utiliser des visages de célébrités ou de personnes connues pour commettre des fraudes. Parmi ses autres fonctionnalités, on retrouve la capacité d’identifier les images et les descriptions textuelles falsifiées générées par l’IA, ainsi que les sites web d’hameçonnage dissimulés. L’application protège également contre les arnaques à l’investissement, de plus en plus fréquentes, grâce à des fonctions de vérification de la fraude permettant de contrôler si les images, les textes, les numéros de téléphone et les liens web présentent des risques de fraude potentiels. De plus, la fonction de filtrage des SMS permet de réduire l'impact des messages frauduleux. La nouvelle application AI Anti-Fraud Expert sera vendue au prix de 890 NT$ par an, tandis que les utilisateurs actuels pourront l'acquérir pour 590 NT$. Par ailleurs, l'offre PC-cillin AI Anti-Fraud Special Detective Team, comprenant la version cloud PC-cillin 2025 et la version bureau AI Anti-Fraud Expert (abonnement d'un an), sera également lancée. Son prix initial est de 1 880 NT$, et les utilisateurs actuels pourront l'obtenir pour 1 290 NT$.

En raison des progrès continus de la technologie Internet, Google a confirmé que son service de recherche ne fournira plus de pages en cache.

Google permet aux utilisateurs de supprimer plus facilement les contenus faux et explicites qui portent atteinte à leur vie privée

Google a récemment mis à jour sa politique de sécurité de la recherche, facilitant ainsi la suppression des contenus non autorisés ou fortement falsifiés utilisant les traits du visage ou d'autres données personnelles des utilisateurs. Avec l'essor de l'IA capable de remplacer les visages par d'autres, les visages de célébrités, d'influenceurs et même de citoyens ordinaires sont de plus en plus souvent utilisés à des fins de canulars en ligne. C'est pourquoi Google prévoit de mettre à jour sa politique de sécurité de la recherche afin de simplifier la suppression de ces contenus portant atteinte à la vie privée. Lorsqu'un utilisateur découvre que son visage ou des données personnelles ont été délibérément falsifiés, il doit fournir une URL, une capture d'écran et des images pertinentes pour examen. Une fois la demande approuvée, Google supprimera des résultats de recherche les liens vers les contenus non autorisés ou fortement falsifiés utilisant son visage. Google filtrera également automatiquement tout contenu similaire ou identique sur ses services et le supprimera de sa plateforme. Cependant, pour l'instant, Google ne peut supprimer que les liens présents dans ses propres résultats de recherche. Si le contenu fortement falsifié est hébergé sur d'autres plateformes ou accessible via d'autres moteurs de recherche ou services d'IA, il ne peut pas être supprimé par les services de Google. Par ailleurs, Google a également annoncé qu'il ajusterait le classement des sites web susceptibles de diffuser des contenus faux et explicites, afin de privilégier les sites proposant des contenus de qualité et exempts de contenus explicites. Dans le même temps, l'entreprise a souligné son engagement à réduire la proportion de contenus faux et explicites.

Google met à jour sa politique relative au contenu inapproprié pour interdire explicitement les sites Web et services publicitaires susceptibles de générer de la pornographie deep fake.

Google met à jour sa politique relative au contenu inapproprié pour interdire explicitement les sites Web et services publicitaires susceptibles de générer de la pornographie deep fake.

Google a récemment mis à jour sa politique relative aux contenus inappropriés, interdisant explicitement aux annonceurs de promouvoir des sites web et des services capables de générer des deepfakes pornographiques. Auparavant, Google imposait déjà des restrictions strictes à la promotion de contenus pornographiques explicites ; cette mise à jour restreint davantage les deepfakes pornographiques générés par l'intelligence artificielle, témoignant de la volonté de Google de mieux endiguer la diffusion de contenus pornographiques en ligne. Conformément à cette nouvelle politique, les publicités pour les sites web et services capables de générer des deepfakes pornographiques seront suspendues et ces derniers ne pourront plus diffuser de publicités sur la plateforme Google. La nouvelle politique entrera officiellement en vigueur le 30 mai, laissant ainsi aux annonceurs le temps de s'adapter. En raison des progrès de l'intelligence artificielle, de nombreux sites web et services mettent en avant leur capacité à générer des contenus pornographiques très réalistes, allant jusqu'à se faire passer pour des services légitimes afin d'être référencés sur le Google Play Store et l'App Store, ou promus via des canaux en ligne, générant ainsi davantage de contenus pornographiques et attirant un grand nombre d'utilisateurs. Par conséquent, Google espère réduire la diffusion de contenus pornographiques explicites sur ses plateformes en mettant à jour sa politique relative aux contenus inappropriés.

Intel présente FakeCatcher, une technologie d'analyse d'intelligence artificielle qui utilise des mouvements subtils des vaisseaux sanguins pour déterminer si une vidéo est fausse.

Intel présente FakeCatcher, une technologie d'analyse d'intelligence artificielle qui utilise des mouvements subtils des vaisseaux sanguins pour déterminer si une vidéo est fausse.

Intel a présenté FakeCatcher, une nouvelle technologie d'analyse par intelligence artificielle capable d'identifier les vidéos truquées (Deepfakes) avec une précision allant jusqu'à 96 %. Développée en collaboration avec des chercheurs de l'Université d'État de New York, cette technologie utilise les ressources logicielles d'OpenVINO pour construire un modèle d'IA et exploite la bibliothèque logicielle multithread Intel Integrated Performance Primitives ainsi que les outils de traitement d'images en temps réel d'OpenCV. Elle intègre également les outils Intel Deep Learning Boost et le jeu d'instructions Advanced Vector Extensions 512, et effectue au moins 72 opérations de simulation sur les processeurs Intel Xeon Scalable de troisième génération. Lors de l'analyse, Intel indique pouvoir analyser les mouvements subtils des vaisseaux sanguins dans la vidéo afin de déterminer si le flux sanguin y paraît naturel, ce qui constitue l'un des critères permettant de détecter une manipulation numérique. Selon Intel, le battement du cœur humain provoque de légères variations de couleur des veines. La solution d'Intel consiste à analyser ces variations et à convertir les données en une carte spatio-temporelle, permettant ainsi de déterminer si le contenu vidéo est truqué. À l'avenir, cette technologie pourrait être utilisée pour analyser les vidéos sur les services en ligne afin d'empêcher les utilisateurs de télécharger de fausses vidéos susceptibles d'avoir des effets néfastes, et les médias d'information pourraient également l'utiliser pour déterminer si les documents d'information qu'ils recueillent sont fabriqués.

Facebook prévoit d'utiliser l'intelligence artificielle pour réduire l'impact des faux comptes Deepfake et des querelles sur les réseaux sociaux

Facebook prévoit d'utiliser l'intelligence artificielle pour réduire l'impact des faux comptes Deepfake et des querelles sur les réseaux sociaux

Suite à l'accent mis sur le développement de l'intelligence artificielle (IA) lors de la conférence F8 Refresh de cette année, Facebook a annoncé, dans un communiqué précédent, sa collaboration avec des chercheurs de l'Université d'État du Michigan. L'objectif est de décrypter les profils et images générés par la technologie Deepfake afin d'identifier les faux comptes sur Facebook. Par ailleurs, Facebook a indiqué qu'il utilisera l'IA pour identifier les conflits au sein des groupes, permettant ainsi aux administrateurs d'intervenir plus rapidement et d'éviter l'escalade. Selon Facebook, l'IA analysera divers faux comptes dissimulés grâce à la technologie Deepfake afin de réduire la diffusion de fausses informations et de contenus pornographiques. Cependant, cette technologie est encore au stade de la recherche et son intégration aux services existants de Facebook n'est pas encore prévue. Le communiqué précise également que l'IA analysera les images pour détecter d'éventuelles manipulations et les marquera individuellement afin de déterminer comment leur contenu a été généré et s'il s'agit d'un faux. Une autre application de l'IA consiste à identifier les propos polémiques ou offensants dans les discussions de groupe, permettant ainsi aux administrateurs d'en prendre connaissance plus rapidement et d'intervenir pour apaiser les tensions. À l'instar de la technologie utilisée pour identifier les images Deepfake, Facebook a déclaré que la technologie permettant de déterminer le caractère controversé des discussions communautaires est actuellement en phase de test et n'a pas encore été déployée officiellement. D'après les explications de Facebook concernant son modèle de fonctionnement, le système utilise l'apprentissage automatique pour analyser des facteurs tels que le temps de réponse moyen et le volume de contenu dans les discussions afin de déterminer si un contenu représente une interaction négative. Cependant, des erreurs d'interprétation restent possibles en raison de réponses rapides, et les résultats peuvent également être faussés par des propos sarcastiques, argotiques ou truffés de jeux de mots.

Vous croyez encore aux beautés d'Internet ? La YouTubeuse « Rui » confirme que son beau visage est artificiel.

Vous croyez encore aux beautés d'Internet ? La YouTubeuse « Rui » confirme que son beau visage est artificiel.

Le youtubeur sud-coréen « Rui » (루이) a récemment confirmé que son visage apparaissant dans ses vidéos avait été créé grâce à l'intelligence artificielle par la société de logiciels sud-coréenne dob Studio. D'après une interview de la personne qui interprète « Rui », ce dernier aspirait à devenir chanteur, mais face à l'importance démesurée accordée à l'apparence dans l'industrie du divertissement sud-coréenne, il a accepté de collaborer avec dob Studio. Grâce à l'apprentissage profond, les combinaisons faciales les plus populaires issues de données statistiques ont été dynamiquement intégrées au visage de « Rui » dans les vidéos. À l'instar de la technologie utilisée pour les deepfakes, dob Studio a appliqué le visage généré par apprentissage profond au contenu vidéo ; ainsi, seuls le corps (du bas du cou jusqu'aux cheveux) et la voix appartiennent réellement à « Rui ». Outre les vidéos YouTube, les photos publiées sur Instagram sont également créées grâce à l'intelligence artificielle. Si la popularité des vidéos originales reposait sur l'image attrayante du youtubeur et sa voix puissante, elle reflétait également un biais sociétal en faveur de la beauté physique. Bien que nombreux soient ceux qui possèdent un talent vocal exceptionnel, leur manque de présence scénique, dû à des préjugés physiques, les a empêchés d'atteindre la même notoriété que Susan Boyle, révélée par l'émission britannique de télé-crochet « Star Avenue ». L'intelligence artificielle pourrait donc les aider à réaliser leur rêve de débuter sur scène. Par ailleurs, grâce aux progrès constants des technologies associées, les avatars virtuels et les streamers en direct créés par l'IA trouvent des applications de plus en plus nombreuses. Ainsi, la société japonaise Hololive propose des services de diffusion en direct via des avatars virtuels, tandis que la chaîne de télévision sud-coréenne MBN s'est associée à la société MoneyBrain, spécialisée en IA, pour créer « AI Kim Joo-ha », une présentatrice de journal télévisé virtuelle, afin d'assister ses équipes dans la diffusion des informations. Outre l'utilisation par LG du personnage virtuel « Reah Keem » pour présenter ses nouveaux produits au CES 2021, Samsung Star Labs a également créé « Neon », un personnage bionique ultra-réaliste conçu grâce à l'intelligence artificielle. Ce personnage trouvera de nombreuses applications dans divers services interactifs numériques. De plus, avec les progrès constants de la technologie Deepfake, il devient de plus en plus difficile de distinguer les images fixes et les vidéos numériques authentiques des contrefaites. Bien que des projets techniques existent actuellement, utilisant des algorithmes d'intelligence artificielle pour analyser le reflet des yeux humains dans les images générées par Deepfake afin de déterminer si les traits du visage sont composites, on s'attend à ce que de futures solutions soient développées pour rendre les images composites encore plus difficiles à distinguer des images réelles.

Ravis de vous revoir!

Connectez-vous à votre compte ci-dessous

Récupérez votre mot de passe

Vous avez déjà une adresse e-mail? Cliquez ici.