Disney investit 10 milliard de dollars dans OpenAI, ce qui permet d'exploiter tous ses personnages et d'intégrer les créations de Sora à Disney+.

Disney investit 10 milliard de dollars dans OpenAI, ce qui permet d'exploiter tous ses personnages et d'intégrer les créations de Sora à Disney+.

素有「西半球最強法務部」等稱號的迪士尼 (Disney),過去對於自家IP的保護可說是滴水不漏,但在當前AI浪潮下,顯然也選擇不同作法。迪士尼稍早宣布,已與 OpenAI達成里程碑式的協議,迪士尼將對OpenAI進行10億美元的股權投資,並且獲得未來購買更多股權的認股權證 (Warrants)。 雙方將展開為期三年的深度合作,授權旗下超過200個經典角色將可用於OpenAI的Sora影片生成與ChatGPT Images圖像生成,預計於2026年初正式向粉絲開放。 漫威、皮克斯、星戰全解禁,連「光劍」與「盾牌」都能用 根據官方資訊,OpenAI的Sora (短影音) 與ChatGPT Images (靜態圖像) 將能合法使用來自迪士尼、皮克斯、漫威與星際大戰等品牌的200多個角色。 名單中不僅包含米奇、米妮、辛巴、貝兒等經典動畫角色,更囊括了《冰雪奇緣》、《動物方城市》、《腦筋急轉彎》等現代熱門IP。在漫威與星戰部分,鋼鐵人、雷神索爾、薩諾斯、死侍 (Deadpool),以及達斯維達、尤達、曼達洛人等重量級角色都包含在內。 而授權不僅限於角色本身,還包含了服裝、道具、載具,以及經典場景環境,意味粉絲未來可以用AI生成「死侍拿著光劍在迪士尼城堡戰鬥」的畫面。 嚴守「真人」底線,保障創作者權益 不過,迪士尼對於「人」的權益仍設下了絕對防火牆,協議中明確規範,授權範圍不包含任何真人演員 (Talent) 的肖像與聲音。這顯然是為了回應好萊塢工會對於AI數位替身的擔憂,確保如小勞勃道尼或馬克漢米爾等演員的權益不受侵害。 粉絲創作也能上串流?Sora精選影片將登Disney+ 這項合作最有趣的應用在於內容的「反向輸出」,迪士尼透露從2026年初開始,Sora用戶創作的部分優質AI短片,將能以「精選內容」 (Curated selections)的形式,直接登上Disney+串流平台播放,打破過去迪士尼僅播放自家製作內容的傳統。 此外,迪士尼也將成為OpenAI的主要企業客戶,利用其API開發新產品與工具,並且在內部為員工部署ChatGPT服務,由雙方執行長Bob Iger與Sam Altman共同背書,強調將推動「以人為本」且負責任的AI發展。 分析觀點:用資本換取「控制權」 筆者認為,迪士尼此舉是極為高明的戰略轉向。既然AI生成趨勢不可擋,與其讓網路上充斥著劣質或侵權的米老鼠AI影片,不如直接成為OpenAI的大股東 (透過投資與認股權證)。 ...

Photoshop et Acrobat ont rejoint ChatGPT, permettant aux utilisateurs de modifier des images et des PDF simplement en leur parlant.

Photoshop et Acrobat ont rejoint ChatGPT, permettant aux utilisateurs de modifier des images et des PDF simplement en leur parlant.

Après Spotify et Canva, OpenAI franchit une nouvelle étape dans son ambition de créer une « super-application d'IA ». Adobe a annoncé l'intégration officielle de ses trois principaux outils de productivité – Photoshop, Acrobat et Adobe Express – à la plateforme ChatGPT. Ainsi, plus de 8 millions d'utilisateurs de ChatGPT à travers le monde n'auront plus besoin de jongler entre les fenêtres pour accéder directement aux puissantes fonctionnalités d'Adobe pour le traitement d'images ou de documents au sein de l'interface de chat. Grâce à la technologie MCP, l'édition d'images devient transparente. Cette intégration ne se limite pas à un simple appel d'API, mais repose sur une connexion profonde via le serveur MCP (Model Context Protocol) d'OpenAI. Il suffit aux utilisateurs de saisir des commandes dans la boîte de dialogue (par exemple, « Éclaircir cette image ») ou de les sélectionner via le menu « + », et ChatGPT invoquera les outils Adobe. Plus intéressant encore, Photoshop est intégré à ChatGPT. Au lieu de simplement renvoyer une image modifiée, il affiche des curseurs de contrôle correspondants dans la fenêtre de dialogue, en fonction des commandes saisies. Par exemple : • Si vous dites « éclaircir », l’interface affichera des curseurs de réglage pour l’exposition, les ombres et les hautes lumières. • Si vous indiquez vouloir ajouter des effets, les options de filtre correspondantes apparaîtront. Grâce à cette conception, l’édition d’images par IA n’est plus une boîte noire ingérable ; les utilisateurs profitent de la simplicité d’utilisation de l’IA tout en conservant un contrôle précis sur les paramètres. Concernant Acrobat et Adobe Express, les utilisateurs peuvent générer directement des PDF ou concevoir des affiches au sein de la conversation, mais certaines fonctions nécessitent toujours la connexion à un compte Adobe. Adobe : Nous fournissons des briques Lego à ChatGPT pour qu’il les assemble. Face à la curiosité du monde extérieur – OpenAI possède déjà des technologies de génération d’images comme DALL-E – la démarche d’Adobe n’est-elle pas un exemple de « se tirer une balle dans le pied » ? Aubrey Cattell, vice-président de la plateforme de développement d’Adobe, ne le pense visiblement pas. Il décrit Adobe comme fournissant des outils MCP et des instructions détaillées, à l’instar de « briques Lego », tandis que ChatGPT se charge de comprendre l’intention de l’utilisateur et de l’assembler. Il considère le kit de développement logiciel (SDK) d'OpenAI comme un nouveau système d'exploitation, qu'Adobe utilise pour adapter ses applications à cette nouvelle interface ; les deux entreprises présentent une complémentarité naturelle dans leurs processus de travail. Analyse : une stratégie gagnant-gagnant pour faciliter l'accès aux logiciels professionnels. À mon avis, c'est une excellente initiative pour les deux parties. Pour OpenAI, cela renforce la position de ChatGPT en tant qu'« assistant universel » ; pour Adobe, les interfaces de logiciels professionnels comme Photoshop sont souvent trop complexes, ce qui dissuade de nombreux utilisateurs occasionnels. Grâce à l'interface en langage naturel de ChatGPT, les utilisateurs peuvent effectuer des retouches d'image basiques de la manière la plus intuitive qui soit (par la voix). Et si les utilisateurs jugent le traitement par l'IA insuffisamment précis et souhaitent davantage de contrôle, l'interface propose également un bouton permettant de revenir à la version web du programme d'Adobe en un seul clic. Cela facilite non seulement l'accès aux logiciels, mais crée également un canal d'acquisition d'utilisateurs potentiellement très important pour Adobe.

Google Cloud ajoute trois nouveaux services pour créer une plate-forme de données intégrée pour les entreprises

Google prend pleinement en charge le protocole MCP et a lancé un service entièrement géré qui permet aux agents d'IA de « prendre le contrôle » directement de l'infrastructure cloud.

Suite à la création de l'Agentic AI Foundation (AAIF) par la Linux Foundation et à l'intégration du protocole MCP (Model Context Protocol) comme norme fondamentale, Google a rapidement pris en charge le protocole MCP et étendu son offre aux serveurs MCP distants entièrement gérés. Les développeurs n'ont donc plus à gérer la couche de connexion, ce qui permet aux agents d'IA d'interagir directement avec Google Maps, BigQuery et même de gérer des infrastructures cloud comme Google Compute Engine et GKE. Considéré comme le « USB-C de l'IA », l'engagement officiel de Google envers le MCP, protocole ouvert proposé par Anthropic en 2024, consiste essentiellement en une interface standard définissant la communication entre les outils externes et les modèles d'IA. Grâce à son format d'interface cohérent, qui permet aux modèles d'accéder facilement à diverses bases de données et API, à la manière d'un périphérique USB-C, le MCP est parfois surnommé, non sans humour, « l'USB-C de l'IA ». Google souligne que, par le passé, les développeurs utilisant des serveurs MCP pour les services Google devaient souvent trouver des versions open source auprès de la communauté et les maintenir et les exploiter directement sur leur appareil, ce qui entraînait des coûts d'intégration plus élevés et une stabilité relativement difficile à contrôler. Grâce au service entièrement géré de Google, les développeurs n'ont plus qu'à configurer l'agent IA pour qu'il se connecte au point de terminaison MCP fourni par Google afin d'interagir directement avec les services Google Cloud. La première vague de quatre services couvre trois domaines principaux : l'interrogation de données, les informations géographiques et la gestion de l'infrastructure, de la consultation de cartes à la gestion des conteneurs : • Google Maps (Grounding Lite) : Fournit des données fiables telles que les informations de localisation, les prévisions météorologiques et les temps de trajet. Cela permet à l'agent IA de répondre aux questions concernant la planification de voyages ou les recommandations à proximité, réduisant considérablement le risque que le modèle fournisse des informations incohérentes (c'est-à-dire qu'il crée des illusions). • BigQuery : Permet à l'agent IA d'analyser nativement les schémas et d'exécuter des requêtes. Surtout, il élimine la nécessité d'importer des données dans la fenêtre Contexte…

Xingjing Technology a été la première à utiliser le BBU 800V à « refroidissement par immersion » pour les centres de données d'IA et s'est associée à AcBel Technology pour développer un écosystème d'alimentation CC haute tension.

Xingjing Technology a été la première à utiliser le BBU 800V à « refroidissement par immersion » pour les centres de données d'IA et s'est associée à AcBel Technology pour développer un écosystème d'alimentation CC haute tension.

XING Mobility, entreprise réputée pour ses supercars électriques et sa technologie brevetée de refroidissement des batteries, a récemment annoncé l'expansion de ses activités du « terrain » au « cloud ». Consciente du besoin urgent de puissance et de sécurité élevées dans les datacenters dédiés à l'IA, XING Mobility a dévoilé le premier module de batterie de secours (BBU) haute tension CC 800 V du secteur – le BBx800 – intégrant une technologie de refroidissement par immersion. Parallèlement, elle a annoncé un partenariat stratégique avec le géant de l'énergie AcBel afin de développer conjointement l'infrastructure électrique des datacenters dédiés à l'IA. Face aux problématiques de surchauffe et de risques inhérentes aux datacenters dédiés à l'IA, l'Agence internationale de l'énergie (AIE) prévoit que la consommation mondiale d'électricité des datacenters doublera d'ici 2030, sous l'effet de la forte demande en calculs d'IA. Pour les entreprises, l'alimentation de secours est devenue un élément essentiel de la gestion des risques opérationnels, et non plus un simple poste de dépenses. Le BBx800 de XING Mobility utilise sa technologie de refroidissement par immersion IMMERSIO, fruit de son expérience dans les véhicules électriques et les systèmes de stockage d'énergie. Sa conception repose sur l'immersion directe de chaque cellule de la batterie dans un liquide de refroidissement isolant, maintenant ainsi la batterie à une température contrôlée de 25 à 27 °C sur le long terme. Xingjing Technology souligne que cette conception réduit considérablement le risque d'emballement thermique, préservant l'intégrité structurelle et la stabilité thermique même dans des conditions de test extrêmes telles que la surcharge, la perforation par un clou ou l'échauffement, résolvant ainsi le problème de sécurité le plus préoccupant pour les batteries haute tension dans les centres de données. Avec une puissance de crête de 1.2 MW, elle est conçue pour les applications à haute puissance de calcul. Côté spécifications, un module BBx800 (2 OU) prend en charge des configurations flexibles de ±400 V ou 800 V. Dans une configuration rack 20 OU, sa capacité de puissance de crête peut atteindre 1 MW (pendant 3 minutes) à 1.2 MW (pendant 90 secondes). Cette spécification est conçue pour répondre aux exigences strictes des centres de données d'IA en cas de pics de calcul et de variations de charge instantanées. De plus, la conception du système prend en charge une configuration redondante N+1 et des modules remplaçables à chaud, et offre une garantie de performance de 10 ans afin de garantir une alimentation électrique ininterrompue lors de la maintenance du centre de données. Ce produit a également passé avec succès les tests UL9540A, se conformant ainsi aux normes de sécurité internationales. Partenariat avec AcBel, une alliance majeure sur le marché du courant continu haute tension (CCHT) : afin d’accélérer son entrée sur le marché, Xingjing Technology s’est associée au fournisseur mondial de solutions d’alimentation AcBel. Les deux entreprises mèneront des échanges techniques sur l’architecture d’alimentation et l’efficacité énergétique des centres de données d’IA, explorant conjointement les opportunités de marché du courant continu haute tension (CCHT).

Meta développe secrètement un nouveau modèle d'IA nommé « Avocado », conçu selon certaines sources dans un format non open source, visant à atteindre une « super intelligence ».

Meta développe secrètement un nouveau modèle d'IA nommé « Avocado », conçu selon certaines sources dans un format non open source, visant à atteindre une « super intelligence ».

Mark Zuckerberg, PDG de Meta, qui défendait auparavant une stratégie open source et avait même publié un long article soulignant que « l'IA open source est l'avenir », semble avoir récemment opéré un changement significatif dans sa stratégie en matière d'IA. Selon CNBC et Bloomberg, Meta développe un nouveau modèle d'IA, nom de code « Avocado », qui s'orientera très probablement vers un développement propriétaire. Ce modèle, baptisé Avocado et dirigé par le nouveau responsable de l'IA, Alexandr Wang, devrait être lancé en 2026. Le projet est actuellement géré par une petite équipe au sein de Meta, appelée « TBD », sous l'égide des « AI Superintelligence Labs ». Cette équipe est dirigée par Alexandr Wang, et il semblerait que ce dernier privilégie un développement propriétaire, ce qui contraste fortement avec l'écosystème ouvert que Meta a bâti ces dernières années avec ses modèles de la série Llama. Le retard de développement de Llama 4 constitue-t-il un frein à la stratégie open source ? Ce changement stratégique n'est pas apparu soudainement. Mark Zuckerberg a déclaré en début d'année que Meta continuerait de dominer le domaine de l'open source, tout en soulignant, invoquant des problèmes de sécurité liés à la superintelligence, qu'elle « ne rendrait pas tout son travail open source ». Par ailleurs, le développement de Llama 4 semble traverser une période difficile. Le modèle Llama 4, nom de code « Behemoth », est retardé de plusieurs mois, et certains développeurs auraient même accueilli froidement la version actuelle. Un article du New York Times indiquait que Wang Tao et d'autres cadres supérieurs avaient envisagé d'abandonner complètement Llama 4, ce qui pourrait expliquer l'empressement de Meta à développer « Avocado » à partir de zéro. Pour rivaliser avec Google et OpenAI, Meta investit 6000 milliards de dollars afin de ne pas se laisser distancer par ses concurrents de taille dans la course à l'IA, et entreprend une restructuration interne majeure. • Remaniement important du personnel : Les défenseurs de longue date des principes de l'open source et les personnes impliquées dans les grands modèles de langage (LLM)...

Instagram a enfin permis aux utilisateurs de « régler » son algorithme, en lançant la fonctionnalité « Votre algorithme » pour rendre les recommandations de l'IA plus personnalisées.

Instagram a enfin permis aux utilisateurs de « régler » son algorithme, en lançant la fonctionnalité « Votre algorithme » pour rendre les recommandations de l'IA plus personnalisées.

Instagram a annoncé une nouvelle fonctionnalité appelée « Votre algorithme », qui permet pour la première fois aux utilisateurs de consulter et de contrôler directement les sujets recommandés par l'algorithme. Similaire aux paramètres personnalisés de TikTok, cette fonctionnalité utilise principalement l'intelligence artificielle pour que les recommandations de contenu correspondent davantage aux centres d'intérêt actuels de l'utilisateur. Disponible initialement pour les Reels, elle offre trois fonctionnalités clés permettant de reprendre le contrôle. Instagram a déclaré sur son blog officiel : « Vos centres d'intérêt évoluant, nous souhaitions vous offrir un moyen plus pertinent de contrôler ce que vous voyez. » Cette nouvelle fonctionnalité sera d'abord disponible sur la page Reels (vidéos courtes), puis étendue à la section « Explorer » et à d'autres sections de l'application. Les utilisateurs peuvent accéder aux paramètres de « Votre algorithme » en cliquant sur l'icône (deux lignes avec un cœur) en haut à droite de la page Reels. Principales fonctionnalités : • Consultez vos principaux centres d'intérêt : le système affichera un résumé des sujets que l'algorithme d'Instagram considère actuellement comme les plus intéressants pour vous. • Affinez vos préférences : les utilisateurs peuvent saisir des mots-clés spécifiques pour indiquer explicitement au système s’ils souhaitent voir « plus » ou « moins » de contenu pertinent, et les recommandations de Reels s’adapteront en conséquence. • Partagez votre algorithme : si vous le souhaitez, vous pouvez également partager ces tags d’intérêt dans vos Stories pour informer vos amis et abonnés de ce que vous avez suivi récemment. L’IA : une arme à double tranchant. Des recommandations plus précises contre des controverses liées à la génération de contenu…

OpenAI a débauché Denise Dresser, PDG de Slack, pour occuper le poste de directrice des revenus, dans le but de stimuler la monétisation et de combler le déficit de financement en puissance de calcul.

OpenAI a débauché Denise Dresser, PDG de Slack, pour occuper le poste de directrice des revenus, dans le but de stimuler la monétisation et de combler le déficit de financement en puissance de calcul.

Pour soutenir ses investissements colossaux dans le calcul IA et accélérer sa rentabilité, OpenAI a récemment annoncé le recrutement de Denise Dresser, actuelle PDG de Slack, au poste de directrice des revenus (CRO). Mme Dresser supervisera la stratégie de revenus d'OpenAI, axée sur la réussite des entreprises et de leurs clients. Cette nomination témoigne de la volonté d'OpenAI de recruter activement des vétérans de la Silicon Valley après sa récente restructuration en société d'intérêt public, avec pour objectif de transformer ses atouts technologiques en rentabilité tangible. Forte de son équipe de choc issue de la Silicon Valley, OpenAI vise une monétisation à grande échelle. Fidji Simo, PDG d'OpenAI, a déclaré : « Nous sommes déterminés à mettre les outils d'IA à la disposition de millions de travailleurs dans tous les secteurs. Denise Dresser a déjà mené ce type de transformation, et son expérience nous permettra de rendre l'IA plus utile, plus fiable et plus accessible aux entreprises du monde entier. » À noter que Fidji Simo a rejoint OpenAI en mai dernier. Elle était auparavant PDG d'Instacart et, avant cela, chef de produit chez Meta (Facebook). Avec l'arrivée de deux dirigeantes de renom, Fidji Simo et Denise Dresser, les analystes externes estiment que la prochaine stratégie d'OpenAI pour ChatGPT est limpide : adopter le modèle classique de la Silicon Valley, privilégier la croissance à tout prix et monétiser au maximum chaque interaction avec l'IA. Compte tenu de l'expérience de Fidji Simo dans le développement de l'activité publicitaire de Meta, et des rumeurs récentes concernant l'intégration de la publicité dans l'interface de chat d'OpenAI, l'arrivée de Denise Dresser semble confirmer l'adoption par OpenAI d'un modèle économique dual « abonnement entreprise + publicité ». Le financement des investissements est crucial : les coûts des centres de données et de la puissance de calcul représentent les principaux défis. Malgré la perspective de revenus publicitaires, le défi majeur de Denise Dresser demeure de taille. Afin de maintenir sa compétitivité, OpenAI a investi massivement dans les droits d'accès aux centres de données, ainsi que dans l'acquisition et la construction de serveurs. À cela s'ajoutent les coûts de calcul élevés liés au traitement de chaque requête ChatGPT. Garantir une croissance du chiffre d'affaires proportionnelle à la consommation de trésorerie constituera un défi de taille pour la nouvelle directrice des revenus.

IBM a acquis le géant du streaming de données Confluent pour 110 milliards de dollars dans le cadre d'une transaction entièrement en espèces, dans le but de créer la plateforme de données intelligentes alimentée par l'IA la plus puissante.

IBM a acquis le géant du streaming de données Confluent pour 110 milliards de dollars dans le cadre d'une transaction entièrement en espèces, dans le but de créer la plateforme de données intelligentes alimentée par l'IA la plus puissante.

IBM a récemment annoncé la signature d'un accord définitif pour l'acquisition de Confluent, fournisseur de logiciels de traitement et de diffusion de données. IBM acquerra Confluent pour environ 11 milliards de dollars (entièrement en numéraire), soit 31 dollars par action. Cette acquisition représente un nouvel investissement majeur d'IBM dans le secteur du cloud hybride et des infrastructures de données, après celles de Red Hat et HashiCorp. Ciblant l'écosystème Apache Kafka, Confluent vise à résoudre le problème des silos de données pour l'IA. Basée à Mountain View, en Californie, Confluent propose des solutions commerciales basées sur le projet open source Apache Kafka et compte actuellement plus de 6 500 clients, dont 40 % des entreprises du classement Fortune 500. Ses produits phares, Confluent Cloud et Confluent Platform, aident principalement les entreprises à gérer, connecter et analyser les flux de données en temps réel, largement utilisés dans des domaines tels que le traitement des transactions bancaires et l'analyse du trafic web. Le PDG d'IBM, Arvind Krishna, a souligné que face à l'accélération du déploiement des services d'IA générative et agentique par les entreprises, les données sont souvent dispersées entre clouds publics, clouds privés, centres de données et de nombreuses plateformes tierces, formant ainsi des silos de données. Grâce à l'acquisition de Confluent, IBM bénéficiera de puissantes capacités de traitement de flux de données, lui permettant de connecter, d'intégrer et de gérer instantanément les données dans différents environnements, offrant ainsi une base fiable pour le calcul d'IA. En d'autres termes, IBM entend créer une « plateforme de données intelligente » spécifiquement conçue pour l'IA, facilitant une communication plus fluide entre les différents environnements et API. Confrontée à un ralentissement de sa croissance, IBM redynamise son activité par le biais d'acquisitions. Les analystes de marché estiment que cette opération est la réponse d'IBM pour renforcer sa compétitivité dans le domaine des services cloud. Alors que le rapport financier du troisième trimestre d'IBM a révélé des signes de ralentissement de la croissance du chiffre d'affaires de ses logiciels et services principaux, suscitant des inquiétudes chez les investisseurs, l'acquisition d'entreprises de logiciels à forte croissance est devenue impérative pour relancer l'activité. Il ne s'agit pas de la seule acquisition majeure réalisée récemment par IBM. IBM a précédemment acquis HashiCorp, fournisseur de logiciels d'infrastructure cloud, pour 64 milliards de dollars l'an dernier, et Apptio, fournisseur de solutions de gestion informatique, pour 46 milliards de dollars en 2023. La transaction devrait être finalisée d'ici mi-2026. Conformément à l'accord, IBM acquerra Confluent pour 31 dollars par action en numéraire, une transaction approuvée par le conseil d'administration d'IBM et le comité spécial indépendant de Confluent. Les deux parties prévoient actuellement de finaliser la transaction d'ici mi-2026, sous réserve de l'approbation des actionnaires de Confluent et de l'examen des autorités réglementaires compétentes. À ce moment-là, les technologies Apache Kafka et Apache Flink de Confluent seront pleinement intégrées à la gamme de produits IBM, renforçant ainsi sa position sur le marché du cloud hybride et de l'IA d'entreprise.

Analyse : L'architecture CUDA Tile de NVIDIA crée un avantage concurrentiel plus important, permettant aux GPU de se « transformer » en TPU et de dominer le marché du développement de l'IA.

Analyse : L'architecture CUDA Tile de NVIDIA crée un avantage concurrentiel plus important, permettant aux GPU de se « transformer » en TPU et de dominer le marché du développement de l'IA.

La récente architecture CUDA Tile de NVIDIA, introduite avec la version 13.1, semble être une mise à jour du modèle de programmation. Cependant, une analyse plus approfondie de sa stratégie marketing révèle qu'il s'agit de la mesure défensive la plus importante prise par NVIDIA face à son écosystème logiciel, après son expansion sur le marché du calcul matériel et son récent investissement dans Synopsys, société spécialisée dans l'automatisation de la conception électronique. Grâce à une couche d'abstraction, le GPU peut se faire passer pour une TPU (Tensor Processing Unit) lors de l'exécution de calculs d'IA, cherchant ainsi à neutraliser les avantages des ASIC (Application-Specific Integrated Circuits) concurrents en termes de facilité de programmation. Première stratégie : s'approprier les avantages des ASIC et conférer aux GPU une « double personnalité ». Auparavant, la force des GPU résidait dans leur architecture SIMT (Single Instruction Multiple Thread), adaptée au rendu graphique et au calcul parallèle hautement flexible, qui a constitué le fondement de la domination de CUDA pendant de nombreuses années. Cependant, face à la forte demande en multiplication matricielle et opérations tensorielles pour les modèles d'IA (notamment l'architecture Transformer), les ASIC comme les TPU de Google ou AWS Trainium, conçus spécifiquement pour les opérations par blocs, représentent une menace pour NVIDIA en termes d'efficacité énergétique et pour certains scénarios de développement, leur architecture étant plus proche de la logique des algorithmes d'IA. La stratégie actuelle de NVIDIA consiste toutefois à ne pas abandonner l'architecture SIMT, mais plutôt à doter ses GPU d'une « double personnalité » grâce à l'architecture CUDA Tile : • Maintien de la polyvalence : lorsque la flexibilité est nécessaire, le GPU reste extrêmement puissant. • Simulation de la spécialisation : lors du traitement des tenseurs d'IA, grâce au jeu d'instructions virtuel (IR) CUDA Tile, il peut effectuer des déplacements de données et des calculs par blocs, à l'instar d'un TPU, sans que les développeurs aient à gérer manuellement les threads. Ainsi, NVIDIA s'approprie directement les avantages architecturaux des ASIC au niveau logiciel. Les développeurs ne choisissent plus les GPU NVIDIA parce qu'ils estiment que les TPU sont plus faciles à programmer et plus efficaces, car les GPU NVIDIA peuvent désormais fonctionner avec la même logique. Deuxième stratégie : abaisser les barrières à l’entrée et renforcer l’écosystème des développeurs Python/IA. Actuellement, le langage dominant pour le développement de l’IA est Python (et ses bibliothèques NumPy et PyTorch), tandis que le développement CUDA traditionnel exige une maîtrise du C++ et des connaissances matérielles de bas niveau (telles que la gestion de la mémoire et la synchronisation des threads), ce qui rend les barrières à l’entrée extrêmement élevées.

Prédiction de Trend Micro en matière de cybersécurité pour 2026 : l’industrialisation de l’IA, une arme à double tranchant ; attention au « vibe codage » et aux processus automatisés qui deviennent des pièges internes pour les entreprises.

Prédiction de Trend Micro en matière de cybersécurité pour 2026 : l’industrialisation de l’IA, une arme à double tranchant ; attention au « vibe codage » et aux processus automatisés qui deviennent des pièges internes pour les entreprises.

Alors que les entreprises se précipitent pour adopter les outils d'IA afin d'améliorer leur efficacité opérationnelle, cette arme à double tranchant ouvre discrètement la porte aux pirates informatiques. Trend Micro a récemment publié son rapport annuel de prévisions en matière de cybersécurité pour 2026, soulignant que l'IA passe d'un simple outil auxiliaire à un stade « industrialisé » hautement autonome. Cela signifie que les futures batailles en matière de cybersécurité seront une course entre les IA, et si les entreprises négligent la gouvernance, leurs processus automatisés internes pourraient même servir de tremplin aux attaquants. Tendance 1 : « Automatisation » du piratage par l'IA. L'une des prédictions les plus audacieuses du rapport de la division professionnelle de l'économie souterraine est que 2026 marquera un tournant décisif pour le « piratage automatisé » piloté par l'IA. Avec la prolifération des agents d'IA, les futures attaques ne nécessiteront plus une importante collaboration humaine. Les organisations malveillantes pourront utiliser l'IA pour rechercher automatiquement les failles, enchaîner les API et même imiter le comportement des employés d'entreprise, exécutant ainsi de manière indépendante des attaques continues sur de multiples plateformes. De plus, l'économie souterraine donnera également naissance à un nouveau type de « service premium à la carte ». La chaîne d'attaque se fragmentera en parties plus spécialisées : une partie se chargera de l'acquisition des droits d'accès initiaux, tandis que l'autre assurera les opérations suivantes, formant ainsi un écosystème de menaces très efficace centré sur l'IA. Deuxième tendance : Ciblage de la chaîne d'approvisionnement et de la puissance de calcul des GPU. Au niveau de l'infrastructure, la chaîne d'approvisionnement, le cloud et les environnements hybrides multicloud demeurent les principaux champs de bataille. Trend Micro prévoit que les attaquants continueront de cibler les vulnérabilités de la chaîne d'approvisionnement, telles que les kits open source, les processus CI/CD et les bibliothèques de modèles d'IA. Il est important de noter que, les entreprises s'appuyant fortement sur les GPU pour l'entraînement de l'IA, les ressources de puissance de calcul au sein de cette architecture hybride sont également devenues des cibles privilégiées pour les pirates informatiques. Ces derniers peuvent tenter de voler de la puissance de calcul, de mener des attaques inter-locataires, voire d'exploiter des vulnérabilités au niveau des GPU pour s'infiltrer. Troisième tendance : Le « vibe codage » dissimule des dangers cachés, les processus automatisés peuvent devenir des pièges internes. Outre les menaces externes, les changements de culture de développement au sein des entreprises engendrent également des risques. Trend Micro souligne que l'utilisation excessive du « Vibe Coding » par les développeurs – c'est-à-dire une dépendance trop forte au code généré par l'IA pour accélérer le développement – ​​entraîne une accumulation rapide de failles cachées. Ce code généré par l'IA, faute d'audits rigoureux, est susceptible de devenir une cible pour les attaques automatisées. Plus inquiétant encore, si les systèmes d'une entreprise sont compromis, les processus automatisés initialement conçus pour améliorer l'efficacité peuvent être rétro-ingénierés et devenir des menaces internes, obligeant l'entreprise à lutter simultanément contre des pirates externes et des systèmes d'IA manipulés en interne. Les experts insistent sur l'importance de la visibilité et d'une architecture axée sur les risques. Face aux défis posés par l'industrialisation de l'IA, Hung Wei-kan, directeur général de Trend Micro, souligne que l'IA redessine le paysage de la cybersécurité, brouillant les frontières de la défense. Les entreprises qui ne priorisent pas la gestion de la surface d'attaque, la gouvernance et la sécurité des identités auront du mal à renforcer leur résilience. Chien Sheng-tsai, conseiller technique senior chez Trend Micro, suggère qu'à l'ère où les agents d'IA possèdent raisonnement et autonomie, les entreprises doivent impérativement améliorer la visibilité de leurs outils et processus opérationnels d'IA. Grâce à des plateformes comme Trend Vision One qui intègrent la gestion de l'exposition à la cybersécurité (CREM), les entreprises peuvent comprendre en profondeur l'état de leurs actifs numériques, ce qui leur permet d'empêcher les attaques de se mettre en place avant même qu'elles ne commencent.

Pages 1 à 252 1 2 ... 252
  • Populaire
  • 留言
  • 最新

Ravis de vous revoir!

Connectez-vous à votre compte ci-dessous

Récupérez votre mot de passe

Vous avez déjà une adresse e-mail? Cliquez ici.