Tag: Google

YouTube TV s'apprête à lancer un « plan de segmentation » : les téléspectateurs pourront s'abonner séparément pour regarder le sport et l'actualité, ce qui rendra le service de streaming de plus en plus semblable à la télévision par câble traditionnelle.

YouTube TV s'apprête à lancer un « plan de segmentation » : les téléspectateurs pourront s'abonner séparément pour regarder le sport et l'actualité, ce qui rendra le service de streaming de plus en plus semblable à la télévision par câble traditionnelle.

Le streaming TV va-t-il renouer avec les méthodes traditionnelles de la télévision par câble ? YouTube TV a récemment annoncé une nouvelle formule d'abonnement, « YouTube TV Plans », prévue pour début 2026. Ce nouveau forfait rompt avec l'ancien modèle à tarif unique « tout inclus » et permet aux utilisateurs de choisir des bouquets de chaînes spécifiques en fonction de leurs préférences : sport, actualités ou divertissement familial. Une aubaine pour les fans de sport ? Plus besoin de souscrire à l'abonnement complet pour regarder ESPN. Bien que les tarifs officiels n'aient pas encore été communiqués, les informations actuelles indiquent que les nouveaux forfaits YouTube TV proposeront différentes catégories, notamment « Sport », « Actualités » et « Divertissement familial », permettant aux utilisateurs de composer leur propre bouquet. Le forfait sport (YouTube TV Sports Plan) devrait inclure les principales chaînes nationales et plusieurs chaînes sportives, comme toutes les chaînes ESPN, FS1 et NBC Sports Network. Pour les utilisateurs qui souhaitent uniquement regarder du sport et ne veulent pas payer pour des programmes pour enfants ou des émissions de téléréalité, ce forfait pourrait s'avérer plus économique. Ce modèle de service segmenté est assez similaire aux offres actuelles de Fubo ou DirecTV. Avec une augmentation de prix de 35 $ à 83 $, est-il plus avantageux d'opter pour des forfaits plus petits ? Lors de son lancement en 2017, YouTube TV était présenté comme un service tout compris à seulement 35 $ par mois. Cependant, face à la hausse des coûts de licence des contenus, les prix ont explosé, atteignant 83 $ par mois l'année dernière, soit une augmentation de 137 %. Les analystes de marché pensent qu'en réduisant le catalogue de contenus disponibles, le nouveau forfait segmenté pourrait faire baisser la facture mensuelle des utilisateurs. Bien entendu, le forfait tout compris initial à 83 $ restera disponible pour les utilisateurs ayant des besoins plus importants. Toutefois, ce service de streaming, qui vantait initialement sa capacité à s'affranchir des contraintes de la télévision par câble, commence désormais à proposer des chaînes séparément, ce qui amène à se demander si l'objectif ultime du streaming n'est pas tout simplement de revenir à un système similaire à celui de la télévision par câble.

Google a annoncé qu'il investirait 400 milliards de dollars supplémentaires au Texas d'ici 2027 pour construire deux nouveaux centres de données dédiés à l'IA.

Google a dévoilé l'architecture Titans et le framework MIRAS, permettant à l'IA de mettre à jour instantanément la mémoire profonde et de surpasser GPT-4 dans le raisonnement sur des textes de 200 millions de mots.

Vous souvenez-vous de la frustration de ne plus rien comprendre aux articles interminables ? Désormais, même l'IA s'attaque à ce problème. L'équipe de recherche de Google a récemment annoncé deux technologies révolutionnaires : l'architecture Titans et le framework MIRAS. Ces technologies visent à permettre aux modèles d'IA de « lire et de se souvenir » comme le cerveau humain lors du traitement de volumes massifs de contenu, en mettant à jour les mémoires centrales en temps réel. Cette innovation résout non seulement le problème de la complexité de calcul des modèles Transformer traditionnels face aux séquences extrêmement longues, mais elle affiche également des performances exceptionnelles, surpassant GPT-4 lors de tests de raisonnement sur des textes très longs, et gérant même aisément des contextes contenant jusqu'à 2 millions de jetons. Titans : Remplacer la mémoire par des réseaux neuronaux profonds. Les réseaux neuronaux récurrents (RNN) traditionnels utilisent souvent des vecteurs de taille fixe pour stocker les informations, un peu comme si l'on donnait à un étudiant une seule feuille de papier pour prendre des notes : une fois pleine, il faut effacer les anciennes. L'innovation majeure de l'architecture Titans réside dans l'introduction d'un module de mémoire à long terme entièrement nouveau. Ce module est un réseau neuronal profond (perceptron multicouche), conçu sur le modèle du mécanisme de séparation entre mémoire à court terme et mémoire à long terme chez l'humain. Ceci confère aux modèles d'IA une plus grande capacité d'expression, leur permettant de comprendre et de synthétiser l'ensemble du récit plutôt que de simplement mémoriser, et d'apprendre activement à retenir les informations clés. À l'instar du « seuil de surprise » humain : plus c'est inattendu, mieux c'est. Le mécanisme par lequel l'architecture Titans détermine « ce qu'il faut retenir et ce qu'il faut oublier » est particulièrement intéressant, et l'équipe le nomme « seuil de surprise ». Il imite un mécanisme psychologique humain : nous oublions facilement les tâches routinières, mais les événements inattendus marquent fortement nos esprits. Dans l'architecture Titans, lorsqu'une nouvelle information diffère significativement de l'état de mémoire attendu du modèle (par exemple, l'apparition soudaine d'une image de peau de banane dans un rapport financier important), son gradient (niveau de surprise) atteint un pic, et le modèle privilégie le stockage de cette information en mémoire à long terme. Combinée à un mécanisme d'inertie et à une décroissance adaptative des poids (porte d'oubli), l'architecture Titans capture efficacement les informations importantes et continues tout en éliminant les données anciennes devenues inutiles, garantissant ainsi une efficacité élevée lors du traitement de séquences extrêmement longues. Le cadre MIRAS : une perspective théorique unifiée qui s'affranchit des limitations de l'erreur quadratique moyenne. Publié simultanément avec l'architecture Titans, le cadre MIRAS offre une perspective théorique unifiée. Il envisage la modélisation de séquences comme différentes approches pour résoudre un même problème : comment combiner efficacement les informations nouvelles et anciennes. Le cadre MIRAS s'affranchit des limitations des modèles précédents qui s'appuient excessivement sur l'erreur quadratique moyenne, permettant la création d'architectures novatrices avec des fonctions objectives non euclidiennes. L'équipe de recherche a utilisé ce cadre pour développer trois modèles dérivés : « YAAD », « MONETA » et « MEMORA », optimisés pour différents besoins tels que la résistance au bruit et la stabilité de la mémoire à long terme. Performances réelles : gestion aisée de jeux de données étiquetés de 200 millions de données ; les modèles à faible nombre de paramètres surpassent les modèles à grand nombre de paramètres. Lors de vérifications pratiques de performance, l'architecture Titans et ses variantes du framework MIRAS surpassent les architectures de pointe existantes, telles que Mamba-200 et Transformer++, dans les tâches de modélisation du langage et de raisonnement de sens commun. Plus impressionnant encore, sur le benchmark BABILong, qui consiste à interpréter des faits dispersés dans des documents extrêmement longs, l'architecture Titans a démontré une domination remarquable. Malgré un nombre de paramètres bien inférieur à celui de GPT-4, ses performances de raisonnement étaient supérieures et elle a pu s'adapter efficacement à une fenêtre contextuelle de plus de 200 millions d'ensembles de données étiquetés. Cela signifie qu'à l'avenir, l'IA sera capable de démontrer une capacité de « mémoire photographique » sans précédent dans des domaines tels que la compréhension intégrale de documents et même l'analyse du génome.

Existe-t-il une solution aux difficultés rencontrées lors du passage d'un appareil à l'autre (iOS et Android) ? Google confirme un transfert de données système amélioré ; l'UE fait pression sur Apple pour qu'elle supprime ses « murs ».

Existe-t-il une solution aux difficultés rencontrées lors du passage d'un appareil à l'autre (iOS et Android) ? Google confirme un transfert de données système amélioré ; l'UE fait pression sur Apple pour qu'elle supprime ses « murs ».

Pour les utilisateurs souhaitant passer d'iOS à Android, le principal problème n'est pas l'adaptation à la nouvelle interface, mais plutôt le transfert fluide de leurs précieuses photos, conversations et fichiers depuis leurs anciens téléphones. Cependant, face aux avancées technologiques de Google et à la forte pression des réglementations européennes, cet écosystème, construit au fil des années, semble confronté à une crise sans précédent. Après des marques chinoises comme OPPO et vivo qui ont permis l'échange de fichiers entre Android et iPhone via « AirDrop », Google a révélé travailler à l'amélioration de l'expérience de migration entre Android et iOS, suite à l'autorisation donnée aux modèles Pixel 10 d'échanger des données sans fil avec les iPhones. Auparavant, l'UE, s'appuyant sur la loi sur les marchés numériques (DMA), avait exigé d'Apple l'ouverture de l'interopérabilité entre iOS et les montres connectées, casques et autres appareils tiers. L'intégration au niveau système devrait permettre une migration sans encombre. Selon des indices découverts par 9to5Google dans le code source de la dernière version Android Canary 2512, Google semble réécrire le processus de récupération des données lors de la configuration initiale de l'appareil. Contrairement à la méthode actuelle qui consiste à utiliser l'application « Passer à Android » ou à se fier uniquement à un câble de données, la nouvelle version propose une intégration plus poussée. Google a confirmé ce changement, même si les détails précis restent confidentiels pour une publication ultérieure. Cette nouvelle solution de transfert devrait prendre en charge davantage de formats de fichiers et être plus intuitive et plus rapide que les solutions existantes. Ainsi, à l'avenir, les utilisateurs passant d'un iPhone à un Pixel ou à un autre téléphone Android n'auront plus à craindre de perdre leurs conversations WhatsApp ou LINE, ni de voir leurs photos désorganisées. L'autorité européenne de la concurrence (DMA) prend des mesures fermes : Apple ne peut plus agir seule. Outre les initiatives de Google, Apple subit une pression accrue de la part des régulateurs. La Commission européenne a récemment engagé une procédure réglementaire au titre de la loi sur les marchés numériques, exigeant explicitement d'Apple qu'elle rende iOS plus facilement et plus efficacement interopérable avec les matériels et logiciels tiers. Par le passé, Apple a tiré parti de son écosystème fermé pour offrir à l'Apple Watch et aux AirPods des expériences exclusives, comme un jumelage fluide et la synchronisation des notifications sur iPhone, tout en limitant les fonctionnalités des montres connectées ou des casques audio tiers (par exemple, des connexions instables, l'impossibilité de répondre aux messages). La nouvelle réglementation européenne vise à mettre fin à cette concurrence déloyale, en obligeant Apple à ouvrir les API et les autorisations de connectivité Bluetooth nécessaires. Ainsi, les appareils connectés de marques comme Garmin et Xiaomi, ou d'autres accessoires Bluetooth, pourront bénéficier de la même expérience utilisateur fluide que l'Apple Watch lorsqu'ils sont connectés à l'iPhone. Cela signifie que le long avantage concurrentiel d'Apple, fondé sur les différences d'expérience matérielle, sera de plus en plus menacé. Les barrières s'effondrent : transferts de fichiers de type AirDrop et services multiplateformes. En réalité, cette tendance à l'ouverture des plateformes est déjà en marche. Outre le transfert de données lors des mises à jour d'appareils, Android a récemment mis à jour son protocole « Partage rapide » et d'autres protocoles de transfert pour permettre le transfert de fichiers à proximité des iPhone, similaire à AirDrop, sous certaines conditions ou avec le soutien de services tiers. En revanche, Apple, connue pour son écosystème fermé, a récemment commencé à porter ses applications natives sur les plateformes concurrentes afin d'accroître ses revenus liés aux services : • …

Selon certaines rumeurs, Sam Altman aurait cofondé une nouvelle startup, Merge Labs, qui se concentrera sur le marché des interfaces cerveau-ordinateur et concurrencera directement Neuralink d'Elon Musk.

Pour concurrencer Google Gemini, OpenAI pousserait ChatGPT à son maximum, ce qui pourrait toutefois exacerber les inquiétudes concernant une IA qui tente de « plaire » aux utilisateurs.

Pour conserver son avance dans la course à l'IA de plus en plus féroce, le PDG d'OpenAI, Sam Altman, semble adopter une approche plus offensive. Selon le Wall Street Journal, face à la récente montée en puissance de Google, Altman a déclenché une alerte générale en interne, ordonnant la suspension pendant huit semaines des projets non stratégiques, dont le modèle de génération vidéo Sora, et concentrant toutes les ressources sur l'amélioration des performances de ChatGPT, dans le but de consolider sa part de marché en renforçant l'interaction avec les utilisateurs. Cette décision, qui mettrait un terme au projet ambitieux de ChatGPT et se concentrerait entièrement sur le grand public, souligne un changement stratégique majeur au sein d'OpenAI. L'entreprise, qui visait initialement l'intelligence artificielle générale (IAG), semble désormais davantage encline à répondre aux besoins des consommateurs. Dans une note interne, Altman a demandé aux employés d'améliorer les performances de ChatGPT en « exploitant mieux les signaux des utilisateurs ». Cela signifie qu'OpenAI s'appuiera davantage sur les données issues des retours d'information des utilisateurs (« en un clic ») pour entraîner ses modèles, plutôt que uniquement sur les évaluations de professionnels. L'objectif de la stratégie était clair : améliorer l'apparence du nombre d'utilisateurs actifs quotidiens (DAU) de ChatGPT sur son tableau de bord interne, et il semblerait que cela ait effectivement entraîné une croissance significative. La pression exercée par Google et Apple est source d'une grande anxiété pour OpenAI, principalement parce que ses concurrents rattrapent leur retard beaucoup plus rapidement que prévu. Le générateur d'images « Nano Banana » de Google, lancé en août, a connu un succès fulgurant, et son modèle Gemini 3 a même surpassé OpenAI dans le classement des modèles tiers « LM Arena » le mois dernier. Parallèlement, Anthropic prend progressivement la tête du marché des entreprises. Sam Altman a même déclaré lors d'un dîner de presse que, tandis que le monde extérieur se concentre sur la concurrence entre OpenAI et Google, il estime que le véritable champ de bataille à long terme se situe face à Apple, car le matériel déterminera la manière dont les utilisateurs emploient l'IA, et les smartphones actuels ne sont pas encore optimisés pour les applications compagnones d'IA. Le coût de la « satisfaction » des utilisateurs : une IA qui devient un « homme à tout faire » engendre une crise de santé mentale. Cependant, cette stratégie visant à obtenir des « taux d'interaction élevés » a également provoqué de graves effets secondaires. Pour rendre son modèle plus attrayant, ChatGPT a été entraîné à l'aide de l'optimisation des préférences locales des utilisateurs (LUPO) afin de privilégier les réponses « préférées » des utilisateurs plutôt que le contenu le plus précis ou utile — un phénomène connu sous le nom de « sycophonie ». Le rapport mentionne que le modèle GPT-40, publié plus tôt cette année, était trop conciliant avec les utilisateurs, ce qui a conduit certains utilisateurs psychologiquement vulnérables à la dépendance, voire à des délires ou des états maniaques, les amenant à croire, à tort, qu'ils communiquaient avec des dieux, des extraterrestres ou des machines conscientes. Actuellement, des familles ont porté plainte contre OpenAI, accusant l'entreprise de privilégier les taux d'interaction au détriment de la sécurité, ce qui aurait entraîné des suicides ou des crises psychologiques chez les utilisateurs ; le nombre de cas recensés s'élèverait à 250. Bien qu'OpenAI ait émis une « alerte orange » (code…) en octobre…

Analyse : L'architecture CUDA Tile de NVIDIA crée un avantage concurrentiel plus important, permettant aux GPU de se « transformer » en TPU et de dominer le marché du développement de l'IA.

Analyse : L'architecture CUDA Tile de NVIDIA crée un avantage concurrentiel plus important, permettant aux GPU de se « transformer » en TPU et de dominer le marché du développement de l'IA.

La récente architecture CUDA Tile de NVIDIA, introduite avec la version 13.1, semble être une mise à jour du modèle de programmation. Cependant, une analyse plus approfondie de sa stratégie marketing révèle qu'il s'agit de la mesure défensive la plus importante prise par NVIDIA face à son écosystème logiciel, après son expansion sur le marché du calcul matériel et son récent investissement dans Synopsys, société spécialisée dans l'automatisation de la conception électronique. Grâce à une couche d'abstraction, le GPU peut se faire passer pour une TPU (Tensor Processing Unit) lors de l'exécution de calculs d'IA, cherchant ainsi à neutraliser les avantages des ASIC (Application-Specific Integrated Circuits) concurrents en termes de facilité de programmation. Première stratégie : s'approprier les avantages des ASIC et conférer aux GPU une « double personnalité ». Auparavant, la force des GPU résidait dans leur architecture SIMT (Single Instruction Multiple Thread), adaptée au rendu graphique et au calcul parallèle hautement flexible, qui a constitué le fondement de la domination de CUDA pendant de nombreuses années. Cependant, face à la forte demande en multiplication matricielle et opérations tensorielles pour les modèles d'IA (notamment l'architecture Transformer), les ASIC comme les TPU de Google ou AWS Trainium, conçus spécifiquement pour les opérations par blocs, représentent une menace pour NVIDIA en termes d'efficacité énergétique et pour certains scénarios de développement, leur architecture étant plus proche de la logique des algorithmes d'IA. La stratégie actuelle de NVIDIA consiste toutefois à ne pas abandonner l'architecture SIMT, mais plutôt à doter ses GPU d'une « double personnalité » grâce à l'architecture CUDA Tile : • Maintien de la polyvalence : lorsque la flexibilité est nécessaire, le GPU reste extrêmement puissant. • Simulation de la spécialisation : lors du traitement des tenseurs d'IA, grâce au jeu d'instructions virtuel (IR) CUDA Tile, il peut effectuer des déplacements de données et des calculs par blocs, à l'instar d'un TPU, sans que les développeurs aient à gérer manuellement les threads. Ainsi, NVIDIA s'approprie directement les avantages architecturaux des ASIC au niveau logiciel. Les développeurs ne choisissent plus les GPU NVIDIA parce qu'ils estiment que les TPU sont plus faciles à programmer et plus efficaces, car les GPU NVIDIA peuvent désormais fonctionner avec la même logique. Deuxième stratégie : abaisser les barrières à l’entrée et renforcer l’écosystème des développeurs Python/IA. Actuellement, le langage dominant pour le développement de l’IA est Python (et ses bibliothèques NumPy et PyTorch), tandis que le développement CUDA traditionnel exige une maîtrise du C++ et des connaissances matérielles de bas niveau (telles que la gestion de la mémoire et la synchronisation des threads), ce qui rend les barrières à l’entrée extrêmement élevées.

Google approfondit l'écosystème Android XR : la Galaxy XR ajoute des mises à jour concernant la « connexion PC » et l'« avatar humain », se préparant ainsi à élargir sa gamme de lunettes IA.

Google approfondit l'écosystème Android XR : la Galaxy XR ajoute des mises à jour concernant la « connexion PC » et l'« avatar humain », se préparant ainsi à élargir sa gamme de lunettes IA.

Suite à la présentation de sa vision Android XR fin 2018, à sa mise en avant lors de la Google I/O de cette année et à l'annonce officielle récente du casque Galaxy XR en collaboration avec Samsung, Google a dévoilé les prochaines étapes de l'écosystème Android XR lors de l'événement « The Android Show: XR Edition ». Outre l'annonce de trois mises à jour majeures pour le Galaxy XR, à savoir « PC Connect », « Likeness » et « Travel Mode », Google a également présenté en avant-première ses collaborations avec Samsung, Gentle Monster, Warby Parker et la marque chinoise de lunettes AR XREAL, avec le lancement prévu de nouvelles lunettes IA et de lunettes XR filaires l'année prochaine. Améliorations du Galaxy XR : Intégration poussée avec Windows. Google a d'abord déployé une mise à jour majeure pour le Galaxy XR, récemment lancé, afin d'intégrer plus facilement l'appareil au quotidien des utilisateurs : • PC Connect : Similaire à la fonction Bureau à distance du Meta Quest, mais avec une intégration plus poussée. Les utilisateurs peuvent diffuser sans fil l'écran de leur PC Windows sur le casque et connecter ses fenêtres à Google Play…

Les données montrent que le trafic vers les sites Web de fermes de contenu a diminué d'un tiers en raison des ajustements de l'algorithme de recherche de Google.

Le tribunal a statué que la durée par défaut du contrat de recherche de Google a été réduite à un an et doit être renégociée chaque année afin de garantir une concurrence loyale sur le marché.

Dans le cadre d'une récente action antitrust intentée par le ministère de la Justice américain contre Google, le juge fédéral Amit Mehta a rendu une décision élargie concernant les mesures correctives. Il stipule que les futurs contrats entre Google et les fabricants d'appareils visant à faire de Google Search et de ses services d'IA le moteur de recherche par défaut sur les iPhones seront strictement limités à un an. Cette renégociation annuelle obligatoire met fin aux accords à long terme. Cette décision signifie que Google doit renégocier ces contrats chaque année, alors qu'ils étaient auparavant souvent signés pour plusieurs années, notamment l'accord pluriannuel avec Apple qui a fait de Google Search le moteur de recherche par défaut sur les iPhones. Le juge Mehta estime qu'en limitant les contrats à un an, Google sera contraint de revenir périodiquement à la table des négociations, ce qui créera des conditions plus équitables pour ses concurrents tels que Bing Search de Microsoft ou DuckDuckGo, et donnera aux autres entreprises davantage d'opportunités de se positionner comme moteur de recherche par défaut. Il s'agit du dernier développement en date après la décision de septembre selon laquelle Google n'est pas tenu de vendre son navigateur Chrome. À l'époque, le juge a rejeté la proposition radicale de la Cour suprême des États-Unis visant à démanteler l'activité du navigateur Chrome d'ici fin 2024, préférant s'attaquer au problème de concurrence déloyale par des mesures correctives. Cette affaire fait suite à une décision rendue l'automne dernier, dans laquelle la Cour a constaté que Google maintenait illégalement son monopole sur la recherche Internet en versant des milliards de dollars à des entreprises comme Apple pour obtenir le droit de référencer ses services par défaut et en concluant des accords de distribution exclusifs pour Google Search, Chrome et Gemini. Outre la réduction de la durée de ces contrats, la décision du juge Amit Mehta, rendue en septembre, a mis fin à ces accords d'exclusivité et a imposé à Google de partager certaines données de recherche avec ses concurrents. Cette mesure vise à réduire l'écart d'échelle créé par le monopole de longue date de Google, permettant ainsi aux autres moteurs de recherche d'optimiser leurs algorithmes et la qualité de leurs services en accédant à davantage de données.

AWS maintient une stratégie de puissance de calcul diversifiée : le fondateur d’Annapurna Labs évoque sa stratégie en matière de puces, affirmant que les ASIC ne constituent pas la seule solution.

AWS maintient une stratégie de puissance de calcul diversifiée : le fondateur d’Annapurna Labs évoque sa stratégie en matière de puces, affirmant que les ASIC ne constituent pas la seule solution.

Lors de la conférence re:Invent 2025 de cette année, AWS a non seulement dévoilé son puissant processeur de cinquième génération, le Graviton 5, développé en interne, mais a également obtenu, une fois de plus et de manière inhabituelle, le soutien d'Apple. Concernant la stratégie d'AWS en matière de puces personnalisées et son point de vue sur le développement des ASIC (circuits intégrés spécifiques à une application), Nafea Bshara, vice-président et ingénieur distingué d'AWS, et cofondateur d'Annapurna Labs en Israël, a partagé des perspectives éclairantes lors d'une interview. Il a déclaré ne pas croire que les ASIC seront la seule solution pour la prochaine vague d'IA, soulignant que la clé réside dans la diversité des options proposées pour répondre aux différents besoins de déploiement. ▲ Le processeur développé par Amazon, le Trainium4 Graviton 5, a été adopté par Apple, prouvant ainsi la valeur des puces personnalisées. Depuis l'acquisition d'Annapurna Labs en 2015, Amazon s'est lancé dans le développement de ses propres puces. La puce Graviton 5 présentée ici utilise le procédé 3 nm de TSMC, offrant des performances supérieures de 25 % à celles de son prédécesseur. Nafea Bshara a déclaré que grâce aux puces personnalisées, AWS peut obtenir des retours plus directs de ses clients et optimiser rapidement la réactivité de son matériel. L'exemple d'Apple en est une parfaite illustration. Utilisateur majeur de Graviton, Apple exploite son service iCloud, qui supporte un milliard d'accès quotidiens, et le développement en Swift. Nafea Bshara souligne que cela prouve que les puces personnalisées d'AWS peuvent répondre aux exigences strictes de performance et de coût des entreprises technologiques de pointe. De plus, AWS est actuellement le seul fournisseur de cloud à proposer une solution dédiée (instances Amazon EC2 pour Mac) à l'environnement de développement d'Apple, simplifiant ainsi la création d'environnements macOS dans le cloud. Cette offre est unique parmi les fournisseurs de services cloud, ce qui met en évidence la capacité d'AWS à fournir des solutions adaptées aux différents besoins de déploiement d'applications. Nafea Bshara, vice-président et ingénieur distingué chez AWS, et cofondateur d'Annapurna Labs en Israël, ne suit pas la voie tracée par Google avec les TPU, privilégiant la « généralité » à la « spécialisation ». Face au développement agressif par Google Cloud de TPU spécifiquement conçus pour ses propres frameworks comme TensorFlow, Nafea Bshara propose une perspective différente. Il estime que l'IA évolue rapidement et que la conception matérielle ne doit pas se limiter à des architectures logicielles ou de modèles spécifiques, soulignant : « Nous ne créerons pas de matériel sur mesure pour un logiciel spécifique. » Il cite en exemple la popularité récente des applications d'IA générative, déclarant sans ambages que « les TPU de Google peinent à gérer des charges de travail comme Decart qui nécessitent un rendu en temps réel. » Nafea Bshara souligne que si AWS s'attaquera aux nouvelles architectures de modèles…

Google s'associe à l'association britannique StopNCII pour renforcer son moteur de recherche anti-vengeance pornographique

Google a testé une fonctionnalité utilisant l'IA pour générer des titres facilitant la lecture rapide, mais des inquiétudes ont été soulevées concernant la réécriture non autorisée du texte original et la diffusion de contenus trompeurs.

Selon The Verge, Google teste actuellement des titres d'articles générés par IA sur son service Google Discover, dans le but d'améliorer la lecture et la compréhension des utilisateurs et d'encourager les clics. Cependant, les résultats sont insatisfaisants, voire trompeurs. Le principal reproche formulé à l'encontre de ce test est la déformation du sens original par les titres générés par l'IA. Par exemple, un article d'Ars Technica, intitulé à l'origine « La Steam Machine de Valve ressemble à une console, mais ne vous attendez pas à ce qu'elle coûte le même prix », s'affichait sur la page de test de Google Discover sous le titre « Prix de la Steam Machine révélé », alors que Valve n'a encore annoncé aucune nouvelle Steam Machine.

La deuxième vague de mises à jour d'Android 16 a été déployée, introduisant des résumés de notifications basés sur l'IA, des contrôles parentaux et une prévention de la fraude, et améliorant l'accessibilité.

La deuxième vague de mises à jour d'Android 16 a été déployée, introduisant des résumés de notifications basés sur l'IA, des contrôles parentaux et une prévention de la fraude, et améliorant l'accessibilité.

Suite à sa sortie officielle en juin, Google a récemment déployé sa deuxième mise à jour majeure d'Android 16. Cette mise à jour apporte plusieurs nouvelles fonctionnalités basées sur l'IA aux appareils Pixel et améliore considérablement l'accessibilité du système à l'approche de la Journée internationale des personnes handicapées. Parmi les points forts, on note l'ajout de « résumés de notifications optimisés par l'IA », similaires à Apple Intelligence. Le système utilise l'IA embarquée pour condenser automatiquement les messages longs et les conversations de groupe, permettant ainsi aux utilisateurs d'en saisir les points clés en un coup d'œil. De plus, la fonctionnalité « Organisateur de notifications » désactive et catégorise automatiquement les notifications non prioritaires, telles que les actualités et les promotions, réduisant ainsi les distractions. Côté sécurité, Messages de Google peut désormais filtrer proactivement les invitations de groupe provenant de numéros inconnus et propose une fonction de blocage en un clic. La fonction « Encercler pour rechercher » intègre également une protection contre la fraude : il suffit d'entourer les messages suspects pour que l'IA analyse s'il s'agit d'une fraude et fournisse des suggestions pertinentes. Personnalisation de l'interface : formes d'icônes personnalisées, mode sombre forcé. Android 16 étend encore les possibilités de personnalisation de l'interface. Les utilisateurs peuvent désormais modifier la forme des icônes de l'écran d'accueil (carrés, arches, etc.). Le système peut également forcer la génération d'icônes thématiques pour toutes les applications, résolvant ainsi le problème d'incohérence des styles d'icônes rencontré auparavant. De plus, le nouveau thème sombre étendu permet aux applications ne prenant pas en charge le mode sombre de passer à un affichage sombre, améliorant ainsi la protection des yeux et économisant l'énergie. Le contrôle parental a également été intégré aux paramètres, permettant aux parents de gérer directement le temps d'écran et les autorisations d'utilisation des applications de leurs enfants. Améliorations d'accessibilité : saisie vocale Gemini, clics de souris automatiques. À l'occasion de la Journée internationale des personnes handicapées, Google a ajouté une série de fonctionnalités d'accessibilité à Android 16 : • TalkBack avec Gemini : grâce aux capacités de compréhension de Gemini, les utilisateurs peuvent utiliser le langage naturel…

Pages 1 à 344 1 2 ... 344

Ravis de vous revoir!

Connectez-vous à votre compte ci-dessous

Récupérez votre mot de passe

Vous avez déjà une adresse e-mail? Cliquez ici.