Tag: CES 2019

Bose apporte sa technologie phare de réduction du bruit aux véhicules électriques pour une conduite plus silencieuse.

Bose apporte sa technologie phare de réduction du bruit aux véhicules électriques pour une conduite plus silencieuse.

Bose, qui a longtemps concentré son expertise technologique sur les produits audio et les casques, a également appliqué son savoir-faire sonore à divers domaines, tels que la réduction du bruit intérieur et les casques favorisant le sommeil. La technologie de réduction du bruit QuietComfort pour systèmes automobiles, présentée au CES 2019, n'est pas la première application de la technologie sonore de Bose aux véhicules ; elle est spécifiquement conçue pour les véhicules électriques, de plus en plus répandus. Selon Bose, les véhicules électriques, dépourvus du bruit de moteur caractéristique des véhicules à essence traditionnels, fonctionnent uniquement grâce à leur moteur électrique, ce qui amplifie considérablement le bruit de la route. C'est pourquoi cette technologie, initialement utilisée dans les casques audio, sera appelée QuietComfort Road Noise Control (QuietComfort RNC) dans les véhicules. Des accéléromètres sont installés dans le système de suspension des roues afin de détecter les ondes sonores potentielles générées lorsque les roues roulent sur des surfaces irrégulières. Le système diffuse ensuite des ondes sonores inverses qui annulent le bruit via le système audio du véhicule, réduisant ainsi le bruit de la route perçu par les passagers. Afin d'améliorer encore le confort acoustique des passagers, et compte tenu de la possible généralisation des véhicules autonomes, Bose propose d'installer des microphones dans tout l'habitacle pour détecter activement les bruits indésirables. Ces bruits sont ensuite neutralisés par la diffusion d'ondes sonores inversées via le système audio du véhicule. Bose collabore déjà avec plusieurs constructeurs automobiles, dont GMC, Infiniti, Mazda, Fiat, Cadillac, Audi, Nissan, Chevrolet, Buick et Porsche. Cette technologie devrait être intégrée à certains modèles, avec un lancement possible dès 2021.

Interview : Le terme « conduite autonome » ne pose plus de défi cognitif ; NVIDIA va activement promouvoir l'application des voitures autonomes.

Interview : Le terme « conduite autonome » ne pose plus de défi cognitif ; NVIDIA va activement promouvoir l'application des voitures autonomes.

Outre la présentation des dernières évolutions de ses cartes graphiques dédiées aux jeux vidéo, NVIDIA a également annoncé au CES 2019 le lancement de DRIVE AutoPilot, le premier système de conduite autonome de niveau 2+ disponible sur le marché. Ce système sera développé en collaboration avec Continental et ZF, et NVIDIA a par ailleurs confirmé le renouvellement de son partenariat avec Mercedes-Benz pour les technologies de conduite autonome. Cependant, étant donné que Tesla et d'autres constructeurs automobiles ont déjà utilisé l'appellation « AutoPilot » pour des systèmes d'aide à la conduite qui ne sont pas conçus pour une conduite entièrement autonome de niveau 3 ou supérieur, cette appellation pourrait-elle induire les consommateurs en erreur ? Le PDG de NVIDIA, Jensen Huang, a apporté des précisions à ce sujet. Concernant les accidents survenus survenus avec des véhicules Tesla suite à l'activation d'AutoPilot, M. Huang a déclaré que le système d'aide à la conduite de niveau 2 de Tesla est déjà capable de gérer une reconnaissance suffisante des conditions de la route, mais que le conducteur doit néanmoins garder les yeux fixés sur la route et les deux mains sur le volant, prêt à intervenir à tout moment. Le nouveau système embarqué DRIVE AutoPilot, conçu à l'aide du supercalculateur Xavier, vise à optimiser les fonctions d'assistance à la conduite de niveau 2 existantes, pour une conduite plus sûre. Quant à savoir si l'appellation « AutoPilot » pourrait induire les consommateurs en erreur, Jensen Huang estime que viser les niveaux de conduite autonome 2+ et supérieurs avec DRIVE AutoPilot correspond en réalité à un niveau de sécurité plus élevé. De plus, compte tenu des progrès considérables réalisés dans de nombreuses technologies et afin de répondre aux exigences du marché, le nom « AutoPilot » a été choisi pour sa clarté. Concernant le supercalculateur DRIVE Pegasus, annoncé précédemment et censé prendre en charge la conduite entièrement autonome de niveau 5, M. Huang a indiqué que la technologie actuelle de conduite entièrement autonome de niveau 5 est principalement axée sur les besoins des passagers, comme les taxis autonomes. Bien que des limitations de vitesse subsistent et que les itinéraires soient relativement simples, cette technologie est plus facile à mettre en œuvre que les technologies de niveaux 3 et 4, qui nécessitent une intervention humaine. En revanche, DRIVE AutoPilot, qui vise les niveaux de conduite autonome 2+, est plus complexe à implémenter en raison du risque accru d'intervention humaine. NVIDIA prévoit de continuer à développer ses capacités de conduite autonome de niveau 3 et 4, et même d'aller plus loin, afin de permettre aux véhicules entièrement autonomes de niveau 5 d'atteindre des vitesses plus élevées.

Interview : NVIDIA se concentre sur la valeur derrière la technologie, plutôt que sur la simple amélioration du processus de fabrication.

Interview : NVIDIA se concentre sur la valeur derrière la technologie, plutôt que sur la simple amélioration du processus de fabrication.

Concernant l'accent mis par NVIDIA sur le jeu vidéo au CES 2019 et sa décision de dévoiler de nouvelles technologies d'IA et de conduite autonome lors de la GTC 2019, le PDG Jensen Huang a souligné la forte croissance technologique induite par le marché du jeu vidéo. Il a également insisté sur le fait qu'au-delà des gains de performance liés à la finesse de gravure, l'aspect crucial réside dans l'intégration de ces nouvelles technologies dans des applications concrètes. AMD ayant choisi de présenter sa première carte graphique gravée en 7 nm FinFET, la Radeon VII, lors de sa conférence d'ouverture au CES 2019, et ayant également dévoilé en avant-première ses processeurs Ryzen de troisième génération (également gravés en 7 nm FinFET), et ayant annoncé l'année dernière les processeurs serveurs EPYC et les cartes graphiques Radeon Instinct gravés sur le même procédé, créant ainsi un vaste écosystème de produits 7 nm FinFET, M. Huang a naturellement été interrogé à nouveau sur ce sujet. NVIDIA ne se contentera pas d'améliorer ses procédés de fabrication, mais privilégiera également l'application pratique de ses technologies. Huang a expliqué que si l'amélioration des processus de fabrication est certes importante et constituera un axe prioritaire à chaque étape, le développement de nouvelles technologies basées sur les processus actuels et l'obtention de meilleurs résultats applicatifs sont encore plus cruciaux. Ainsi, bien que NVIDIA continue d'améliorer ses processus de fabrication, l'objectif principal est de tirer parti de ces nouvelles technologies pour créer une plus grande valeur ajoutée pour ses produits. Par exemple, dans l'architecture d'affichage Turing de l'année dernière, NVIDIA a intégré les technologies Ray Tracing et RTX DLSS, qui utilisent l'intelligence artificielle pour ajuster dynamiquement les détails de l'image en temps réel. Ces technologies permettent non seulement aux utilisateurs de profiter d'effets d'éclairage et d'ombre plus réalistes dans les jeux, mais aussi de réduire considérablement le temps de conception nécessaire aux créateurs de contenu. Auparavant, pour obtenir de tels effets d'éclairage, les créateurs devaient généralement configurer chaque point de réfraction de la lumière dans la scène 3D au préalable, ce qui nécessitait souvent un temps considérable pour une configuration répétitive. Cependant, grâce à la puissance de calcul de l'architecture d'affichage Turing, même sans avoir prédéfini les points de réfraction de la lumière dans la scène 3D, les créateurs peuvent générer rapidement des effets d'éclairage sophistiqués grâce à la technologie RTX DLSS, simplement en se connectant aux outils de développement NVIDIA. Pour les artistes spécialisés en effets spéciaux et les créateurs de contenu, cette technologie permet de réduire le temps de conception et d'accélérer la production. Ces avantages technologiques semblent être au cœur des préoccupations actuelles de NVIDIA, plutôt que de se concentrer uniquement sur les progrès technologiques qui surviendront inévitablement au fil du temps. Concernant les développements futurs, Jensen Huang a déclaré que le nom « RTX » sera conservé pendant les 10 prochaines années, marquant ainsi une évolution : le « G » de « GTX », signifiant « Graphics », cède la place au « Ray Tracing » (traçage de rayons). Cette évolution illustre la volonté de NVIDIA de passer d'une focalisation exclusive sur les performances de calcul graphique à une plus grande importance accordée aux applications technologiques allant au-delà du simple traitement graphique. Par ailleurs, Jensen Huang a souligné le leadership constant de NVIDIA dans les technologies matérielles et logicielles. Par exemple, la technologie CUDA a consolidé la position de NVIDIA sur le marché des cartes graphiques, ouvrant la voie à de nouvelles innovations technologiques. Le PDG de NVIDIA, Jensen Huang, a également déclaré que cette conception permet non seulement aux joueurs de profiter de jeux AAA sur ordinateurs portables sans se soucier de l'autonomie de la batterie, mais offre également une expérience de traitement d'image plus fluide aux créateurs de contenu qui ne travaillent pas dans un bureau fixe, comme les photographes qui prennent et traitent fréquemment des photos numériques en extérieur. La conception Max-Q permet aux utilisateurs de bénéficier d'un traitement d'image plus fluide sans compromettre les performances ni la consommation d'énergie. Cependant, concernant l'absence de la GeForce RTX 2080 Ti de la liste des cartes graphiques compatibles avec l'architecture Max-Q, Jensen Huang a répondu qu'elle serait utilisée dans des ordinateurs portables disponibles dans le commerce à l'avenir, sans toutefois préciser de calendrier. Actuellement, la plupart des fabricants d'ordinateurs portables, notamment ASUS, MSI, Razer, Acer, Dell, Alienware et Gigabyte, utilisent des cartes graphiques GeForce…

Entretien : Qualcomm estime qu'il est difficile de refléter les avantages générés par la puissance de calcul de l'IA à partir d'une seule donnée.

Entretien : Qualcomm estime qu'il est difficile de refléter les avantages générés par la puissance de calcul de l'IA à partir d'une seule donnée.

Avec un nombre croissant de processeurs mettant l'accent sur les applications d'intelligence artificielle (IA), le Snapdragon 855 s'inscrit dans cette tendance, conservant l'architecture Snapdragon AIE et dédiant même un bloc spécifique au sein du nouveau DSP Hexagon à l'apprentissage et au calcul pour l'IA. Cependant, Qualcomm estime que les logiciels actuels d'évaluation de la puissance de calcul de l'IA peinent à refléter fidèlement les avantages de cette puissance à partir d'un seul point de données. Concrètement, l'IA peut anticiper les besoins de l'utilisateur dès qu'il prend son téléphone en main, en exploitant la connaissance de l'environnement et l'apprentissage automatique de l'appareil pour déterminer les fonctions qu'il pourrait avoir besoin d'exécuter. Le téléphone peut ainsi ajuster dynamiquement les performances du processeur et de la mémoire, améliorant l'efficacité des applications. De plus, lors de la prise de photos, les données d'utilisation précédentes et suivantes permettent d'optimiser en continu les performances de l'appareil photo. De même, la recherche dans les e-mails peut enregistrer l'activité récente de l'utilisateur afin de trouver rapidement les fichiers les plus pertinents. Ces cas d'utilisation de l'IA sont difficiles à représenter par de simples résultats de tests, car l'expérience utilisateur pilotée par l'IA est complexe. Par ailleurs, les algorithmes et les frameworks d'IA varient selon les applications, et l'impact des différentes caractéristiques de calcul du processeur entraîne des résultats de « performance » très différents. Qualcomm estime donc que le modèle de test standard du marché, qui intègre les composants de calcul CPU, GPU et DSP pour l'évaluation, est insuffisant pour refléter fidèlement les véritables avantages de la puissance de calcul de l'IA. Keith Kressin, vice-président senior des produits chez Qualcomm Technologies, explique que dans certaines situations, lorsque différents processeurs utilisent différents modèles de calcul d'IA, la puissance de calcul mesurée peut sembler excellente car elle répond aux exigences du logiciel de test, alors que les performances réelles du CPU, du GPU et du DSP peuvent être inférieures à l'idéal, rendant difficile une représentation précise des performances réelles du processeur. L'entreprise prévoit que des logiciels tiers définiront à l'avenir une méthode de mesure équitable des performances de la puissance de calcul de l'IA. Par ailleurs, MediaTek a récemment souligné que son Helio P90 surpasse le Qualcomm Snapdragon 855 en termes de puissance de calcul d'IA. Cependant, compte tenu des performances réelles des composants de calcul individuels tels que le CPU, le GPU et le DSP, il est difficile d'affirmer que les performances du Snapdragon 855 sont inférieures à celles de l'Helio P90. Cet écart s'explique en grande partie par le fait que les mesures actuelles de la puissance de calcul de l'IA reposent principalement sur la somme des puissances de calcul traditionnelles des CPU, GPU et DSP pour extrapoler les performances globales. Or, cette méthode de mesure ne reflète, au mieux, que les performances d'une seule application. Du point de vue de Qualcomm, il leur est difficile de développer indépendamment un logiciel de mesure de la puissance de calcul de l'IA. Ils se contentent donc de fournir des conseils et de collaborer avec des fournisseurs de tels logiciels. Bien que leur équipe interne ait créé des représentations graphiques simples de la différence de puissance de calcul de l'IA avant et après intégration de l'IA, celles-ci ne permettent de comparer que les performances de leurs produits avant et après l'utilisation de l'IA. Pour des mesures plus objectives des performances de calcul de l'IA, il est essentiel que des fournisseurs de logiciels de mesure tiers, tels que UL et Basemark, développent leurs propres outils afin de présenter des données de performance impartiales. Cependant, Keith Kressin estime qu'à l'heure actuelle, il n'existe pas suffisamment de logiciels pour refléter précisément les performances spécifiques de la puissance de calcul de l'IA. Cela s'explique principalement par le développement rapide des technologies logicielles d'IA et l'absence, sur le marché, d'un référentiel fiable pour le fonctionnement de la puissance de calcul de l'IA. Par conséquent, il prévoit qu'il faudra encore du temps avant que les mesures de puissance de calcul de l'IA ne deviennent plus fiables. Keith Kressin, vice-président senior des produits chez Qualcomm Technologies, estime que les modèles informatiques actuels ne limiteront pas les performances de l'IA. Concernant le processeur Snapdragon 855 récemment lancé, il affirme qu'il intègre de nombreuses technologies Qualcomm et inclut même le Snapdragon 8cx, capable de rivaliser avec les processeurs x86 traditionnels. Il se prépare également à tirer parti du développement induit par les réseaux 5G. Ses progrès constants en matière de technologie de gravure sont indéniables, mais la question demeure : quand passera-t-il du procédé FinFET 7 nm actuel au procédé 5 nm ?

Interview/Qualcomm estime que les appareils portables intelligents auront une plus grande valeur marchande

Interview/Qualcomm estime que les appareils portables intelligents auront une plus grande valeur marchande

Tout au long de l'année dernière, dans ses communications externes, Qualcomm Atheros a constamment souligné le potentiel de développement considérable des objets connectés intelligents, dont l'ampleur pourrait même surpasser celle des smartphones. Pankaj Kedia, directeur principal de l'unité commerciale Objets connectés intelligents chez Qualcomm Atheros, a précisé lors d'une interview au CES 2019 que les fonctionnalités actuellement disponibles pour ces objets restent encore assez rudimentaires. Il estime qu'à l'avenir, ces objets connectés pourront représenter plus concrètement les individus et les aider à interagir avec leur environnement grâce à une détection proactive. Lors du CES 2019, Qualcomm et Mobvoi ont renouvelé leur collaboration pour lancer les nouvelles TicWatch S2 et E2. Ces montres sont équipées d'un processeur Qualcomm Snapdragon Wear 2100 et offrent une étanchéité jusqu'à 5 ATM, permettant ainsi aux utilisateurs de nager ou de pratiquer des activités nautiques jusqu'à 40 mètres de profondeur. Elles offrent également une protection de niveau militaire. Le système d'exploitation est Google Wear OS, et les montres intègrent des gestes personnalisables, comme la fonction « tourner pour activer » de Mobvoi, ainsi qu'un écran double couche permettant une autonomie prolongée grâce à l'écran LCD en utilisation normale. Lin Yi-li, directrice générale et vice-présidente des produits de la division Objets connectés de Mobvoi, a déclaré que l'utilisation de processeurs Qualcomm dans ces nouvelles montres connectées garantit une compatibilité optimale avec Google Wear OS et intègre les technologies applicatives associées. De plus, le processeur lui-même offre une faible consommation d'énergie, simplifiant ainsi la conception du produit et permettant un déploiement plus rapide des nouveaux modèles, tout en restant compatible avec les technologies les plus récentes et existantes. Selon Pankaj Kedia, si les montres dominent actuellement le marché des objets connectés, le nombre de casques audio a augmenté ces deux dernières années en raison de la popularité croissante des assistants vocaux et des applications de commande vocale. Le marché des montres connectées, initialement axé sur le développement, est désormais confronté à une concurrence accrue de la part de diverses marques, y compris des horlogers de luxe traditionnels comme Montblanc, Michael Kors et Louis Vuitton, qui proposent tous des montres connectées fonctionnant sous Wear OS. Cependant, les objets connectés ne se limitent pas aux montres et aux écouteurs ; leur développement s'étend à l'ensemble du corps, répondant à des besoins d'utilisation plus difficiles à satisfaire avec les smartphones. Par exemple, une montre connectée pourrait mesurer le rythme cardiaque pour déterminer si les palpitations sont dues à la chaleur intérieure, et ainsi activer automatiquement la climatisation ou ouvrir les fenêtres pour aérer. De plus, ces objets connectés peuvent remplacer les pièces d'identité et même servir de système d'ouverture de voiture sans clé. Avec la généralisation des assistants numériques, le nombre d'écouteurs connectés disponibles sur le marché a considérablement augmenté. Pankaj Kedia souligne que les aspects les plus importants des objets connectés sont l'économie d'énergie, les performances, la connectivité et la capacité de détection. Une autonomie suffisante est essentielle pour fidéliser les utilisateurs. C'est pourquoi, contrairement aux premiers processeurs de téléphones mobiles utilisés dans les objets connectés, et aux processeurs Wear Series spécialement conçus pour ces derniers, Qualcomm a déjà porté l'autonomie maximale des montres connectées à environ deux jours. Les technologies futures devraient permettre une utilisation encore plus longue sans recharge. Deuxièmement, se pose la question du temps de démarrage des services sur les appareils. Comparé au temps de démarrage des applications sur un téléphone, les utilisateurs sont généralement impatients d'attendre le lancement des applications sur leurs montres. Ils exigent également une connexion stable pour des performances de détection optimales, permettant une réponse plus rapide à leurs besoins et une connectivité réseau continue. Une fois ces conditions remplies, la conception de divers appareils portables devient plus aisée, la création de différentes applications est facilitée, ce qui permet de consacrer plus de temps au perfectionnement du design et d'accélérer la mise sur le marché. Actuellement, les montres connectées restent le type d'appareil portable intelligent dominant. La prochaine vague d'adoption à grande échelle dépendra naturellement de la demande du marché. Dans ses plans de développement futurs, Pankaj Kedia a déclaré que le déploiement massif à venir des réseaux 5G rendra les appareils portables encore plus importants dans un monde hyperconnecté. Cela est d'autant plus vrai que de plus en plus d'appareils fonctionnent et détectent leur environnement via Internet, et que la bande passante et le débit élevés de la 5G offriront des temps de réponse plus rapides. Par exemple, les casques de réalité mixte, que l'on peut considérer comme des dispositifs portables, peuvent recevoir en continu un contenu vidéo interactif stable et net grâce à une connexion réseau 5G permanente, rendant ainsi les applications de réalité virtuelle plus réalistes. Cependant, malgré le potentiel considérable des dispositifs portables intelligents, Pankaj…

Google lance un nouveau plan pour intégrer Google Assistant à des appareils connectés plus simples

Google lance un nouveau plan pour intégrer Google Assistant à des appareils connectés plus simples

Au CES 2019, Google, comme les années précédentes, a loué un stand sur l'esplanade extérieure du Las Vegas Convention Center, mettant l'accent sur la présentation de son assistant vocal Google Assistant. Google a annoncé que Google Assistant est désormais utilisé sur plus d'un milliard d'appareils et disponible dans plus de 80 pays et régions. Lors de cet événement, Google a également annoncé le programme Google Assistant Connect, qui vise à rendre Google Assistant utilisable sur une plus large gamme d'appareils, et pas seulement sur les smartphones. Auparavant, Google avait indiqué que Google Assistant n'était pas limité aux smartphones ; il peut être utilisé sur divers objets connectés (IoT) disposant d'une connexion Internet. Le programme Google Assistant Connect a pour objectif d'étendre l'application de Google Assistant à des appareils connectés plus simples, tels que le petit bouton-poussoir sans fil ou le petit écran à encre électronique présenté sur le stand. Google envisage Google Assistant comme une vaste plateforme pour l'Internet des objets (IoT). Les appareils connectés à cette plateforme n'ont pas nécessairement besoin de posséder les capacités d'un smartphone pour enregistrer les actions de l'utilisateur ou effectuer des calculs. Même les appareils aux fonctions simples et disposant d'une connexion internet peuvent se connecter et échanger des commandes et des données via l'Assistant Google, et ainsi se lier à un plus large éventail d'appareils. Le petit bouton-poussoir sans fil et l'écran à encre électronique présentés lors de l'événement permettent aux utilisateurs de personnaliser les commandes, à l'instar d'un interrupteur sans fil Mi Home. Ils peuvent définir les effets d'une simple pression, d'une double pression ou même d'une pression prolongée, comme allumer ou éteindre toutes les lumières de la maison. L'écran à encre électronique peut également se connecter à l'Assistant Google pour accéder à la géolocalisation, au calendrier et à d'autres données. Il peut afficher les prévisions météorologiques en temps réel et rappeler les événements à venir, soit via son écran, soit via d'autres appareils connectés. Ces démonstrations illustrent la vision initiale de Google pour la plateforme de services de l'Assistant Google. Le projet futur, Google Assistant Connect, vise à intégrer davantage d'appareils connectés, à rendre les applications connectées plus abordables et intuitives, et ainsi à multiplier les possibilités d'applications interconnectées et interactives grâce à une adoption généralisée.

AMD dévoile Radeon VII, sa première carte graphique FinFET 7 nm, destinée aux jeux haut de gamme et à la création de contenu haute résolution.

AMD dévoile Radeon VII, sa première carte graphique FinFET 7 nm, destinée aux jeux haut de gamme et à la création de contenu haute résolution.

Après le lancement des nouveaux processeurs serveurs EPYC gravés en 7 nm FinFET et des nouvelles cartes graphiques haut de gamme Radeon Instinct MI60 et MI50, AMD a officiellement annoncé la carte graphique Radeon VII, également gravée en 7 nm FinFET, lors de sa conférence au CES 2019. Cette carte est principalement conçue pour les jeux vidéo exigeants et la création de contenu nécessitant un rendu intensif. La Radeon VII, dévoilée cette fois-ci, utilise non seulement le procédé 7 nm FinFET de TSMC, mais adopte également une nouvelle nomenclature. Elle intègre la nouvelle architecture graphique Vega 64, avec une fréquence d'horloge maximale de 1.8 GHz, 60 unités de calcul, un total de 3840 2 processeurs de flux, une efficacité énergétique améliorée d'environ 25 %, 16 Go de mémoire HBM à large bande passante et prend en charge jusqu'à 1 To de bande passante d'affichage par seconde. Lors de cette présentation, AMD a mis en avant les performances de la Radeon VII en résolution 4K sur *Devil May Cry 5* et *Tom Clancy's The Division 2*, soulignant la fluidité et la stabilité de l'affichage. AMD a également annoncé un partenariat avec Ubisoft pour proposer, pendant une durée limitée, des packs Radeon VII avec *Tom Clancy's The Division 2*, ainsi que des packs processeurs Ryzen 2 séries 5 ou 7 avec *Tom Clancy's The Division 2*. De plus, AMD prévoit de proposer la Radeon VII avec *Devil May Cry 5* ou *Resident Evil 2 Remastered*. La Radeon VII devrait être disponible le 7 février au prix de 699 $, et des cartes graphiques personnalisées sont attendues chez les constructeurs tels qu'ASUS, Gigabyte et MSI.

AMD présente les processeurs Ryzen 4.0 construits sur le processus FinFET 7 nm avec prise en charge PCIe 3

AMD présente les processeurs Ryzen 4.0 construits sur le processus FinFET 7 nm avec prise en charge PCIe 3

Suite à l'annonce de sa première carte graphique gravée en 7 nm FinFET, la Radeon VII, AMD a présenté en avant-première son futur processeur Ryzen 3 lors de sa conférence au CES 2019. Ce processeur utilise également l'architecture Zen 2, gravée en 7 nm FinFET par TSMC. Troisième génération de processeurs Ryzen, le Ryzen 3 a été comparé par la PDG d'AMD, Lisa Su, à un processeur comparable à l'Intel Core i9-9900K, en utilisant CINEBENCH 15 pour évaluer ses performances. Elle a notamment insisté sur sa capacité à effectuer le rendu d'images plus rapidement et avec une consommation d'énergie réduite. Cependant, aucune information précise concernant le Ryzen 3 ni sa date de sortie n'ont été divulguées lors de la présentation. Il a été souligné qu'il prendra en charge le bus PCIe 4.0, permettant ainsi d'exploiter pleinement les performances d'affichage annoncées pour la Radeon VII. Il est également compatible avec les sockets AM4 existants, garantissant ainsi sa compatibilité avec les cartes mères actuelles. AMD devrait toutefois commercialiser ultérieurement des cartes mères équipées de ce nouveau chipset, en collaboration avec ses partenaires. Selon le calendrier prévu, AMD devrait dévoiler le processeur Ryzen 3 lors du Computex 2019, ce qui en fera un produit clé pour l'avenir de l'entreprise. Outre le lancement de cette nouvelle génération de processeurs Ryzen, AMD devrait également mettre à jour sa gamme de processeurs Threadripper cette année.

Pratique : NS West et SHOEI collaborent sur un casque intelligent à la fois simple et pratique

Pratique : NS West et SHOEI collaborent sur un casque intelligent à la fois simple et pratique

S'appuyant sur son expérience dans le développement d'affichages tête haute (HUD) et de tableaux de bord numériques pour véhicules, NS West a annoncé une collaboration avec le fabricant japonais de casques SHOEI pour créer un casque intelligent baptisé « IT-HL ». Ce casque se connecte à une application mobile et utilise les services cloud de Navitime Japan, fournisseur de technologies cartographiques. Les utilisateurs peuvent ainsi consulter leur vitesse, l'itinéraire vers le prochain carrefour et répondre aux appels via l'affichage tête haute intégré au casque, même à vélo. BMW avait présenté un concept similaire au CES 2016, se connectant également à un smartphone pour accéder aux cartes et autres informations, et affichant les informations de conduite via l'affichage tête haute. La collaboration entre NS West et SHOEI repose sur un concept similaire, mais les données cartographiques sont fournies par Navitime Japan. Le casque se connecte à une application mobile et au serveur cloud de Navitime Japan pour obtenir les informations de navigation, mesurer la vitesse en temps réel, guider l'utilisateur aux intersections et afficher le temps restant jusqu'à destination. Bien qu'il se connecte à un téléphone portable, pendant la conduite, les utilisateurs ne peuvent utiliser que l'application Navitime Japan et répondre ou raccrocher les appels via les boutons physiques situés à l'extérieur du casque. Il est impossible d'activer directement Google Assistant ou d'autres assistants numériques via le microphone intégré, ni d'exécuter simultanément d'autres applications tierces. Selon NS West, la principale préoccupation réside dans la diversité des situations que les motards peuvent rencontrer. La conception vise donc à leur permettre de se concentrer sur l'état de la route et la sécurité du véhicule. Actuellement, les utilisateurs peuvent uniquement consulter leur itinéraire et leur vitesse via l'affichage tête haute, et répondre ou raccrocher les appels. Ces fonctionnalités pourraient toutefois évoluer en fonction des besoins. Comparé au concept de BMW, qui intègre de nombreux capteurs et se connecte au casque via Bluetooth, permettant ainsi d'afficher des informations détaillées sur le véhicule directement sur l'affichage tête haute (niveau de carburant, angle d'inclinaison en virage, pression des pneus, état de la suspension – autant d'éléments essentiels à la sécurité), le casque intelligent développé par NS West en collaboration avec SHOEI offre des fonctionnalités plus simples. Son principal atout réside dans sa polyvalence. NS West et SHOEI n'ont pas encore arrêté la date de sortie ni le prix du casque intelligent « IT-HL », mais il devrait être commercialisé d'abord au Japon cette année, puis sur d'autres marchés comme les États-Unis. Sa disponibilité à Taïwan dépendra de la volonté du distributeur de l'importer.

La technologie 360 ​​Reality Audio est l'attente de Sony pour les performances sonores futures

La technologie 360 ​​Reality Audio est l'attente de Sony pour les performances sonores futures

Au CES 2019, Sony a exceptionnellement présenté uniquement ses nouveaux téléviseurs 8K disponibles dans le commerce et les téléviseurs de la série Master de troisième génération, contrairement aux années précédentes où la marque dévoilait fréquemment de nombreux nouveaux produits, voire des concepts. Cette année, l'accent a été mis exclusivement sur les téléviseurs, les appareils photo, quelques produits audio, ainsi que sur la très populaire PlayStation 4 et la nouvelle génération du robot-chien Aibo. De l'autre côté de l'espace d'exposition, Sony a utilisé un amplificateur au design unique pour illustrer sa vision de l'avenir des produits audio, baptisant cette technologie 360 ​​Reality Audio. Selon Sony, par le passé, pour obtenir une performance sonore proche du réalisme, on utilisait généralement plusieurs haut-parleurs physiques pour créer différents canaux. Cependant, pour des raisons pratiques, la simulation logicielle s'est imposée, permettant aux haut-parleurs stéréo gauche et droit de simuler des effets multicanaux. Actuellement, les méthodes utilisées par les laboratoires d'acoustique, comme DTS et Dolby, « trompent » l'oreille humaine grâce à des calculs acoustiques, offrant ainsi une expérience d'écoute multicanaux dans un espace et à un coût limités. Avec l'essor de la réalité virtuelle et d'autres applications, des enceintes offrant un son surround à 360 degrés et des technologies audio utilisant la modélisation 3D pour simuler les champs sonores ont vu le jour. De plus, l'utilisation de la vision par ordinateur pour analyser le contenu des images et optimiser le rendu sonore est devenue une pratique courante. Cependant, Sony estime que ces performances sonores présentent encore des limites, la position de l'utilisateur influençant fortement l'expérience d'écoute. C'est pourquoi, lors de sa démonstration au CES 2019, Sony a utilisé 13 enceintes physiques, placées à différentes hauteurs et positions, permettant ainsi aux personnes présentes de profiter d'un champ sonore réaliste. La marque a ensuite démontré comment un simple casque circum-aural MDR-Z7M2 pouvait reproduire le champ sonore des 13 enceintes. Le procédé consiste à placer des mini-microphones à l'intérieur de l'oreille avant de porter le casque. Utilisant les principes du sonar, ces microphones « scannent » la structure interne du conduit auditif, permettant au système audio de s'adapter à chaque morphologie et garantissant à tous une expérience sonore immersive. Après avoir collecté suffisamment de données, l'amplificateur spécialement conçu par Sony reproduit cet effet de scène sonore, permettant aux personnes se trouvant à proximité de l'amplificateur de percevoir clairement une scène sonore réaliste, sans être gênées par les mouvements. De plus, grâce à la technologie 360 ​​Reality Audio, les utilisateurs peuvent profiter d'une scène sonore équivalente à un champ audio réel sans avoir besoin d'écouteurs ou d'équipement supplémentaire. Sony ambitionne de faire de la technologie 360 ​​Reality Audio une nouvelle norme et a déjà commencé à développer des applications et des outils d'enregistrement associés, dans l'espoir d'attirer davantage de développeurs et de fabricants. Cette technologie peut également être appliquée aux produits de sortie audio tels que les téléviseurs et les projecteurs, et même dans des domaines comme la réalité virtuelle.

Pages 2 à 11 1 2 3 ... 11

Ravis de vous revoir!

Connectez-vous à votre compte ci-dessous

Récupérez votre mot de passe

Vous avez déjà une adresse e-mail? Cliquez ici.