Alibaba a également lancé un modèle d'intelligence artificielle qui améliore le raisonnement logique pour concurrencer « o1 » d'OpenAI

Alibaba lance le modèle d'intelligence artificielle « QVQ-72B-Preview » avec des capacités d'inférence visuelle et une taille de paramètre accrue.

Alibaba a récemment lancé « QwQ-32B-Preview », un modèle d'IA doté de capacités de raisonnement logique. Plus récemment, l'entreprise a annoncé « QVQ-72B-Preview », un modèle d'IA intégrant des capacités de raisonnement visuel, soulignant des avancées significatives en matière de compréhension du langage et d'inférence visuelle, et vantant sa capacité à résoudre des problèmes complexes. « QVQ-72B-Preview » augmente non seulement le nombre de paramètres à 72 milliards d'ensembles, mais ajoute également des capacités de reconnaissance d'images. Combinant les capacités de compréhension et d'analyse d'un modèle de langage naturel à grande échelle, il utilise la compréhension contextuelle et l'analyse visuelle pour déduire des solutions à des problèmes complexes. Alibaba a déclaré que « QVQ-72B-Preview » peut être utilisé pour simuler le placement de meubles volumineux dans l'espace ou pour l'analyse et le diagnostic d'images médicales. De plus, « QVQ-72B-Preview » a obtenu d'excellentes performances lors de tests de référence mathématiques tels que MathVista, MathVision et OlympiadBench, ses performances sur MathVision se rapprochant de celles du modèle d'IA o1 d'OpenAI. Cependant, étant donné qu'il est encore en phase de prévisualisation, « QVQ-72B-Preview » peut rencontrer des boucles de raisonnement récursives lors de son exécution, et son temps de réponse peut également augmenter selon le langage utilisé. Actuellement, « QVQ-720B-Preview » est hébergé sur la plateforme Hugging Face et est disponible gratuitement pour tous en tant que logiciel libre.

Les statistiques montrent que ChatGPT d'OpenAI a attiré plus de 1 millions d'utilisateurs en janvier.

OpenAI annonce la sortie prochaine de nouveaux modèles d'intelligence artificielle o3 et o3-mini l'année prochaine, en sautant le nom « O2 »

Suite à l'annonce récente de nombreuses fonctionnalités et services, OpenAI a présenté en avant-première son nouveau modèle d'intelligence artificielle, o3, lors de sa dernière communication. Selon Sam Altman, PDG d'OpenAI, le nom o3 reflète la difficulté qu'OpenAI rencontre à nommer ses produits et permet également d'éviter tout conflit de noms avec le réseau O2 de Telefónica en Europe. Par conséquent, le nouveau modèle d'IA ne s'appellera pas o2. Comparé à o1, le modèle précédent, o3 affiche des performances supérieures. OpenAI souligne notamment que lors de l'American Invitational Mathematics Examination (AIE), o3 a atteint un taux de précision de 96.7 %, contre seulement 83.3 % pour o1. Cependant, OpenAI précise qu'o3 n'est pour l'instant qu'une version préliminaire, initialement réservée aux chercheurs participant aux tests de sécurité. Son lancement est prévu pour 2025, mais aucune date précise n'a encore été annoncée. En plus d'annoncer le modèle d'IA o3, OpenAI a également dévoilé un modèle plus compact, o3-mini, doté d'une fonctionnalité de temps de réflexion adaptatif. Cette fonctionnalité permet aux utilisateurs d'ajuster le temps d'inférence du modèle o3, lui permettant ainsi de raisonner pendant des durées variables avant de fournir une réponse. OpenAI a indiqué que les performances d'o3-mini sont équivalentes à celles d'o3, mais que son coût d'exécution est considérablement réduit. Son lancement est prévu pour fin janvier 2025, tandis qu'o3 devrait arriver sur le marché après o3-mini. Aujourd'hui, nous avons partagé les évaluations d'une version préliminaire du prochain modèle dans notre section consacrée au raisonnement du modèle o…

Google présente Gemini 2.0, son modèle d'intelligence artificielle le plus puissant à ce jour, en proposant initialement une version Flash à des fins de test.

Google annonce Gemini 2.0 Flash Thinking, un modèle d'IA qui « pense » tout en conservant des capacités d'exécution légères.

Google a récemment dévoilé son modèle d'IA le plus puissant à ce jour, Gemini 2.0. Après avoir initialement proposé une version Flash allégée pour les tests, l'entreprise annonce désormais Gemini 2.0 Flash Thinking, un nouveau modèle d'IA capable de répondre à des questions logiquement plus complexes grâce à un processus de « réflexion ». Selon Jeff Dean, directeur scientifique de Google DeepMind, Gemini 2.0 Flash Thinking ajoute principalement une fonction de « réflexion », similaire à celle du modèle O1 d'OpenAI, tout en conservant la rapidité d'exécution de la version Flash. Cependant, bien qu'il soit qualifié de « réflexion », son fonctionnement s'apparente davantage à la décomposition d'une question générale en sous-questions plus simples, chacune étant résolue pour parvenir à la réponse à la question principale. Par exemple, face à un problème mathématique complexe, Gemini 2.0 Flash Thinking décompose le problème en différents calculs et effectue chacun d'eux pour obtenir la réponse finale. Gemini 2.0 Flash Thinking offre également des capacités de saisie multimodales, ce qui lui permet de traiter simultanément des images et du texte. À l'instar de la résolution de problèmes complexes, il décompose le problème en ses composantes pour en trouver la solution. Gemini 2.0 Flash Thinking est actuellement disponible en version test sur la page Google AI Studio. Présentation de Gemini 2.0 Flash Thinking…

En raisonnant et en résolvant les problèmes de différentes manières, OpenAI a lancé le modèle de langage naturel « o1 » qui peut passer plus de temps à « réfléchir »

OpenAI ouvre son dernier modèle d'IA, o1, à tous les développeurs tiers via API, favorisant ainsi le développement de davantage d'applications d'IA.

OpenAI a annoncé la mise à disposition de son dernier modèle d'IA, o1, aux développeurs tiers via une API, ainsi que la publication de nouveaux outils applicatifs. o1 est actuellement le modèle d'IA le plus puissant d'OpenAI. Lors des calculs, il prend en compte l'essence du problème et la justesse de la solution, ce qui lui confère des performances supérieures en physique, chimie, biologie, mathématiques et programmation. Cependant, contrairement aux modèles de la série GPT qui s'appuient principalement sur la comparaison de données et l'induction, o1 nécessite un temps de vérification plus long. Il privilégie la justesse de la solution et sa cohérence logique avec l'énoncé. Lors de la résolution de problèmes issus des Olympiades internationales de mathématiques, OpenAI a constaté que GPT-4o atteignait un taux de précision de 13 %, tandis que o1 atteignait 83 %. Cette annonce permet à tous les développeurs tiers d'accéder au modèle o1 via une API, d'y ajouter des sorties structurées, des appels de fonctions, un raisonnement visuel et d'effectuer des ajustements fins pertinents. Par ailleurs, OpenAI a ajusté les tarifs d'utilisation de l'API Realtime. Par exemple, le prix de la sortie audio GPT-4o a été réduit de 60 %, et celui de l'entrée GPT-4o mini a été fixé à 10 $ par million de jetons, tandis que le prix de la sortie a été ajusté à 20 $. Parmi les autres modifications, citons l'ajout de fonctionnalités d'ajustement des préférences pour mieux adapter la sortie du modèle aux besoins attendus, ainsi que de nouveaux outils et ressources pour les développeurs Go et Java afin de faciliter la création d'applications d'IA. Nous intégrons OpenAI O1 à l'API. L'accès est déployé dès aujourd'hui pour les développeurs de niveau d'utilisation 5, et ce déploiement se poursuivra…

Google présente Gemini 2.0, son modèle d'intelligence artificielle le plus puissant à ce jour, en proposant initialement une version Flash à des fins de test.

Google présente Gemini 2.0, son modèle d'intelligence artificielle le plus puissant à ce jour, en proposant initialement une version Flash à des fins de test.

Suite à l'annonce par OpenAI de « o1 », un modèle de langage naturel capable d'une analyse plus approfondie, et à son intégration récente dans la solution ChatGPT Pro, Google a immédiatement présenté en avant-première son modèle d'IA nouvelle génération, Gemini 2.0, le présentant comme le modèle d'IA le plus puissant de Google à ce jour. Sundar Pichai, PDG de Google, a déclaré que Gemini 2.0 permettra la création de services d'assistant IA entièrement nouveaux et accélérera le développement d'assistants IA généralistes. Contrairement à la précédente approche, qui consistait à publier d'abord une version Pro de Gemini 1.5, Google lance désormais la version Flash allégée de Gemini 2.0, accessible en avant-première via le service web Gemini, une application étant prévue ultérieurement. Google intégrera également Gemini 2.0 à son service de recherche, rendant les résumés de recherche basés sur l'IA plus efficaces et précis. Ce modèle devrait également s'intégrer à davantage de services Google et se targue de pouvoir gérer des interactions et des questions plus complexes, notamment des problèmes mathématiques à plusieurs étapes et une programmation plus complexe. Par ailleurs, Google a également expliqué que Project Astra, le service d'assistant IA annoncé lors de la Google I/O 2024 de cette année, fonctionne désormais avec le modèle d'IA Gemini 2.0. Ce dernier prend en charge l'interaction multilingue, peut même mémoriser les sujets mentionnés par l'utilisateur pendant de longues périodes et offre une latence d'interaction améliorée. Il a également accès à des outils et services tels que Google Lens et Google Maps. Pour ses développements futurs, Google prévoit de continuer à prendre en charge davantage d'interfaces linguistiques pour Gemini et d'étendre sa disponibilité à plus de pays et de régions, tout en fournissant des résultats de recherche agrégés par l'IA. À titre de comparaison, Google a indiqué que la version Flash Lab de Gemini 2.0 surpasse Gemini 1.5 Flash et Gemini 1.5 Pro en termes de performances globales, offre une précision de codage supérieure et est plus performante dans la résolution de problèmes mathématiques, faisant même preuve d'une meilleure efficacité dans la résolution de problèmes complexes. Cependant, ses performances en matière de compréhension contextuelle à long terme restent faibles. Outre l'annonce de la préversion de Gemini 2.0, Google a également dévoilé un nouvel outil appelé Deep Research, qui utilisera Gemini…

Alibaba a également lancé un modèle d'intelligence artificielle qui améliore le raisonnement logique pour concurrencer « o1 » d'OpenAI

Alibaba a également lancé un modèle d'intelligence artificielle qui améliore le raisonnement logique pour concurrencer « o1 » d'OpenAI

Alibaba a annoncé le lancement d'un modèle d'intelligence artificielle baptisé « QwQ-32B-Preview », qui met l'accent sur le raisonnement logique et la résolution de problèmes. À l'instar du modèle de traitement du langage naturel « o1 » d'OpenAI, récemment publié, « QwQ-32B-Preview » d'Alibaba intègre un système d'auto-vérification qui contrôle l'exactitude de ses inférences, garantissant ainsi que ses solutions répondent au mieux aux besoins spécifiques. Actuellement, « QwQ-32B-Preview » prend en charge 325 milliards de paramètres et peut traiter jusqu'à 32 000 mots de contexte, surpassant même « GPT-4o » d'OpenAI dans certains tests. Distribué sous licence Apache 2.0, ce modèle peut être utilisé à des fins commerciales. Alibaba propose actuellement une version préliminaire du modèle sur sa plateforme Hugging Face.

En raisonnant et en résolvant les problèmes de différentes manières, OpenAI a lancé le modèle de langage naturel « o1 » qui peut passer plus de temps à « réfléchir »

En raisonnant et en résolvant les problèmes de différentes manières, OpenAI a lancé le modèle de langage naturel « o1 » qui peut passer plus de temps à « réfléchir »

OpenAI a récemment dévoilé son modèle de traitement automatique du langage naturel (TALN), « o1 », capable de « réfléchir » plus en profondeur, de résoudre des problèmes par le raisonnement et différentes approches, et d'améliorer sa précision en corrigeant les erreurs. Ce modèle TALN devrait être le produit précédemment annoncé sous le nom de code « Strawberry », mettant l'accent sur une pensée similaire à celle de l'humain et l'apprentissage par l'expérience. Comme pour ses autres modèles TALN, OpenAI propose une version préliminaire d'« o1 » ainsi qu'une version plus rapide et plus légère, « o1-mini ». La première est actuellement réservée aux utilisateurs payants du service OpenAI et est limitée à 30 messages par utilisateur. La seconde est également réservée aux utilisateurs payants et est limitée à 50 messages. Contrairement aux modèles de la série GPT précédemment publiés, « o1 » utilise une convention de nommage différente, ce qui semble indiquer une stratégie de développement différente. « o1 » ne dispose pas de fonctionnalités de navigation web et ne permet pas aux utilisateurs de télécharger des fichiers ou des images ; son évolution repose essentiellement sur l'entraînement du modèle et l'interaction continue avec les utilisateurs. L'algorithme d'« o1 » prend en compte l'essence du problème et la pertinence de la solution lors du calcul. Par conséquent, il est plus performant en physique, chimie, biologie, et même en mathématiques et en programmation. Cependant, contrairement aux modèles de la série GPT qui s'appuient principalement sur la comparaison de données et l'induction, il consacre davantage de temps à la vérification de la solution. « o1 » s'attache davantage à vérifier l'exactitude et la cohérence logique de la solution avec la question. Lors des Olympiades internationales de mathématiques, OpenAI a constaté que GPT-4o n'atteignait qu'un taux de précision de 13 %, tandis que « o1 » atteignait 83 %. Toutefois, même si un temps de vérification plus long se traduit par un taux de précision plus élevé, cela ne signifie pas que « o1 » ne commettra pas d'erreurs flagrantes, comme les modèles de la série GPT. La solution finale peut toujours nécessiter une confirmation humaine.

Ravis de vous revoir!

Connectez-vous à votre compte ci-dessous

Récupérez votre mot de passe

Vous avez déjà une adresse e-mail? Cliquez ici.