Mise à jour:AWS et Microsoft ont annoncé qu'ils fourniraient la série gpt-oss du modèle de langage de pondération ouvert d'OpenAI via leurs plateformes de services cloud. Ce modèle de pondération ouvert est utilisable respectivement via Amazon Bedrock, Amazon SageMaker AI et Azure AI Foundry.
De plus, Qualcomm a également déclaré que le modèle gpt-oss-16b peut être exécuté via un appareil équipé de la plate-forme informatique phare Snapdragon et d'une capacité de mémoire intégrée de 20 Go.
OpenAI a annoncé plus tôt un nouveau poids ouvertGrands modèles de langage gpt-oss-120b et gpt-oss-20bC'est également la deuxième fois qu'OpenAI lance un modèle de langage ouvert non commercial depuis le lancement du modèle de langage GPT-2019 en 2, symbolisant sa réponse à l'intention initiale de « laisser les réalisations de l'intelligence artificielle profiter à toute l'humanité ».
Contrairement aux modèles open source, GPT-OSS ne divulgue ni ses données d'entraînement ni son code. Il publie plutôt les pondérations générées après l'entraînement du modèle, c'est-à-dire les valeurs attribuées aux données d'entrée pendant le processus d'apprentissage. Bien que la méthode d'entraînement ne puisse être entièrement tracée, les utilisateurs peuvent néanmoins l'utiliser pour déduire, affiner et même développer les services correspondants.
Selon Benjamin C. Lee, professeur d'informatique à l'Université de Pennsylvanie, les modèles de pondération ouverts constituent une alternative « entre les modèles économiques boîte noire et les modèles entièrement open source ». Les développeurs peuvent importer et appliquer rapidement des modèles de langage performants sans frais de formation élevés.
Parmi les deux modèles commercialisés cette fois-ci, gpt-oss-120b affiche environ 117 milliards de paramètres, approchant les performances du modèle commercial O3 d'OpenAI, ce qui le rend adapté à un déploiement sur du matériel haut de gamme (un GPU avec 80 Go de RAM est recommandé). En revanche, gpt-oss-20b ne nécessite qu'un ordinateur doté de 16 Go de RAM, ce qui le rend plus adapté au calcul local sur ordinateur personnel, comme l'assistance à la programmation hors ligne et la génération de texte.
Les deux adoptent les conditions de licence open source Apache 2.0, permettant aux développeurs de les modifier, de les déployer et de les utiliser à des fins commerciales, abaissant encore le seuil des applications de modèles d'IA dans les entreprises ou la recherche.
En termes de fonctionnalités, la série gpt-oss prend en charge des fonctionnalités avancées telles que le raisonnement par chaîne de pensée et l'utilisation d'outils (comme l'exécution de code Python). Bien qu'elle ne propose pas d'entrées multimodales (comme les images et la voix), elle peut être complétée par des fonctions pertinentes grâce à la connexion aux services commerciaux d'OpenAI.
OpenAI a notamment réalisé des tests de sécurité et des optimisations supplémentaires avant la publication de gpt-oss. L'entreprise a souligné que ces modèles seraient testés dans le cadre d'un projet pilote, et que les retours ultérieurs permettraient de déterminer s'il convient d'étendre l'expérience en libre accès. L'un des premiers partenaires est AI Sweden, le centre national suédois d'intelligence artificielle, qui participera aux futurs tests de déploiement des applications.
Cette décision a également coïncidé avec la révélation du PDG de Meta, Mark Zuckberg, selon laquelle « la publication de modèles open source sera réduite à l'avenir », créant ainsi un contraste avec OpenAI.



