Alors que l'IA générative évolue vers un développement léger et localisé, Meta a annoncé la sortie open source de la dernièreModèles de la série MobileLLM-R1, qui peut être déployé et exécuté directement sur les appareils mobiles et autres, et se concentre sur le raisonnement et le traitement des problèmes mathématiques, de programmation et scientifiques. Cette initiative répond non seulement à la demande du marché pour une « IA sur appareil », mais témoigne également de l'investissement continu des grandes entreprises technologiques dans l'amélioration des capacités de raisonnement.
MobileLLM-R1 est un nouveau membre de la famille Meta MobileLLM, qui se distingue par ses fonctionnalités simplifiées et spécialisées. La série comprend deux types de modèles : un modèle de base et un modèle final après ajustement fin supervisé (SFT), avec des paramètres respectifs de 140 millions, 360 millions et 950 millions. Le modèle de base prend en charge une longueur de contexte de 4 000 tokens, tandis que le modèle final peut être étendu à 32 000 tokens, améliorant ainsi considérablement sa capacité à traiter des problèmes complexes.
Meta a souligné que MobileLLM-R1 n'est pas un modèle de langage à usage général pour les chatbots, mais est conçu pour des scénarios de raisonnement spécifiques, tels que la résolution de problèmes mathématiques, la programmation (y compris des langages comme Python et C++) et les tâches liées à la recherche scientifique.
雖然其最大版本MobileLLM-R1 950M僅以不到5TB高品質資料完成訓練 (其中預先訓練資料僅2TB組token),但表現仍相當驚豔。Meta表示,在MATH、GSM8K、MMLU、LiveCodeBench等多項評測中,MobileLLM-R1的成績超越使用36TB組訓練資料的Qwen 3 0.6B模型。
Lors d'une comparaison plus détaillée, la précision du MobileLLM-R1 950M au test de mathématiques est cinq fois supérieure à celle d'Olmo (1.24 B) et deux fois supérieure à celle de SmolLM (1.7 B). Il est également en tête en termes de génération de code et de capacités de résolution de problèmes.
而更小的MobileLLM-R1 140M (base)也優於SmolLM2-135M,至於360M版本更以大幅差距超過Gemma-3-270M-pt與SmolLM2-360M (base),凸顯Meta 在模型架構與訓練策略上的最佳化成果。
Il est à noter que Meta utilise également la plateforme d'hébergement Hugging FaceouvertMobileLLM-R1 est publié sous licence Apache 2.0, ce qui facilite son téléchargement et son utilisation par les développeurs. Il peut être exécuté directement avec le moteur d'inférence vLLM. Son déploiement s'effectue simplement en enregistrant l'architecture du modèle dans le registre des modèles sous le nom Llama4ForCausalLM. Pour les développeurs souhaitant développer des applications d'IA dédiées sur appareils mobiles à moindre coût, sans dépendre entièrement des ressources cloud.
Globalement, le MobileLLM-R1 représente une nouvelle avancée pour la stratégie de Meta, axée sur un modèle d'IA « petit mais précis ». En se concentrant sur les capacités d'inférence et en réduisant les besoins en ressources, il permet une véritable intégration de l'IA aux appareils et à la vie quotidienne des utilisateurs. À mesure que les fabricants développent des solutions d'IA intégrées aux appareils, les capacités d'inférence des smartphones, des ordinateurs portables et même des objets connectés ouvriront la voie à une nouvelle vague de mises à niveau.
