Le paysage de l'intelligence artificielle vient de connaître un nouveau tournant avec l'annonce par Ant Group, le géant chinois de la fintech, du lancement de Ling-1T. Ce modèle linguistique open-source, dévoilé le 9 octobre, affiche une architecture monumentale de mille milliards de paramètres, positionnant directement la société dans la course aux IA surdimensionnées.
Une performance remarquable en raisonnement mathématique
Ling-1T se distingue particulièrement par ses capacités en raisonnement mathématique complexe. Le modèle a atteint 70,42% de précision sur le benchmark AIME 2025, un test standard utilisé pour évaluer les capacités de résolution de problèmes des systèmes d'IA. Cette performance est d'autant plus notable que le modèle consomme en moyenne plus de 4 000 tokens de sortie par problème, démontrant une approche approfondie de la résolution.
« Ces résultats placent Ling-1T parmi les modèles d'IA de classe mondiale en termes de qualité des résultats », soulignent les équipes techniques d'Ant Group. La performance sur AIME 2025, bien que consommatrice en ressources, témoigne de la capacité du modèle à traiter des problèmes mathématiques complexes avec une précision compétitive.
Double stratégie : modèle et framework d'inférence
L'annonce de Ling-1T s'accompagne du lancement de dInfer, un framework d'inférence spécialement conçu pour les modèles de diffusion linguistique. Cette approche duale reflète la stratégie d'Ant Group de parier sur plusieurs paradigmes technologiques plutôt que de se concentrer sur une seule architecture.
Les modèles de diffusion représentent une rupture avec les systèmes autorégressifs traditionnels qui sous-tendent les chatbots populaires comme ChatGPT. Contrairement à la génération séquentielle de texte, les modèles de diffusion produisent des sorties en parallèle, une approche déjà répandue dans les outils de génération d'images et de vidéos mais moins courante dans le traitement du langage.
Des gains d'efficacité substantiels
Les tests de performance de dInfer révèlent des améliorations significatives en matière d'efficacité. Sur le benchmark HumanEval dédié au codage, dInfer a produit 1 011 tokens par seconde, surpassant largement les solutions concurrentes. À titre de comparaison, le framework Fast-dLLM de Nvidia atteint 91 tokens par seconde, tandis que le modèle Qwen-2.5-3B d'Alibaba fonctionnant sur l'infrastructure vLLM génère 294 tokens par seconde.
« Nous pensons que dInfer fournit à la fois une boîte à outils pratique et une plateforme standardisée pour accélérer la recherche et le développement dans le domaine en pleine croissance des modèles de diffusion linguistique », expliquent les chercheurs d'Ant Group dans la documentation technique.
Un écosystème d'IA structuré et diversifié
Ling-1T s'inscrit dans une famille plus large de systèmes d'IA qu'Ant Group a développés ces derniers mois. Le portefeuille de la société s'articule désormais autour de trois séries principales :
- Les modèles Ling pour les tâches linguistiques standard
- Les modèles Ring conçus pour le raisonnement complexe
- Les modèles Ming multimodaux capables de traiter images, texte, audio et vidéo
Cette approche diversifiée inclut également un modèle expérimental désigné LLaDA-MoE, qui utilise l'architecture Mixture-of-Experts (MoE). Cette technique n'active que les portions pertinentes d'un grand modèle pour des tâches spécifiques, améliorant théoriquement l'efficacité computationnelle.
Stratégie open-source face aux contraintes technologiques
Le choix de l'open-source par Ant Group s'inscrit dans un contexte géopolitique particulier. Face aux restrictions d'exportation de technologies semi-conductrices de pointe, les entreprises technologiques chinoises mettent de plus en plus l'accent sur l'innovation algorithmique et les approches collaboratives.
He Zhengyu, directeur technique d'Ant Group, a clairement positionné la vision de l'entreprise : « Chez Ant Group, nous pensons que l'intelligence artificielle générale devrait être un bien public – une étape partagée pour l'avenir intelligent de l'humanité. »
Les lancements open-source de Ling-1T et de Ring-1T-preview représentent des pas concrets vers « une avancée ouverte et collaborative », selon les déclarations officielles. Cette approche pourrait permettre à Ant Group de stimuler l'innovation tout en contournant partiellement les limitations technologiques actuelles.
Impact sur le marché et perspectives futures
L'entrée d'Ant Group dans l'arène des modèles à trillion de paramètres modifie l'équilibre concurrentiel dans le secteur de l'IA. Alors que les géants américains dominent traditionnellement ce segment, l'émergence de solutions chinoises compétitives pourrait redistribuer les cartes à l'échelle mondiale.
La performance de Ling-1T sur les tâches de raisonnement mathématique, combinée à l'efficacité de dInfer, positionne Ant Group comme un acteur sérieux dans la course aux IA de nouvelle génération. L'approche modulaire avec les familles Ling, Ring et Ming offre par ailleurs une flexibilité stratégique pour adapter les solutions aux différents besoins du marché.
À retenir
- Ling-1T est un modèle open-source à 1000 milliards de paramètres spécialisé dans le raisonnement mathématique
- Performance de 70,42% sur le benchmark AIME 2025 avec consommation importante de tokens
- Lancement simultané de dInfer, framework d'inférence pour modèles de diffusion
- Gains d'efficacité significatifs : 1011 tokens/seconde contre 91 pour Nvidia
- Stratégie open-source pour contourner les restrictions technologiques
- Architecture modulaire avec trois familles de modèles (Ling, Ring, Ming)