Inception, start‑up fondée autour des travaux du professeur de Stanford Stefano Ermon, a annoncé une levée de fonds de 50 millions de dollars en seed. Le tour, mené par Menlo Ventures, réunit plusieurs investisseurs stratégiques et technologiques, tandis que la société promeut l’application des modèles par diffusion au texte et au développement logiciel, en alternative aux modèles auto‑régresseurs dominants.
Contexte et financement
Le financement de 50 M$ a été conduit par Menlo Ventures et soutenu par Mayfield, Innovation Endeavors, Nvidia’s NVentures, Microsoft M12, Snowflake Ventures et Databricks Investment. Des apports additionnels proviennent d’angel investors reconnus, dont Andrew Ng et Andrej Karpathy. Inception s’appuie sur les recherches de Stefano Ermon sur les modèles par diffusion pour étendre cette famille d’architectures, déjà largement utilisée pour la génération d’images, au texte et au code.
Diffusion versus auto‑régression : quelle différence technique ?
Les modèles auto‑régresseurs, qui dominent aujourd’hui les services textuels, génèrent la sortie de manière séquentielle : le modèle prédit un token après l’autre en s’appuyant sur le contexte précédemment généré. Les modèles par diffusion empruntent une autre logique, inspirée des systèmes de génération d’images : ils construisent la sortie par raffinements itératifs d’une proposition globale, en corrigeant progressivement une distribution jusqu’à obtenir le résultat final.
Cette architecture autoriserait davantage de parallélisme, puisqu’elle ne dépend pas d’une stricte succession d’étapes pour chaque token. Inception met en avant plusieurs avantages potentiels de l’approche par diffusion pour les tâches textuelles et de code :
- parallélisme accru et meilleure utilisation du matériel ;
- latence réduite sur des opérations complexes, du fait d’exécutions simultanées ;
- coût de calcul inférieur sur des tâches volumineuses, selon l’entreprise ;
- adaptation théorique aux traitements sur de larges bases de code, où des opérations globales sont nécessaires.
Mercury et premières intégrations
Parallèlement à la levée, Inception a publié une nouvelle version de Mercury, un modèle orienté vers le développement logiciel. Mercury a déjà été intégré dans plusieurs outils et plateformes de développement cités par la société, notamment ProxyAI, Buildglare et Kilo Code. Ces premières intégrations traduisent une volonté d’adopter l’approche par diffusion dans des chaînes d’outils pratiques pour les développeurs.
Stefano Ermon affirme que cette approche est « beaucoup plus rapide et beaucoup plus efficace », et indique que les modèles d’Inception ont été « benchmarkés à plus de 1 000 tokens par seconde », ce qui représenterait un débit supérieur à celui des architectures auto‑régresseures actuelles, selon lui.
Enjeux marché et perspectives
Le positionnement d’Inception vise à concurrencer la hiérarchie actuelle des grands modèles en misant sur la performance et le coût, particulièrement pour le traitement de larges bases de code ou pour des usages nécessitant un fort parallélisme. Les soutiens d’investisseurs cloud et hardware suggèrent aussi une mise en place d’un écosystème technique pour déployer ces modèles à grande échelle.
Toutefois, le succès commercial et technique de cette approche dépendra de tests comparatifs plus larges, de l’efficience réelle sur des tâches variées et de l’intégration dans des pipelines de développement existants. Le marché surveillera notamment les gains effectifs en latence, coûts d’exécution et qualité des réponses sur des scénarios concrets.
Ce qui reste à confirmer
Plusieurs points présentés par Inception relèvent aujourd’hui de déclarations internes ou de premiers résultats :
- le débit revendiqué de plus de 1 000 tokens/s provient des benchmarks d’Inception ; la généralisation de cette performance à d’autres jeux de données et matériels reste à confirmer ;
- la supériorité en coût et latence par rapport aux modèles auto‑régresseurs doit être vérifiée dans des comparaisons indépendantes couvrant des tâches variées ;
- la capacité à remplacer ou à rivaliser durablement avec les grandes architectures textuelles dépendra de la robustesse, de la qualité des sorties et de l’acceptation par les éditeurs d’outils et les développeurs.
À retenir
- Inception a levé 50 M$ en seed pour développer des modèles par diffusion appliqués au texte et au code.
- L’approche par diffusion promet parallélisme, latence réduite et coûts moindres sur des tâches volumineuses, selon l’équipe.
- La nouvelle version du modèle Mercury est déjà intégrée à plusieurs outils de développement.
- Les revendications de performance (notamment >1 000 tokens/s) restent à valider de manière indépendante.
- Le marché observera si cette voie peut concurrencer durablement les modèles auto‑régresseurs dominants.