Selon le suivi de 1M AI News, l’équipe d’Ali Baba Tongyi Qianwen a annoncé un partenariat avec la plateforme d’infrastructure d’inférence Fireworks AI. Le modèle phare Qwen3.6-Plus sera intégré à la plateforme Fireworks AI, offrant des services d’inférence et d’affinage, et s’adressant aux développeurs américains ainsi qu’aux développeurs du monde entier.
Qwen3.6-Plus est le modèle grand phare récemment publié par Tongyi Qianwen. Il met l’accent sur les capacités de programmation d’Agent, prend en charge une fenêtre de contexte allant jusqu’à 1 million de tokens et une sortie maximale de 65 536 tokens, et utilise une architecture d’inférence chaînée intégrée, avec un support natif des appels de fonction. Fireworks AI a été fondée par d’anciens membres de l’équipe PyTorch de Meta, et se concentre sur les services d’inférence pour modèles à hautes performances. Tongyi Qianwen affirme que ce partenariat permettra d’exploiter la pile technologique d’inférence optimisée de Fireworks AI pour fournir à Qwen3.6-Plus des services d’inférence à hautes performances et à faible coût. Les détails concernant la date de mise en ligne et la tarification n’ont pas encore été communiqués.