🌎 Fiche LLM — Mise à jour mars 2026

Qwen

par Alibaba Cloud (Tongyi Lab) — Chine

Le champion open source chinois de l'IA. Qwen (通义千问) est la famille de modèles d'Alibaba Cloud : #1 mondial des téléchargements open source sur Hugging Face avec plus d'1 milliard de téléchargements cumulés. En février 2026, Qwen3.5 a été lancé avec le support de 201 langues, une architecture multi-modale native et des capacités agentiques. L'app Qwen dépasse 300 millions d'utilisateurs actifs mensuels sur toutes les plateformes.

1 Md+ téléchargements Hugging Face (jan. 2026)
300 M+ utilisateurs actifs mensuels (Q1 2026)
201 langues supportées (Qwen3.5)
90 000+ entreprises déploiement Alibaba Cloud
📖 Open source Apache 2.0 🌎 201 langues & dialectes 📹 Multimodal natif (texte, image, audio) 🧠 Mode Think intégré 💻 Code (Qwen3-Coder) 🔌 Auto-hébergement (0,8B à 397B) 📱 App Qwen (iOS, Android, Web)

L'histoire de Qwen

Comment Alibaba est passé du géant e-commerce au leader mondial des téléchargements de modèles IA open source.

2023

Premières versions — DAMO Academy

Alibaba publie ses premiers modèles Qwen en open source, d'abord sous le nom Tongyi Qianwen (通义千问, « Mille questions» en français). La recherche est menée par la DAMO Academy d'Alibaba, l'un des plus grands laboratoires de recherche IA d'Asie. Les premiers modèles (7B, 14B) sont publiés sur Hugging Face, attirant rapidement une communauté de développeurs asiatiques.

2024

Qwen2 & explosion Hugging Face

La famille Qwen2 consolide la position d'Alibaba : modèles allant de 0,5B à 72B paramètres, support multilingue étendu, architecture MoE. Qwen2.5-Max (décembre 2024) devient le modèle phare avec 236 milliards de paramètres totaux et 57B actifs par requête. Les téléchargements sur Hugging Face décollent : Qwen dépasse Meta Llama comme famille la plus téléchargée. Plus de 200 000 applications intègrent des modèles Qwen en Asie.

Avr. 2025
🆕 Record de croissance

Qwen3 & 700 millions de téléchargements

Lancé en avril 2025, Qwen3 est entraîné sur 2× plus de données que la génération précédente. Il introduit le mode Think configurable (réponse rapide OU raisonnement profond dans le même modèle). Qwen3-235B-A22B devient compétitif avec DeepSeek-R1, GPT-o1 et Gemini 2.5 Pro sur les benchmarks de raisonnement et de code. Alibaba Cloud dépasse 700 millions de téléchargements sur Hugging Face. Qwen3-Coder (480B params, Arena score 1382) est salué comme « modèle de l'année» en code open source.

Nov. 2025
🆕 App mondiale

App Qwen : +149 % MAU en un mois

Lancement de l'app Qwen grand public en novembre 2025. Résultat : 18,34 millions d'utilisateurs actifs en 2 semaines, croissance de +149 % en novembre — record mondial de croissance mensuelle pour une app IA (South China Morning Post, décembre 2025). L'app passe 30 millions d'utilisateurs en 23 jours. Alibaba unifie toutes ses IA sous la marque Qwen, abandonnant les noms multiples précédents.

Jan. 2026

1 milliard de téléchargements & Qwen3.5

Le 21 janvier 2026, la famille Qwen dépasse 1 milliard de téléchargements cumulés sur Hugging Face — #1 mondial toutes familles de modèles confondues (Alibaba earnings Q4 2025). En février 2026, Alibaba lance Qwen3.5 : architecture multimodale native unifiée (texte + images comme un seul flux), support de 201 langues, fenêtre de contexte de 262 144 tokens et RL avancé pour les agents. Disponible sur Microsoft Azure en mars 2026. Alibaba intègre Qwen dans Taobao, Tmall, Alipay et Amap.

Mars 2026
🆕 Chiffres Q4 2025

300 M+ MAU & 53 Md$ investis

Les résultats Q4 2025 d'Alibaba (publiés le 18 mars 2026) révèlent que l'app Qwen a dépassé 300 millions d'utilisateurs actifs mensuels toutes plateformes confondues. 140 millions d'utilisateurs ont vécu leur première expérience d'achat pilotée par IA via Qwen lors du Nouvel An chinois 2026. Alibaba engage 380 milliards de RMB (~53 milliards de dollars) sur 3 ans en IA et cloud. Des investissements supplémentaires prévus pour doubler ceux de 2025 en 2026. Sources : CIW News & Asia Business Outlook (mars 2026).

Capacités & benchmarks

Qwen est la famille de modèles la plus téléchargée au monde. Son écosystème couvre des modèles de 0,8 milliard à 397 milliards de paramètres, avec multimodalité native, 201 langues et des prix API parmi les plus bas du marché.

#1 open source mondial (Hugging Face)

Plus de 1 milliard de téléchargements cumulés sur Hugging Face au 21 janvier 2026 — #1 toutes familles confondues, devant Meta Llama, DeepSeek et Mistral. En décembre 2025, les téléchargements mensuels de Qwen dépassaient la somme cumulée des 8 familles suivantes. Source : Alibaba Q4 2025 / tenet.com.

201 langues & dialectes

Qwen3.5 supporte 201 langues et dialectes — le plus large éventail linguistique de toute famille de LLMs en 2026. Qwen3 en couvrait déjà 119. Performances particulièrement fortes en chinois, arabe, russe et langues asiatiques. Russie : ~30 % du trafic Qwen. Source : Hugging Face / mysummit.school (mars 2026).

Mode Think configurable

Innovation clé de Qwen3/3.5 : le dial de raisonnement configurable permet de choisir entre réponse instantanée et réflexion profonde (chain-of-thought) sur le même modèle, sans changer d'écosystème. Qwen3-235B-A22B atteint 85,7 % sur AIME 2024 et 81,5 % sur AIME 2025. Source : tenet.com / wearetenet (jan. 2026).

Code (Qwen3-Coder)

Qwen3-Coder (480B params.) est classé avec un score Arena de 1382 — compétitif avec les meilleurs modèles propriétaires. Qwen3-235B-A22B atteint 2 056 sur CodeForces. Disponible sous Apache 2.0. Source : index.dev / wearetenet (2026).

Multimodal natif (Qwen3.5)

Qwen3.5 intègre texte et images comme un flux unifié (« early fusion»), contrairement aux approches pipeline de la plupart des concurrents. Un seul prompt peut référencer simultanément un document téléchargé, une capture d'écran et un contexte texte. Qwen3.5-Omni couvre également l'audio et la synthèse vocale.

Prix API ultra-compétitifs

Qwen-Turbo : 0,05 $/M tokens en entrée — l'un des moins chers du marché. Qwen-Plus : 0,40 $/M. Qwen-Max : 1,60 $/M. Fenêtre de contexte de 1 million de tokens pour Qwen-Turbo. Qwen3.5-Plus (OpenRouter) : 0,26 $/M tokens in., 1,56 $/M out. Sources : electroiq.com / OpenRouter (2026).

Benchmarks Qwen3 & gamme de modèles (2025–2026)

Modèle Params. actifs AIME 2025 (maths) CodeForces (code) Contexte Licence
Qwen3.5-397B-A17B (Plus) 17B / 397B total 1M tokens Apache 2.0
Qwen3-235B-A22B 22B / 235B total 81,5 % 2 056 128K tokens Apache 2.0
Qwen3-Coder (480B) Arena 1382 Apache 2.0
Qwen3.5-27B 27B (dense) 262K tokens Apache 2.0
Qwen3.5-35B-A3B (Flash) 3B / 35B total 1M tokens Apache 2.0
Qwen3.5-0,8B (Edge) 0,8B 262K tokens Apache 2.0

Sources : Hugging Face Qwen3.5 Model Cards (fév.–mars 2026) · tenet.com « 40+ Qwen AI Statistics» (jan. 2026) · OpenRouter Qwen3.5-Plus (mars 2026) · electroiq.com « Qwen AI Statistics 2026» (mars 2026) · index.dev « Global AI Model Race» (jan. 2026). Fenêtre 1M tokens via DashScope (Qwen-Turbo & Qwen3.5-Plus).

Notre avis sur Qwen

7,6 /10
Open source & écosystème
9,9/10
Rapport coût / performance
9,5/10
Multilinguisme
9,8/10
Confiance & confidentialité
3,5/10
Interface grand public
7,2/10

🎯 Pour quel profil ?

Développeurs avec gros volumes API

Qwen-Turbo à 0,05 $/M tokens en entrée est l'une des APIs les moins chères du marché frontier, avec une fenêtre de 1 million de tokens. Pour des charges de travail à très grand volume sur des tâches générales, Qwen offre un rapport coût/performance imbattable.

Applications multilingues (hors UE)

Avec 201 langues et dialects supportés et des performances exceptionnelles en chinois, arabe, russe, hindi et langues asiatiques, Qwen est le choix #1 pour des applications mondiales nécessitant un vrai support linguistique non-occidental. Aucun LLM occidental n'offre cette profondeur.

Auto-hébergement sur matériel limite

Qwen3.5-0,8B tourne sur un laptop grand public (4 Go RAM), Qwen3-4B sur un GPU d'entrée de gamme. Apache 2.0, compatible vLLM, SGLang, KTransformers et llama.cpp. Pour les entreprises souhaitant un LLM performant en local sans GPU haut de gamme, Qwen est la solution.

Startups à fort volume en Asie

Plus de 90 000 entreprises utilisent Qwen via Alibaba Cloud Model Studio. Plus de 200 000 applications intègrent des modèles Qwen. L'intégration native avec l'infrastructure Alibaba (Taobao, Alipay, DingTalk) crée un écosystème unique pour les acteurs du marché asiatique.

Entreprises soumises au RGPD (API cloud)

Comme DeepSeek, les données de l'API Qwen cloud (DashScope) transitent par des serveurs en Chine. La politique de confidentialité est soumise aux lois chinoises. Pour les données sensibles ou RGPD-critiques, l'auto-hébergement reste la seule solution acceptable — techniquement possible mais nécessitant une infrastructure.

Notoriété grand public hors Asie

Qwen reste très peu connu du grand public européen et américain. Sa forte présence en Irak (27,5 % du trafic), Brésil (19 %) et Turquie (12 %) montre des usages concentrés hors marchés occidentaux traditionnels. L'app Qwen n'est pas disponible dans tous les pays européens.

“Qwen est le grand inconnu européen de l'IA : le LLM le plus téléchargé au monde, suivi par des centaines de millions d'utilisateurs, mais quasi invisible dans le paysage français. Pour les développeurs travaillant sur des applications à fort volume, multilingues ou nécessitant un auto-hébergement sur matériel limité, Qwen est une solution à étudier sérieusement. La même mise en garde que pour DeepSeek s'applique : en auto-hébergement sur infrastructure européenne, tous les risques liés à la localisation des données disparaissent. En GEO, Qwen est aujourd'hui un canal négligeable pour l'Europe — mais sa croissance fulgurante en fait un acteur à surveiller pour les marques ciblant les marchés asiatiques.”

— Équipe Digital-m, agence SEO & GEO à Nancy — mars 2026

Combien coûte Qwen ?

L'app Qwen est gratuite pour les utilisateurs finaux. L'API (DashScope) affiche certains des prix les plus bas du marché. Les modèles open source sont téléchargeables gratuitement. Source : qwen.ai & DashScope (mars 2026).

API Qwen-Turbo
0,05 $ /M tokens entrée
  • Sortie : 0,20 $/M tokens
  • Fenêtre contexte : 1 million de tokens
  • Ultra-rapide, optimisé volume
  • 1M tokens gratuits (90 jours, Int.)
  • Compatible API OpenAI
  • Performances moindres que Max
  • DashScope (serveurs Alibaba Cloud)
Accéder à l'API
API Qwen-Plus
0,40 $ /M tokens entrée
  • Sortie : 1,20 $/M tokens
  • Fenêtre contexte : 131 072 tokens
  • Performances élevées (taches complexes)
  • Vision multimodale
  • 1M tokens gratuits à l'inscription
  • Compatible API OpenAI
  • DashScope (serveurs Alibaba Cloud)
Accéder à l'API
Open Source (auto-hébergement)
0 € (modèles gratuits)
  • Tous les modèles sous Apache 2.0
  • De 0,8B (laptop) à 397B (serveur)
  • Compatible vLLM, SGLang, llama.cpp
  • Données 100 % en local
  • Hugging Face & ModelScope
  • 100 000+ modèles dérivés disponibles
  • Infrastructure à votre charge
Télécharger sur Hugging Face
Qwen3.5-Plus via OpenRouter (mars 2026)
0,26 $ /M tokens in. · 1,56 $/M out.

Fenêtre de 1 million de tokens. Architecture MoE hybride (397B params. / 17B actifs). Prise en charge de la vision multimodale. Mode Think activable. Disponible via plusieurs fournisseurs tiers (OpenRouter, Azure). Source : OpenRouter (fév.–mars 2026).

Alibaba Cloud Model Studio (Enterprises)
Sur devis

Plus de 90 000 entreprises déploient Qwen via Alibaba Cloud Model Studio avec SLA garanti, fine-tuning personnalisé, et intégration DingTalk / Alibaba stack. Intégration en écosystème Taobao, Tmall, Alipay pour les acteurs du e-commerce asiatique. Des options de déploiement sur Azure existent également (depuis mars 2026).

ⓘ  Tarifs API DashScope en USD, vérifiés mars 2026. Sources : electroiq.com « Qwen AI Statistics 2026» · OpenRouter Qwen3.5-Plus (mars 2026) · WaveSpeed AI « Qwen3.5-Omni API Pricing» (mars 2026) · mysummit.school « Qwen Alibaba review 2026». Le quota gratuit (1M tokens, 90 jours) s'applique au endpoint Singapore (International) — pas au endpoint US Virginia. Tarifs susceptibles d'évoluer.

Essayer Qwen gratuitement

Le LLM open source le plus téléchargé au monde. App 100 % gratuite, sans abonnement ni carte bancaire. Modèles disponibles gratuitement sur Hugging Face pour l'auto-hébergement.

Vous évaluez Qwen pour une intégration en production européenne ? Parlons-en avec Digital-m

Tout savoir sur Qwen

Qu'est-ce que Qwen et qui est derrière ce LLM ?

Qwen (prononcé « tchouene») est l'abréviation de Tongyi Qianwen (通义千问, « Mille questions»), la famille de modèles IA d'Alibaba Cloud développée par le Tongyi Lab (anciennement DAMO Academy). Alibaba est le plus grand groupe e-commerce et cloud de Chine, équivalent d'un Amazon + Google chinois. En 2026, Alibaba investit 53 milliards de dollars sur 3 ans dans l'IA et le cloud. Qwen couvre des modèles allant de 0,8 milliard à 397 milliards de paramètres, sous licence Apache 2.0, distribués gratuitement sur Hugging Face et ModelScope. La famille Qwen est aujourd'hui la plus téléchargée au monde sur Hugging Face, dépassant Meta Llama, DeepSeek et Mistral. Sources : Alibaba Q4 2025 earnings, CIW News (mars 2026).

Qwen est-il vraiment gratuit ? Comment y accéder en France ?

Oui, à plusieurs niveaux. L'app Qwen (qwen.ai, iOS, Android) est entièrement gratuite, sans abonnement ni limite de messages affichée. Elle donne accès à Qwen3.5 (chat, mode Think, Deep Research, génération d'images, slides). Les modèles open source sont téléchargeables gratuitement sur Hugging Face sous licence Apache 2.0 — des modèles de 0,8B (équivalent GPT-3.5 sur laptop) à 397B. L'API DashScope offre 1 million de tokens gratuits à l'inscription (valables 90 jours, endpoint Singapore). Après ce quota : Qwen-Turbo à 0,05 $/M tokens — parmi les moins chers du marché. En France, l'app est accessible via qwen.ai et sur les stores mobiles. La disponibilité peut varier. Sources : electroiq.com / WaveSpeed AI (mars 2026).

Qwen est-il sûr à utiliser pour une entreprise européenne ?

La réponse dépend de la façon dont vous l'utilisez. Via l'API DashScope, les données transitent par des serveurs Alibaba Cloud basés principalement en Chine (Hangzhou, Singapour), soumis aux lois chinoises. Cela soulève les mêmes préoccupations RGPD que DeepSeek. Pour les données sensibles d'une entreprise européenne, l'API cloud est déconseillée. En revanche, l'auto-hébergement des modèles sur infrastructure européenne (OVHcloud, Scaleway, Hetzner) rèsout totalement ce problème : les données ne quittent jamais votre périmètre. Les versions distillées (4B, 9B) tournent sur des GPU accessibles. Depuis mars 2026, Qwen3.5 est également disponible sur Microsoft Azure, avec des garanties de localisation des données européennes disponibles selon la configuration. Sources : mysummit.school / HuggingFace (mars 2026).

Quelle est la différence entre Qwen3 et Qwen3.5 ?

Qwen3 (avril 2025) est la famille de modèles de texte et raisonnement : entraîné sur 2× plus de données que Qwen2.5, il introduit le mode Think configurable et couvre 119 langues. Le fleuron Qwen3-235B-A22B rivalise avec GPT-o1 et Gemini 2.5 Pro sur les benchmarks de raisonnement (81,5 % AIME 2025). Qwen3.5 (février 2026) représente un saut architectural majeur : la multimodalité est désormais native et unifiée (texte + images en un seul flux, pas deux modèles séparés), le support linguistique passe à 201 langues, et les capacités agentiques sont renforcées par un RL à grande échelle. La fenêtre de contexte atteint 262 144 tokens (et 1M tokens pour les variantes Flash/Plus hébergées). Sources : Hugging Face Qwen3.5 (fév. 2026) / mysummit.school (mars 2026).

Peut-on faire tourner Qwen sur son propre ordinateur ?

Oui, et c'est l'un des points forts de Qwen. La gamme s'échelonne très finement selon les ressources disponibles. Qwen3.5-0,8B : tourne sur un laptop ordinaire avec 4 Go de RAM, idéal pour le prototypage local. Qwen3-4B : qualité proche de GPT-3.5 sur GPU d'entrée de gamme (RTX 3060 ou équivalent). Qwen3.5-9B / 27B : GPU gaming (RTX 4090) ou serveur économique. Qwen3-235B / 397B : infrastructure serveur multi-GPU nécessaire. Tous les modèles sont compatibles avec vLLM, SGLang, KTransformers et llama.cpp (GGUF). Apache 2.0 garanti : usage commercial libre, sans royalties. Pour les entreprises ne pouvant pas envoyer de données à des serveurs extérieurs (finance, santé, secteur public), c'est la solution. Sources : Hugging Face & mysummit.school (mars 2026).

Qwen est-il visible dans les résultats GEO (IA générative) ?

Pour l'audience européenne et française, Qwen est aujourd'hui un canal GEO quasi inexistant : l'app est peu connue, le moteur de recherche intégré est limité, et la navigation web en temps réel avec citations n'est pas la fonctionnalité centrale. En revanche, pour les marchés asiatiques, arabe (Irak : 27,5 % du trafic) et latino-américains (Brésil : 19 %), Qwen représente un canal de visibilité croissant. Pour une marque ciblant ces régions, optimiser pour Qwen (autoriser QwenBot dans robots.txt, contenus en arabe/portugais/russe structurés avec schema.org) peut générer de la visibilité auprès d'une audience significative. Pour les marques françaises, la priorité reste ChatGPT, Gemini, Perplexity, Claude et Mistral. Digital-m accompagne ses clients sur l'intégralité du spectre GEO via son offre Agence GEO.

L'auteur de la page

Louis-Marie Mouton

Fondateur de Digital-m · Expert SEO & GEO · Nancy
GEO / LLM SEO Technique WordPress · Prestashop Formateur agréé

Passionné du web depuis plus de 25 ans, Louis-Marie Mouton est le fondateur de Digital-m, agence spécialisée en SEO, création de sites WordPress et stratégie digitale basée à Nancy. En 2026, il crée Horizon GEO — premier blog francophone entièrement consacré au GEO et à l'optimisation pour les intelligences artificielles. Formateur certifié Qualiopi en SEO, WordPress et IA, il accompagne PME, artisans et équipes marketing dans leur adaptation à la révolution des moteurs génératifs.

📋 Sources & références

  1. CIW News, Alibaba, Tencent, Baidu Q4 earnings : Qwen surpasses 300M MAU, mars 2026 — ciw.news
  2. Asia Business Outlook, Alibaba Unifies AI Under Qwen : Major Growth & Consumer Push, mars 2026 — asiabusinessoutlook.com
  3. Hugging Face, Qwen3.5 Model Cards (397B-A17B, 35B-A3B, 27B, 9B, 4B, 0.8B), février 2026 — huggingface.co/Qwen
  4. tenet.com (wearetenet), 40+ Qwen AI Statistics 2026, janvier 2026 — wearetenet.com
  5. Electroiq, Qwen AI Statistics 2026 : Features, Models, Users, mars 2026 — electroiq.com
  6. South China Morning Post / Yahoo Finance, Alibaba's Qwen app becomes world's fastest growing AI app, décembre 2025 — finance.yahoo.com
  7. Mysummit.school, Qwen by Alibaba in 2026 : Free Open-Source AI for Business, mars 2026 — mysummit.school
  8. AWISEE, Alibaba's AI App : Qwen App Statistics & Users In 2025, décembre 2025 — awisee.com
  9. Second Talent, Alibaba's Qwen 2.5-Max : Key Features & Statistics, mars 2026 — secondtalent.com
  10. Index.dev, Global AI Model Race : Who Leads — US, China, or Europe ?, janvier 2026 — index.dev
  11. OpenRouter, Qwen3.5-Plus 2026-02-15 — API Pricing & Providers, février 2026 — openrouter.ai
  12. WaveSpeed AI, Qwen3.5-Omni API Pricing, Limits & Deployment Options 2026, mars 2026 — wavespeed.ai

Page rédigée et mise à jour par Louis-Marie MoutonDigital-m, agence SEO & GEO à Nancy. Dernière mise à jour : mars 2026.

Glossaire GEO Nous contacter