DeepSeek
par High-Flyer / DeepSeek AI — Fondé en 2023 à Hangzhou, Chine
Le LLM qui a bouleversé le marché mondial de l'IA en janvier 2025. En lançant DeepSeek-R1 — un modèle rivalisant avec GPT-4o entraîné pour seulement 6 millions de dollars — DeepSeek a fait chuter Nvidia de 17 % en bourse en une journée et forcé toute l'industrie à revoir ses modèles économiques. En mars 2026, DeepSeek V4 est imminente et le modèle reste gratuit et open source.
L'histoire de DeepSeek
Du hedge fund chinois au modèle qui a mis à genoux Wall Street : l'ascension la plus rapide de l'histoire de l'IA.
Fondation & premières versions
DeepSeek est fondé en 2023 par Liang Wenfeng, cofondateur du hedge fund High-Flyer à Hangzhou. La mission : développer des LLMs open source compétitifs à une fraction du coût des laboratoires américains. DeepSeek-Coder et DeepSeek-Chat (67B params.) sont les premiers modèles publiés, ciblant les développeurs chinois.
DeepSeek-V3 : l'onde de choc annoncée
DeepSeek publie V3 en décembre 2024 : un modèle MoE de 671 milliards de paramètres (37B actifs par token), entraîné pour seulement 5,5 millions de dollars — soit environ 1/18 du coût de GPT-4. V3 rivalise avec GPT-4o sur les benchmarks de raisonnement et de code, et est publié en open source. La communauté internationale commence à s'y intéresser.
DeepSeek-R1 : le « Spoutnik de l'IA »
Le 20 janvier 2025, DeepSeek lance R1 en open source. Ce modèle de raisonnement — entraîné via apprentissage par renforcement — rivalise avec OpenAI o1 sur les benchmarks de maths (AIME 2024 : 79,8 %), de code et de science, pour un coût d'entraînement de 6 millions de dollars. Réaction immédiate : Nvidia chute de 17 % en bourse (−600 Md$ de capitalisation) en une journée. R1 devient #1 de l'App Store dans 156 pays. Le terme « Spoutnik de l'IA» est coined par la presse américaine.
Montée en puissance mondiale
DeepSeek passe de 33,7 millions d'utilisateurs actifs mensuels en janvier 2025 à 96,88 millions en avril 2025 (Backlinko), puis 130 millions fin 2025 (Business of Apps). Son dépôt GitHub dépasse 170 000 étoiles — le projet IA le plus étoilé de 2025. DeepSeek publie successivement V3 0324, V3.1, V3.1 Terminus et V3.2, avec des téléchargements totaux dépassant 173 millions. Plus de 26 000 comptes entreprises intègrent l'API. Le trafic quotidien passe de 7 475 visiteurs/jour en août 2024 à 22,15 millions/jour en 2025.
DeepSeek V3.2 : le modèle unifié
Décembre 2025 : V3.2 est publié, unifiant les capacités chat et raisonnement dans un seul modèle. Tarif API : 0,28 $/M tokens en entrée, 0,42 $/M en sortie — toujours parmi les moins chers du marché. La réduction sur cache atteint 90 % (0,028 $/M). DeepSeek-Coder V2 atteint 85,6 % sur HumanEval, record open source pour un modèle de code.
DeepSeek V4 : le prochain saut open source
Une « V4 Lite» est apparue sur le site de DeepSeek le 9 mars 2026 (NxCode). V4 serait un modèle MoE d'environ 1 trillion de paramètres (37B actifs), avec une fenêtre de contexte de 1 million de tokens, des capacités multimodales natives et une nouvelle architecture mémoire (Engram). Les benchmarks leaked évoquent 90 % sur HumanEval et 80 %+ sur SWE-bench — des chiffres à confirmer par des évaluations indépendantes. Prix API estimé : 0,30 $/M tokens en entrée. Publication prévue sous licence Apache 2.0. Source : NxCode (mars 2026).
Capacités & benchmarks
DeepSeek-R1 rivalise avec les meilleurs LLMs propriétaires sur le raisonnement et les mathématiques — avec des poids open source disponibles gratuitement et un coût API jusqu'à 95 % inférieur à GPT-4.
Raisonnement & mathématiques
DeepSeek-R1 atteint 79,8 % sur AIME 2024 (vs 79,2 % pour OpenAI o1-1217) et 97,3 % sur MATH-500 (vs 96,4 % pour OpenAI). En raisonnement pur, R1 surpasse o1 sur 4 des 7 benchmarks évalués. Source : electroiq.com (2025).
Code
DeepSeek-Coder V2 atteint 85,6 % sur HumanEval — record open source en 2025 (SQ Magazine). DeepSeek-R1 obtient 65,9 % sur LiveCodeBench (vs 63,4 % pour o1-1217). DeepSeek V4 (leaked) : 90 % HumanEval & 80 %+ SWE-bench.
Coût d'entraînement révolutionnaire
DeepSeek-V3 a coûté 5,5 millions de dollars à entraîner — environ 1/18e du coût de GPT-4 (Business of Apps). Cela a forcé tout le marché à revoir ses hypothèses sur les besoins en infrastructure IA.
Architecture MoE ultra-efficace
V3/V4 utilisent une architecture Mixture of Experts : 671 milliards de paramètres totaux, mais seulement 37 milliards activés par token. Cela garantit des performances comparables aux plus grands modèles pour une fraction du coût d'inférence.
Open source & auto-hébergement
Tous les modèles DeepSeek sont publiés sous licence Apache 2.0. Les poids sont téléchargeables gratuitement sur Hugging Face. V4 sera également open source. Des versions distillées (7B, 32B, 70B) permettent un déploiement local sur du matériel grand public.
Adoption & communauté développeurs
Plus de 170 000 étoiles GitHub (projet IA le plus étoilé de 2025), 60 000 contributeurs, 4 millions de clés API générées, 2,4 millions de développeurs MoE actifs. 34 % de nouveaux projets IA citent DeepSeek dans leurs recherches académiques.
Benchmarks clés DeepSeek-R1 vs concurrents (2025)
| Benchmark | Catégorie | DeepSeek-R1 | OpenAI o1-1217 | GPT-4o | Source |
|---|---|---|---|---|---|
| AIME 2024 | Mathématiques | 79,8 % | 79,2 % | ∼ 9,3 % | electroiq.com (2025) |
| MATH-500 | Math. avancées | 97,3 % | 96,4 % | 76,6 % | electroiq.com (2025) |
| HumanEval (Coder V2) | Code Python | 85,6 % | — | 90,2 % | SQ Magazine (2025) |
| LiveCodeBench | Code compétitif | 65,9 % | 63,4 % | — | DemandSage (2025) |
| SWE-bench Verified (R1) | Résolution bugs GitHub | 49,2 % | 48,9 % | — | DemandSage (2025) |
| HumanEval (V4, leaked) | Code Python (non vérifié) | ∼ 90 %* | — | — | NxCode (mars 2026)* |
* Les benchmarks de DeepSeek V4 proviennent de sources non officielles (leaked) et n'ont pas encore été vérifiés de manière indépendante (mars 2026). Sources confirmées : electroiq.com (2025) · SQ Magazine (2025) · DemandSage DeepSeek Statistics (déc. 2025) · NxCode DeepSeek V4 Specs (mars 2026).
Notre avis sur DeepSeek
🎯 Pour quel profil ?
L'API V3.2 à 0,28 $/M tokens et R1 à 0,55 $/M tokens sont 10 à 30 fois moins chères qu'OpenAI ou Anthropic. Pour les projets de recherche, le prototypage ou les applications grand public sans contrainte de confidentialité, c'est imbattable.
DeepSeek offre 5 millions de tokens gratuits à l'inscription (API) et un accès chat.deepseek.com entièrement gratuit. Parfait pour les startups qui ont besoin de performances frontier sans les budgets des grandes entreprises.
97,3 % sur MATH-500 et 79,8 % sur AIME 2024 — DeepSeek-R1 est le meilleur modèle pour les tâches nécessitant un raisonnement mathématique profond, la résolution de problèmes en plusieurs étapes et la planification logique.
Les poids sont librement téléchargeables (Apache 2.0). Les versions distillées (7B, 32B, 70B) permettent un déploiement local qui élimine totalement le risque lié aux serveurs chinois. C'est la solution pour conjuguer performance DeepSeek et souveraineté des données.
La politique de confidentialité de DeepSeek précise que les données utilisateurs sont stockées sur des serveurs en Chine. Plusieurs gouvernements (France, Italie, Australie, États-Unis) ont banni DeepSeek des appareils officiels. À éviter absolument pour les données sensibles.
DeepSeek reste principalement un modèle texte et code. V4 pourrait introduire des capacités multimodales natives, mais elles ne sont pas encore disponibles ni vérifiées en mars 2026. Pour la génération d'images ou de vidéos, ChatGPT ou Gemini restent supérieurs.
“DeepSeek est le choc le plus important de l'industrie IA depuis le lancement de ChatGPT. Prouver qu'un modèle frontier peut être entraîné pour 6 millions de dollars et distribué gratuitement en open source a forcé tous les acteurs à revoir leurs modèles économiques. Pour les développeurs et chercheurs travaillant sur des données non sensibles, c'est aujourd'hui le meilleur rapport qualité/prix du marché. Mais la question de la souveraineté des données est un point de blocage réel pour les entreprises européennes. Notre recommandation : utiliser DeepSeek en auto-hébergement ou sur des données publiques uniquement.”
Combien coûte DeepSeek ?
DeepSeek propose un accès 100 % gratuit via l'interface web et une API parmi les moins chères du marché. Source officielle : api-docs.deepseek.com.
- Accès à DeepSeek-V3 (mode Chat)
- Mode Think (R1) activé à la demande
- Fenêtre de contexte 128K tokens
- Applications iOS & Android gratuites
- Analyse de fichiers (limitée)
- Données sur serveurs en Chine
- Erreurs « server busy» aux heures de pointe
- Modèle : deepseek-chat (V3.2)
- Sortie : 0,42 $/M tokens
- Cache hit : 0,028 $/M (réduction 90 %)
- Contexte : 128K tokens
- 5M tokens gratuits à l'inscription
- Réduction hors-pointe : −50 %
- Sortie max 8K tokens (chat)
- Modèle : deepseek-reasoner (R1)
- Sortie : 2,19 $/M tokens
- Cache hit : 0,14 $/M (réduction 75 %)
- Contexte : 64K tokens (sortie)
- Mode chain-of-thought intégré
- Réduction hors-pointe : −75 %
- Plus lent que V3 (tokens de réflexion)
- Modèle fleuron (mars 2026)
- Sortie : 0,50 $/M tokens
- Contexte : 1 million de tokens (prévu)
- Architecture MoE 1T params. (~37B actifs)
- Multimodal natif (prévu)
- Poids Apache 2.0 (prévu)
- Benchmarks non vérifiés indépendamment
ⓘ Tarifs API vérifiés en mars 2026. Sources : api-docs.deepseek.com · NxCode « DeepSeek API Pricing 2026» (mars 2026) · TLDL.io (mars 2026). Les tarifs V4 sont estimés avant lancement stable. Remises hors-pointe : 16h30–00h30 GMT.
Essayer DeepSeek gratuitement
L'IA open source la plus compétitive du marché. Accès 100 % gratuit via l'interface web — sans abonnement, sans carte bancaire.
Vous voulez intégrer DeepSeek dans votre stack IA en toute sécurité ? Parlons-en avec Digital-m →
Tout savoir sur DeepSeek
Pourquoi DeepSeek a-t-il provoqué un tel choc sur les marchés en janvier 2025 ?
Le lancement de DeepSeek-R1 le 20 janvier 2025 a été un choc économique autant que technique. Le modèle rivalisait avec OpenAI o1 sur les benchmarks de mathématiques et de raisonnement, mais avait été entraîné pour seulement 6 millions de dollars — contre des centaines de millions pour les modèles américains. Ce résultat remettait en question l'hypothèse fondamentale selon laquelle l'IA frontier nécessite des dizaines de milliards de dollars d'infrastructure. La réaction du marché a été immédiate : Nvidia a perdu 17 % de sa valeur en bourse (−600 milliards de dollars de capitalisation) en une seule séance. La presse américaine a surnommé l'événement le « Spoutnik de l'IA». Sources : electroiq.com & blog-nouvelles-technologies.fr (2025).
Quelle est la différence entre DeepSeek-V3, R1 et V4 ?
DeepSeek-V3 (et V3.2) est le modèle généraliste de référence : excellent pour le texte, le code et les tâches quotidiennes. Architecture MoE de 671 milliards de paramètres (37B actifs), fenêtre de 128K tokens, tarif API à 0,28 $/M tokens en entrée. DeepSeek-R1 est le modèle de raisonnement : entraîné via apprentissage par renforcement, il active un mode « chain-of-thought» pour les tâches complexes (maths, débogage, planification logique). Plus lent et plus cher (0,55 $/M tokens), mais plus précis sur les problèmes en plusieurs étapes. DeepSeek-V4 est le prochain grand modèle (attendu début 2026) : ~1 trillion de paramètres, contexte 1M tokens, multimodal natif, toujours en open source. Une « V4 Lite» est apparue le 9 mars 2026. Source : NxCode (mars 2026) & api-docs.deepseek.com.
DeepSeek est-il sûr à utiliser en France et en Europe ?
La réponse dépend de l'utilisation. La politique de confidentialité de DeepSeek précise explicitement que les données des utilisateurs sont stockées sur des serveurs en Chine, soumis aux lois chinoises. Plusieurs gouvernements ont réagi : l'Italie a bloqué DeepSeek dès janvier 2025, la France, l'Australie et les États-Unis ont interdit son utilisation sur les appareils officiels. La CNIL française a ouvert une enquête. Pour les données non sensibles (recherche publique, prototypage, usage personnel), le risque est limité. Pour les données professionnelles, clients ou R&D stratégique, nous recommandons l'auto-hébergement des poids (Apache 2.0) sur infrastructure européenne. Source : blog-nouvelles-technologies.fr (mars 2026) & cropink.com.
DeepSeek est-il réellement gratuit ? Comment accéder à son API ?
L'interface chat.deepseek.com est entièrement gratuite, sans abonnement ni carte bancaire. Elle donne accès à DeepSeek-V3 (mode Chat) et au mode Think (R1) sans limitation de messages affichée. Pour l'API, l'inscription sur platform.deepseek.com crédite automatiquement 5 millions de tokens gratuits valides 30 jours — suffisants pour ~3 500 appels API tests. Après ce quota, la facturation est à l'usage : V3.2 à 0,28 $/M tokens en entrée, R1 à 0,55 $/M tokens. Des remises jusqu'à 75 % s'appliquent pendant les heures creuses (16h30–00h30 GMT). Les poids des modèles sont téléchargeables gratuitement sur Hugging Face pour auto-hébergement. Source : NxCode (mars 2026) & api-docs.deepseek.com.
DeepSeek est-il visible dans les résultats GEO (IA générative) ?
DeepSeek est aujourd'hui un canal GEO secondaire mais émergent. Avec 22,15 millions d'utilisateurs actifs journaliers et 130 millions d'utilisateurs mensuels, son potentiel de visibilité est réel, particulièrement auprès des développeurs et des profils techniques. Cependant, DeepSeek n'intègre pas de navigation web agentique comparable à ChatGPT ou Perplexity, ce qui limite sa capacité à citer des sources externes. En GEO, les priorités restent : (1) ChatGPT (82 % du trafic IA), (2) les AI Overviews Google (Gemini, 2 Md utilisateurs), (3) Perplexity. DeepSeek constitue un quatrième canal à surveiller, principalement en Asie et dans la communauté développeur mondiale. Pour structurer votre visibilité GEO multi-plateformes, contactez Digital-m.
Peut-on héberger DeepSeek soi-même en France ?
Oui, et c'est même la solution recommandée pour les entreprises européennes souhaitant bénéficier des performances DeepSeek sans les risques liés à la localisation des données en Chine. Les poids de tous les modèles DeepSeek sont publiés sous licence Apache 2.0 sur Hugging Face. Les versions distillées sont adaptées à différents niveaux de matériel : 7B (GPU grand public, ex. RTX 4090), 32B (serveur avec 2–4 GPU), 70B (infrastructure cloud). Le modèle complet (685 Go) nécessite une infrastructure serveur conséquente. Des solutions comme Ollama, LM Studio ou vLLM facilitent le déploiement local. En auto-hébergement sur un cloud européen (OVHcloud, Scaleway, Hetzner), les données ne quittent jamais l'Europe.
📋 Sources & références
- NxCode, DeepSeek V4 (2026) : 1T Parameters, 81 % SWE-bench, $0.30/MTok — Full Specs, mars 2026 — nxcode.io
- NxCode, Prix de l'API DeepSeek 2026 : Guide complet, mars 2026 — nxcode.io
- TLDL.io, DeepSeek API Pricing (March 2026) — V3.2 & R1 Reasoner, mars 2026 — tldl.io
- Blog Nouvelles Technologies, DeepSeek : l'IA open source qui défie ChatGPT — Guide 2026, mars 2026 — blog-nouvelles-technologies.fr
- Business of Apps, DeepSeek Revenue and Usage Statistics 2026, 2026 — businessofapps.com
- Backlinko, DeepSeek AI Usage Stats for 2026, janvier 2026 — backlinko.com
- Demand Sage, DeepSeek AI Statistics 2026, décembre 2025 — demandsage.com
- SQ Magazine, DeepSeek AI Statistics 2026 : Users, Benchmarks, 2025 — sqmagazine.co.uk
- Electroiq, DeepSeek AI Statistics By Users Demographics, 2025 — electroiq.com
- Thunderbit, 60 Latest DeepSeek Statistics (2026), février 2026 — thunderbit.com
- DeepSeek, Models & Pricing — API Docs officiels, mars 2026 — api-docs.deepseek.com
Page rédigée et mise à jour par Louis-Marie Mouton — Digital-m, agence SEO & GEO à Nancy. Dernière mise à jour : mars 2026.