DeepSeek a publié silencieusement R2 un jeudi soir. Le lendemain matin, les équipes d'OpenAI et Google étaient déjà en réunion de crise. Voici pourquoi.
Les chiffres qui dérangent
R2 dépasse GPT-4o sur MMLU, HumanEval et plusieurs benchmarks de raisonnement. Son coût d'inférence est estimé à 0,14 USD pour un million de tokens — contre 1,50 USD pour GPT-4o. Ce n'est pas une amélioration marginale : c'est un ordre de grandeur.
DeepSeek y arrive grâce à une architecture MoE (Mixture of Experts) agressive et à des optimisations bas-niveau sur les GPU Huawei Ascend 910B — des puces que les États-Unis ont tenté de rendre inaccessibles via leurs contrôles à l'export.
L'ironie des sanctions
Les restrictions américaines sur les H100 ont eu un effet paradoxal : elles ont forcé les ingénieurs chinois à optimiser plutôt qu'à acheter. La contrainte hardware a généré une innovation algorithmique.
C'est un pattern historique bien documenté — les sanctions économiques accélèrent parfois le développement autonome qu'elles cherchaient à empêcher.
Ce qui vient
DeepSeek prépare une version multimodale. Si la trajectoire performance/coût se maintient, les entreprises mondiales auront bientôt un choix difficile : performances américaines au prix américain, ou performances chinoises comparables à un coût radicalement inférieur.