Qu’est-ce que DeepSeek et pourquoi Nvidia est-elle en difficulté ?
D’après une observation intéressante de Morgan Brown, vice-président en charge du développement de produits chez Instagram, Dropbox et Shopify.
1/ Contexte : un entraînement d’IA très (trop) coûteux
Actuellement, former les modèles d’IA les plus avancés coûte des sommes astronomiques. OpenAI, Anthropic et d’autres dépensent plus de 100 millions de dollars uniquement en ressources de calcul. Ils ont besoin d’immenses data centers remplis de milliers de GPU valant chacun 40 000 dollars. C’est un peu comme si chaque usine devait posséder sa propre centrale électrique pour fonctionner.
2/ L’arrivée de DeepSeek
C’est alors que DeepSeek débarque en déclarant : « Et si on faisait tout ça pour seulement 5 millions de dollars ? »
Non seulement ils l’ont dit, mais ils l’ont fait. Leurs modèles d’IA égalent, voire surpassent, GPT-4 et Claude dans de nombreuses tâches.
Résultat : le monde de l’IA verse quelques larmes dans son tiramisu.
3/ Comment ont-ils fait ?
DeepSeek a tout repensé depuis le début. L’IA traditionnelle fonctionne un peu comme si l’on écrivait chaque nombre avec 32 décimales. DeepSeek s’est demandé : « Et si on se contentait de 8 décimales ? Ça suffirait ! »
Boum : 75 % de mémoire économisée.
4/ Leur système « multi-tokens »
L’IA classique lit mot à mot (« Le… chat… dort… sur… ») comme un élève de CP. DeepSeek, elle, lit des segments entiers à la fois. Ça va deux fois plus vite, avec une précision de 90 %. Lorsqu’on traite des milliards de mots, ça change tout.
5/ Le plus impressionnant : l’« expert system »
Au lieu d’avoir un seul et gigantesque modèle qui essaie de tout connaître (comme si une même personne était à la fois médecin, juriste et ingénieur), DeepSeek mise sur des experts spécialisés qui ne s’activent que lorsqu’on a besoin d’eux.
6/ Comparaison avec les modèles traditionnels
Les modèles classiques maintiennent 1,8 trillion de paramètres actifs en permanence.
DeepSeek en totalise 671 milliards… mais seulement 37 milliards fonctionnent simultanément.
Imaginez une énorme équipe, mais on ne fait appel qu’aux spécialistes requis pour chaque tâche.
7/ Des résultats bluffants
- Coût d’entraînement : de 100 millions de dollars à 5 millions
- Nombre de GPU nécessaires : de 100 000 à 2 000
- Coût de l’API : réduit de 95 %
- Fonctionne sur des GPU de jeu (gaming) plutôt que sur du matériel serveur hors de prix
8/ Pas de tour de magie : du code open source
Tout cela n’a rien de secret. Le code est libre et chacun peut vérifier leur travail. Leurs documents techniques détaillent la moindre étape. Il ne s’agit pas de magie, juste d’une ingénierie incroyablement astucieuse.
9/ Pourquoi est-ce si important ?
Parce que cela fait exploser le modèle « Seules les grandes entreprises tech peuvent se permettre l’IA ». Désormais, plus besoin d’un data center à un milliard de dollars. Quelques bons GPU peuvent suffire.
10/ Pourquoi Nvidia tremble
Toute la stratégie commerciale de Nvidia repose sur la vente de GPU extrêmement coûteux, avec d’énormes marges (jusqu’à 90 %). Si, soudainement, tout le monde peut faire tourner de l’IA sur des GPU grand public…
11/ 200 personnes seulement
DeepSeek a réalisé cet exploit avec moins de 200 employés. Pendant ce temps, chez Meta, certaines équipes ont un budget RH qui dépasse le coût total d’entraînement de DeepSeek… et n’atteignent pas les mêmes performances.
12/ Le « disruption thinking »
C’est l’histoire classique du petit nouveau qui repense le problème depuis ses fondations, pendant que les acteurs en place se contentent d’optimiser un modèle existant. DeepSeek a tout simplement demandé : « Et si on arrêtait de jeter toujours plus de GPU, et qu’on misait sur l’ingéniosité ? »
13/ Les conséquences
- Le développement de l’IA devient plus accessible
- La concurrence se renforce
- Les énormes infrastructures matérielles de certaines entreprises deviennent moins indispensables
- Les besoins (et les coûts) en équipement reculent drastiquement
14/ La riposte des géants
Bien sûr, OpenAI et Anthropic ne vont pas rester sans réagir. Ils intégreront probablement rapidement ces innovations. Mais le génie est déjà sorti de la bouteille : on ne reviendra plus à la logique « plus de GPU, plus de GPU ! ».
15/ Un moment charnière
C’est peut-être un tournant dont on se souviendra, comme lorsque les PC ont rendu les mainframes moins pertinents, ou quand le cloud computing a bouleversé tout le secteur.
L’IA s’apprête à devenir bien plus abordable et beaucoup moins coûteuse. La question n’est pas de savoir si cela va secouer les acteurs en place, mais à quelle vitesse cela va se produire.