La nouvelle a fait trembler la Silicon Valley en janvier : l’entreprise chinoise DeepSeek a dévoilé deux modèles d’intelligence artificielle, V3 et R1, bien moins énergivores que les programmes existants. Même s’ils affichent des performances similaires à ceux d’OpenAI ou de Meta, la quantité d’énergie nécessaire pour les entraîner aurait été dix fois plus faible. Cette annonce remet en cause la stratégie souvent employée par les entreprises de ce domaine : mettre plus de ressources de calcul pour avoir de meilleurs résultats. Pourtant, plutôt que présager un avenir plus sobre pour l’IA, l’irruption de V3 et R1 fait craindre leur utilisation par plus de personnes du fait de leur moindre consommation d’énergie – ce qu’on appelle un « effet rebond ».