Le scientifique en chef de l’IA de Meta affirme que la réaction du marché à Deepseek était «terriblement injustifiée». Voici pourquoi.

Le scientifique en chef de l'IA de Meta affirme que la réaction du marché à Deepseek était «terriblement injustifiée». Voici pourquoi.

La Silicon Valley fait fondre sur Deepseek, un concurrent chinois émergent dans le paysage de l’IA, mais le chef de l’IA de Meta dit que l’hystérie est injustifiée.

Deepseek a provoqué l’alarme parmi les sociétés de l’IA américaine lorsqu’elle a publié un modèle la semaine dernière qui, sur des références tierces, a surpassé les références d’Openai, Meta et d’autres développeurs de premier plan. Il l’a fait avec des puces de qualité inférieure et, dit-il, beaucoup moins d’argent.

Les données de Bernstein Research montrent que Deepseek a évalué ses modèles 20 à 40 fois moins cher que les modèles équivalents d’OpenAI. Son dernier modèle de raisonnement, R1, coûte 0,55 $ pour chaque million de jetons entrés, tandis que le modèle de raisonnement d’OpenAI, O1, facture 15 $ pour le même nombre de jetons. Un jeton est la plus petite unité de données qu’un modèle AI traite.

La nouvelle a frappé les marchés lundi, déclenchant une vente technologique qui a anéanti 1 billion de dollars en capitalisation boursière. Chipmaker Nvidia – connu pour ses puces premium, qui peuvent coûter au moins 30 000 $ – a vu sa valeur marchande baisser de près de 600 milliards de dollars.

Yann LeCun, scientifique en chef de l’IA pour la recherche sur l’IA de Facebook, cependant, dit qu’il existe un « malentendu majeur » sur la façon dont les centaines de milliards de dollars investis dans l’IA seront utilisés. Dans un poste de fil, LeCun a déclaré que les énormes sommes d’argent qui se trouvaient dans les entreprises de l’IA américaines sont nécessaires principalement pour l’inférence, et non sur la formation de l’IA.

L’inférence est le processus dans lequel les modèles d’IA appliquent leurs connaissances de formation aux nouvelles données. C’est à quel point les chatbots d’IA génératifs populaires comme Chatgpt répondent aux demandes des utilisateurs. Donc, plus les demandes des utilisateurs sont nécessaires, plus il faut d’inférence et les coûts de traitement augmentent.

LeCun a déclaré que lorsque les outils de l’IA devinrent plus sophistiqués, le coût de l’inférence augmentera. « Une fois que vous avez mis la compréhension vidéo, le raisonnement, la mémoire à grande échelle et d’autres capacités dans les systèmes d’IA, les coûts d’inférence vont augmenter », a déclaré LeCun. « Ainsi, les réactions du marché à Deepseek sont terriblement injustifiées. »

Thomas Sohmers, fondateur et CTO de Positron, une startup matérielle pour l’inférence du modèle de transformateur, a déclaré à Trading Insider qu’il était d’accord avec LeCun que l’inférence expliquerait une part plus importante des coûts d’infrastructure d’IA.

« La demande d’inférence et les dépenses des infrastructures pour augmenteront rapidement », a-t-il déclaré. « Tout le monde qui regarde les améliorations des coûts d’entraînement de Deepseek et ne pas voir que cela va de manière folle, la demande, le coût et les dépenses de l’inférence pour les arbres manquaient la forêt pour les arbres. »

Cela signifie que, à mesure que sa popularité augmente, Deepseek devrait gérer un volume accru de demandes et devra donc dépenser un montant important en inférence.

Un nombre croissant de startups entrent sur le marché de l’inférence de l’IA, visant à simplifier la génération de sortie. Avec autant de prestataires, certains dans l’industrie de l’IA s’attendent à ce que le coût de l’inférence baisse finalement.

Cependant, cela ne s’applique qu’à l’inférence de gestion des systèmes à petite échelle. Le professeur de Wharton, Ethan Mollick, a déclaré que pour des modèles comme Deepseek V3, qui fournissent des réponses libres à une grande base d’utilisateurs, les coûts d’inférence sont probablement beaucoup plus élevés.

« L’inférence de l’IA du modèle frontalier n’est coûteuse qu’à l’échelle des services B2C gratuits à grande échelle (comme les robots de service client) », a écrit Mollick sur X en mai. « Pour un usage commercial interne, comme donner des actions après une réunion ou fournir une première ébauche d’une analyse, le coût d’une requête est souvent extrêmement bon marché. »

Au cours des deux dernières semaines, les principales entreprises technologiques ont intensifié leurs investissements dans l’infrastructure d’IA.

Le méta-PDG Mark Zuckerberg a annoncé plus de 60 milliards de dollars en dépenses en capital prévues pour 2025 alors que la société augmente sa propre infrastructure d’IA. Dans un article sur les threads, Zuckerberg a déclaré que la société « augmenterait considérablement nos équipes d’IA » et a « le capital pour continuer à investir dans les années à venir ». Il n’a pas dit à quel point cela serait consacré à l’inférence.

La semaine dernière, le président Donald Trump a également annoncé Stargate, une coentreprise entre Openai, Oracle et Softbank qui canalisera jusqu’à 500 milliards de dollars d’infrastructures d’IA à travers les États-Unis.

A lire également