L’industrie de l’IA pourrait connaître une « douche froide » l’année prochaine, selon un analyste
- Le cabinet d’analystes CCS Insight prévoit une « douche froide » pour l’IA générative en 2024.
- L’analyste en chef de la société a déclaré à CNBC qu’il pensait que la technologie était surfaite et que son déploiement faisait face à d’immenses coûts.
- La prédiction de l’entreprise intervient au milieu des craintes d’une pénurie mondiale de puces.
Un cabinet d’analystes prévoit une « douche froide » pour l’IA générative en 2024.
CCS Insight, une société d’analyse technologique basée à Londres, s’attend à ce que les défis très réels liés au coût, au risque et à la complexité de l’IA pourraient bientôt éclipser le battage médiatique actuel autour de cette technologie en 2024, a rapporté CNBC mardi.
« Le battage médiatique autour de l’IA générative en 2023 a été si immense que nous pensons qu’elle est exagérée, et il y a de nombreux obstacles à surmonter pour la mettre sur le marché », a déclaré Ben Wood, analyste en chef chez CCS Insight, à CNBC.
« Le coût du déploiement et du maintien de l’IA générative est immense », a déclaré Wood. Il a ajouté que même si de grandes entreprises comme Google et Meta pouvaient assumer ces coûts, cela serait trop coûteux pour de nombreuses organisations.
Pour situer le contexte, l’IA repose sur des puces pour fonctionner, et la prédiction de l’entreprise intervient dans un contexte d’inquiétudes concernant une pénurie mondiale de puces.
L’importance de ces puces a même déclenché une ruée mondiale pour les puces semi-conductrices de Nvidia parmi les géants de l’industrie, allant d’Elon Musk aux titans chinois de la technologie.
En réponse à la demande croissante, Nvidia, un fabricant de puces pesant plusieurs milliards de dollars, a annoncé en août son intention de tripler la production de ses puces de processeur d’une valeur de 40 000 dollars l’année prochaine.
Et la société d’IA OpenAI étudie actuellement des projets pour fabriquer ses propres puces, a rapporté vendredi Reuters, citant de récentes discussions internes au sein de l’entreprise.
Pour le contexte, Dylan Patel, analyste en chef de la société de recherche sur les semi-conducteurs SemiAnalysis, a estimé que l’entreprise dépense jusqu’à 700 000 dollars par jour en puissance de calcul nécessaire au fonctionnement de ChatGPT.
CCS Insight n’a pas immédiatement répondu à une demande de commentaires, envoyée en dehors des heures normales de bureau.