Les frères de l’IA sont en guerre contre les déclarations selon lesquelles le prochain modèle Gemini AI de Google briserait le GPT-4 d’OpenAI
- Les chercheurs derrière le blog SemiAnalysis affirment que la prochaine IA Gemini de Google écrasera GPT-4.
- Ils soutiennent essentiellement que Google gagnera en IA parce qu’il a accès aux puces les plus performantes.
- Le PDG d’OpenAI, Sam Altman, a décrit l’analyse comme du marketing pour Google.
Ce n’est jamais amusant pour un PDG d’entendre que son produit pourrait être critiqué par un concurrent.
Cela pourrait expliquer la réponse défensive du patron d’OpenAI, Sam Altman, à un article publié ce week-end intitulé: « Google Gemini mange le monde – Gemini écrase GPT-4 par 5, les pauvres en GPU. »
incroyable, Google a demandé à ce type de semi-analyse de publier son tableau de marketing/recrutement interne mdr
– Sam Altman (@sama) 29 août 2023
La poste, de Dylan Patel et Daniel Nishball du cabinet de recherche SemiAnalysis, affirme que le modèle d’IA Gemini prévu par Google semble prêt à faire exploser le modèle d’IA d’OpenAI en intégrant beaucoup plus de puissance de calcul.
Une grande partie de l’analyse, qui, selon Patel, était basée sur des données provenant d’un fournisseur de Google, se résume au fait que Google a accès à un nombre infiniment plus important de puces de premier ordre et que son modèle surpasse GPT-4 sur une mesure de performance relative aux calculs informatiques connue sous le nom de FLOPS.
Gemini est un modèle d’IA multimodal de nouvelle génération sur lequel travaillent les chercheurs de DeepMind, la branche IA de Google, et devrait être publié plus tard en 2023. Il s’agit de l’effort le plus sérieux du géant de la recherche à ce jour pour donner du fil à retordre au GPT-4 d’OpenAI. .
« L’incroyable Google a demandé à ce type de semi-analyse de publier son tableau interne de marketing/recrutement mdr », Altman a écrit dans un post X lundi, insinuer ce matériel sur les performances de Gemini depuis l’intérieur de Google serait, naturellement, flatteur.
En réponse, Patel de SemiAnalyse a posté sur X qu’il avait obtenu des données sur les magasins GPU de Google auprès d’un fournisseur de Google – plutôt que de Google lui-même. Il a jeté une image retouchée du patron de Google, Sundar Pichai, gavant de force du lait Altman tout en le tenant par les cheveux.
Tandis que les deux échanges commerciaux se poursuivent, les plus grands forums Internet suivant les développements de l’IA se sont occupés de disséquer l’article. Au cœur du débat : disposer de puces plus avancées – nécessaires pour entraîner des modèles d’IA à grande échelle – signifie-t-il que l’on obtient de meilleurs modèles ? Les analystes ont décrit cela comme étant « riche en GPU » par rapport à « pauvre en GPU ».
« » J’espère que quelqu’un détrônera bientôt OAI. Mais dire que Gemini écrase GPT-4 de 5 fois donne l’impression qu’il est 5 fois meilleur que GPT-4, ce n’est pas le cas, son calcul 5x. Pas nécessairement corrélé à la qualité « , a déclaré un X. l’utilisateur a appelé @Teknium1.
« La puissance de calcul à elle seule n’est pas la seule ressource. C’est aussi le processus de formation lui-même… et, évidemment, les données et leur qualité », a Actualités des pirates l’utilisateur a écrit. « Je ne serai convaincu qu’après que Google aura démontré que Gemini est meilleur que GPT4 (dans certaines ou toutes les tâches). »
Bien que ChatGPT d’OpenAI ait eu une longueur d’avance en termes de sensibilisation des consommateurs, d’autres acteurs sérieux sont entrés dans l’arène LLM, comme Llama 2 de Meta. Avec Gemini prévu plus tard dans l’année, 2023 pourrait s’avérer plus conséquente pour les progrès dans les grands modèles de langage que 2022, l’année de l’adoption massive de ChatGPT.
« Que vous soyez d’accord ou non avec Patel, il s’agit d’une prédiction audacieuse et très falsifiable », a écrit un utilisateur de r/MachineLearning. « 2024 sera intéressant. »