Un chef de produit de premier plan chez Google pense qu’une nouvelle approche de l’IA pourrait offrir un « coup direct » à la superintelligence
L’un des principaux responsables produits de Google estime qu’une nouvelle approche de l’IA pourrait offrir une « approche directe » à la superintelligence artificielle, qui promet des capacités bien plus avancées que celles des humains dans tous les domaines.
Logan Kilpatrick, chef de produit pour AI Studio de Google, a déclaré lundi sur X qu’il pensait que viser directement la superintelligence artificielle, ou ASI, sans se concentrer sur des étapes intermédiaires, « semblait de plus en plus probable de mois en mois ».
Il a ajouté que le succès jusqu’à présent de l’intensification du calcul au moment du test – le moment où un modèle d’IA doit effectuer une tâche ou répondre à une question – était une « bonne indication » qu’un chemin direct vers l’ASI pourrait être possible.
De nombreuses discussions ont porté sur le moment et la manière dont l’intelligence artificielle générale, dans laquelle un modèle égale ou surpasse les humains dans un large éventail de tâches, sera atteinte. Kilpatrick a déclaré qu’il croyait toujours que nous arriverions à l’AGI, mais que « cela ressemblera probablement beaucoup à une sortie de produit » plutôt qu’à un moment explosif.
Avec de plus en plus de preuves que la pré-formation de l’IA a atteint un plateau, les entreprises et les chercheurs ont exploré de nouvelles façons d’améliorer les modèles d’IA, par exemple en les faisant « réfléchir » aux problèmes de la même manière que les humains. Google et OpenAI ont récemment dévoilé de nouveaux modèles dotés de capacités de raisonnement améliorées.
Kilpatrick a suggéré qu’Ilya Sutskever, cofondateur d’OpenAI et ancien scientifique en chef, aurait pu voir les « premiers signes » du potentiel de mise à l’échelle du calcul au moment des tests.
Sutskever, qui a fait valoir que l’industrie manquait de données pour entraîner des modèles d’IA, a quitté OpenAI cette année pour lancer sa propre startup, Safe Superintelligence. Sutskever a déclaré sur X que la startup « poursuivrait une superintelligence sûre d’un seul coup, avec un objectif, un objectif et un produit ».
Kilpatrick a déclaré qu’il croyait autrefois que la méthode de Sutskever serait une erreur, mais il pense maintenant qu’elle pourrait bien fonctionner.
L’opinion de Kilpatrick a un certain poids. Il dirigeait auparavant les relations avec les développeurs chez OpenAI et a rejoint Google cette année, une décision que beaucoup ont considérée comme une aubaine pour le géant de la recherche. Une personne l’a déjà décrit comme une « arme secrète » pour Google dans la course à l’IA.
Interrogé sur X sur les avantages d’une approche plus itérative de la superintelligence, Kilpatrick a caché sa réponse.
« Je suis plus optimiste en matière d’itération que de tir direct », a-t-il déclaré, « mais ce dernier pourrait bien fonctionner. »
Vous avez plus d’informations à partager ? Vous pouvez joindre le journaliste Hugh Langley via l’application de messagerie cryptée Signal (+1-628-228-1836) ou par courrier électronique (hlangley@businessinsider.com).
