Ne vous inquiétez pas, les machines ne seront pas aussi intelligentes que les humains avant longtemps, car elles ont encore beaucoup à apprendre.

- L’IA a dominé l’ordre du jour du Forum économique mondial de Davos cette année.
- Les experts ont insisté sur le fait que l’IA – du moins dans sa forme actuelle – est assez limitée, malgré le battage médiatique.
- De nouveaux modèles seront nécessaires pour créer une IA comparable à celle des humains, ont-ils déclaré lors d’un panel cette semaine.
L’IA aurait pu être le discours de la ville de Davos cette annéemais certains experts présents ont adressé un message plutôt décourageant à tout le monde : l’IA a encore un long chemin à parcourir pour devenir vraiment intelligente.
C’est facile à comprendre pourquoi L’IA était en tête de l’ordre du jour du Forum économique mondial en Suisse. Après tout, nous sommes au milieu d’un cycle de battage médiatique qui ferait rougir le Web3.
Au cours de l’année qui a suivi la dernière réunion des dirigeants mondiaux pour le salon annuel, des titans de la grande technologie comme Google et Microsoft se sont précipités pour rivaliser avec ChatGPT d’OpenAI, tandis que Bill Gates a vanté les capacités de cette technologie à changer le monde.
Mais malgré tout le battage médiatique, les experts en IA ont insisté cette semaine sur le fait que l’IA – dans sa forme actuelle en tout cas – est portée assez limitée. Surtout si l’objectif final du domaine est de créer une intelligence artificielle générale. Voici pourquoi.
L’IA gratte la surface
Lors d’une table ronde mardi IA générativeles experts ont d’abord souligné les défis liés aux données qui doivent être surmontés pour rendre l’IA d’aujourd’hui beaucoup plus intelligente.
Daphne Koller, informaticienne et « génie » de MacArthur, a déclaré au panel que « nous commençons seulement à gratter la surface des données disponibles ».
La plupart des modèles d’IA les plus populaires d’aujourd’hui, tels que le GPT-4 d’OpenAI, sont formés sur ce qui est accessible au public sur Internet. Le type de données que Koller aimerait que l’IA gère va bien au-delà.
D’une part, il existe un monde de données qui peuvent provenir de ce que l’on appelle « l’IA incarnée ». Il s’agit d’une IA intégrée à des agents, comme des robots, qui peuvent interagir avec l’environnement physique. Les chatbots d’aujourd’hui n’obtiennent pas vraiment beaucoup de ces données.
À l’heure actuelle, il existe des cas spécifiques dans lesquels l’IA interagit avec ce type d’environnement pour collecter des données. Pensez à la manière dont les voitures autonomes collectent et analysent les données sur le trafic routier ou à la manière dont l’IA est utilisée pour détecter les premiers signes de maladies de la rétine.
Le seul problème est qu’il n’existe pas encore de modèle d’IA polyvalent capable d’analyser et de traiter toutes ces données, en plus des données provenant d’Internet, de manière significative.
Les données issues de l’expérimentation font également défaut.
Comme l’a noté Koller, la capacité « d’expérimenter ce monde » fait partie de ce qui rend les humains si efficaces dans leur apprentissage. En comparaison, la capacité de l’IA à réaliser cela fait actuellement défaut.
Une solution à ce problème de données consiste à donner aux machines la possibilité de créer leurs propres données synthétiques, plutôt que de s’appuyer uniquement sur des données créées par des humains et transmises à partir du Web.
« Si nous voulons que ces machines se développent, nous devons leur donner la capacité non seulement de communiquer entre elles « in silico »… mais aussi d’expérimenter réellement le monde et de générer le type de données qui les aident à continuer de croître et de se développer. » dit-elle.
Le problème de l’architecture
Les autres problèmes signalés par les experts tournent autour de l’architecture.
Pour Yann LeCun, scientifique en chef de l’IA chez Metail est clair que les grands modèles de langage autorégressifs (LLM) – les modèles qui sous-tendent les chatbots IA d’aujourd’hui – ont besoin de « nouvelles architectures » pour atteindre le niveau d’intelligence supérieur.
À l’heure actuelle, les modèles d’IA comme les LLM fonctionnent en prenant par exemple un morceau de texte, en le corrompant en supprimant des mots, puis en demandant aux modèles de reconstruire le texte intégral. LeCun note qu’ils sont plutôt doués pour faire cela avec du texte, mais des images ou des vidéos ? Oublie ça.
« Je prends une image corrompue en supprimant quelques morceaux, puis j’entraîne un grand réseau neuronal pour récupérer l’image. Et cela ne fonctionne pas, ou cela ne fonctionne pas très bien », a déclaré le méta-scientifique.
Il convient de noter qu’il existe aujourd’hui des modèles d’IA qui sont assez efficaces pour générer des images, mais il s’agit de modèles texte-image, comme Midjourney et Stable Diffusion. OpenAI dispose également d’un modèle d’IA appelé DALL-E pour la génération d’images distinct de GPT-4.
Pour LeCunla voie à suivre vers un modèle d’IA qui fait tout ne réside peut-être pas dans les choses qui obsèdent tout le monde actuellement.
« Il n’y a pas encore de véritable solution, mais les choses qui sont les plus prometteuses pour le moment, du moins celles qui fonctionnent pour la reconnaissance d’images – je vais surprendre tout le monde – ne sont pas génératives, d’accord », a-t-il déclaré.
Koller voit également des problèmes avec les LLM actuels. Selon elle, les versions actuelles de ces modèles ne sont pas, par exemple, très efficaces pour comprendre la logique cognitive de base, comme les causes et les effets.
« Ce sont des moteurs entièrement prédictifs ; ils font simplement des associations », a-t-elle déclaré.
Ce n’est pas la première fois que des doutes sont soulevés quant à la capacité des modèles d’IA actuels.
UN article pré-imprimé soumis à ArXiv par un trio de chercheurs de Google en novembre a constaté que la technologie des transformateurs sous-jacente aux LLM n’était pas très efficace pour généraliser au-delà de son ensemble de données existant. Si l’AGI est le grand objectif, ce n’est pas très prometteur.
Cela ne veut pas dire que les LLM d’aujourd’hui sont inutiles. Kai-Fu Lee, informaticien taïwanais et fondateur de 01.AI, qui faisait également partie du panel, a parlé de leur « incroyable valeur commerciale ». Son entreprise a atteint une valorisation d’un milliard de dollars moins de huit mois après son lancement.
« Ils résolvent de vrais problèmes, ils peuvent générer du contenu, ils améliorent considérablement notre productivité et ils sont déployés partout », a-t-il déclaré.
Sont-ils sur le point de créer des machines aussi intelligentes que les humains ? Pas sous leur forme actuelle du moins.