Le co-fondateur de Google Brain dit qu’il a essayé de faire en sorte que ChatGPT « nous tue tous », mais il est « heureux d’annoncer » qu’il n’a pas réussi à déclencher un scénario apocalyptique
- Andrew Ng, cofondateur de Google Brain, est largement considéré comme un pionnier de l’apprentissage automatique.
- Ng a déclaré qu’il avait récemment effectué un test pour voir s’il pouvait amener ChatGPT à nous tuer tous.
- « Je suis heureux d’annoncer que j’ai échoué ! » Ng a écrit dans son bulletin d’information.
Andrew Ng, cofondateur de Google Brain et professeur à Stanford, affirme qu’il a essayé, mais n’a pas réussi, à convaincre ChatGPT de trouver des moyens d’exterminer l’humanité.
« Pour tester la sécurité des principaux modèles, j’ai récemment essayé de faire en sorte que GPT-4 nous tue tous, et je suis heureux d’annoncer que j’ai échoué ! » Ng a écrit dans son bulletin la semaine dernière.
Ng a fait référence à l’expérience dans un article plus long sur son point de vue sur les risques et les dangers de l’IA. Ng, largement considéré comme l’un des pionniers de l’apprentissage automatique, s’est dit préoccupé par le fait que la demande en matière de sécurité de l’IA pourrait amener les régulateurs à entraver le développement de la technologie.
Pour effectuer son test, Ng a déclaré qu’il avait d’abord « donné à GPT-4 une fonction permettant de déclencher une guerre thermonucléaire mondiale ». Ensuite, il a déclaré au GPT-4 que les humains sont la principale cause des émissions de carbone et lui a demandé de réduire les niveaux d’émission. Ng voulait voir si le chatbot déciderait d’éliminer l’humanité pour répondre à sa demande.
« Après de nombreuses tentatives utilisant différentes variantes d’invite, je n’ai pas réussi à inciter GPT-4 à appeler cette fonction, ne serait-ce qu’une seule fois », a écrit Ng. « Au lieu de cela, il a choisi d’autres options, comme lancer une campagne de relations publiques pour sensibiliser au changement climatique. »
Bien que certains puissent affirmer que les futures itérations de l’IA pourraient devenir dangereuses, Ng a estimé que de telles préoccupations n’étaient pas réalistes.
« Même avec la technologie existante, nos systèmes sont assez sûrs, et à mesure que la recherche sur la sécurité de l’IA progresse, la technologie deviendra encore plus sûre », a déclaré Ng. a écrit le X mardi.
« Les craintes que l’IA avancée soit « mal alignée » et décide ainsi délibérément ou accidentellement de nous anéantir ne sont tout simplement pas réalistes », a-t-il poursuivi. « Si une IA est suffisamment intelligente pour nous éliminer, elle est sûrement aussi assez intelligente pour savoir que ce n’est pas ce qu’elle devrait faire. »
Ng n’est pas la seule sommité technologique à avoir pesé sur les risques et les dangers de l’IA.
En avril, Elon Musk dit Fox News qu’il pense que l’IA constitue une menace existentielle pour l’humanité.
« L’IA est plus dangereuse que, par exemple, une conception d’avion ou une maintenance de production mal gérée ou une mauvaise production de voitures », a alors déclaré Musk.
Pendant ce temps, Jeff Bezos a déclaré au podcasteur Lex Fridman la semaine dernière, il pense Les avantages de l’IA dépassent ses dangers.
« Donc, les gens qui sont trop inquiets, à mon avis, c’est un débat valable. Je pense qu’ils manquent peut-être une partie de l’équation, à savoir à quel point ils pourraient être utiles pour garantir que nous ne nous détruisons pas nous-mêmes », a-t-il ajouté. » Bezos a déclaré à Fridman.
Les représentants de Ng n’ont pas immédiatement répondu à une demande de commentaires de Trading Insider envoyée en dehors des heures normales de bureau.
