Geoffrey Hinton, qui a reçu le « prix Nobel de l’informatique » pour ses travaux novateurs sur les réseaux neuronaux, est désormais libre de parler des risques de l’IA (Intelligence artificielle)
Thomas Ricker
Geoffrey Hinton, qui, avec deux autres « parrains de l’IA », a remporté le prix Turing 2018 pour leurs travaux fondamentaux qui ont conduit à l’essor actuel de l’intelligence artificielle, dit maintenant qu’une partie de lui regrette l’œuvre de sa vie. Hinton a récemment quitté son emploi chez Google afin de pouvoir s’exprimer librement sur les risques de l’IA, selon une interview de l’homme de 75 ans publiée dans le New York Times.
« Je me console avec l’excuse habituelle : si je ne l’avais pas fait, quelqu’un d’autre l’aurait fait », a déclaré Hinton, qui a travaillé chez Google pendant plus de dix ans. « Il est difficile de voir comment on peut empêcher les mauvais opérateurs de l’utiliser à des fins malveillantes. »
Hinton a notifié sa démission à Google le mois dernier et s’est entretenu directement avec le PDG, Sundar Pichai, jeudi, selon le NYT. Les détails de cette discussion n’ont pas été divulgués.
C’est ce travail qui a finalement conduit à la création de ChatGPT et de Google Bard.
Cet universitaire de longue date a rejoint Google après l’acquisition d’une entreprise créée par Hinton et deux de ses étudiants, dont l’un est devenu le directeur scientifique d’OpenAI. Hinton et ses étudiants avaient mis au point un réseau neuronal qui, après avoir analysé des milliers de photos, apprenait à identifier des objets courants tels que des chiens, des chats et des fleurs. C’est ce travail qui a conduit à la création de ChatGPT et de Google Bard.
Selon l’interview du NYT, Hinton était satisfait de la gestion de la technologie par Google jusqu’à ce que Microsoft lance le nouveau Bing infusé d’OpenAI, remettant en cause le cœur de métier de Google et déclenchant un « code rouge » au sein du géant de la recherche. Selon Hinton, il pourrait être impossible d’arrêter une concurrence aussi féroce, qui aboutirait à un monde contenant tellement d’images et de textes truqués que plus personne ne serait en mesure de dire « ce qui est vrai. »
Le directeur scientifique de Google, Jeff Dean, s’est efforcé d’atténuer le choc avec la déclaration suivante : « Nous restons attachés à une approche responsable de l’IA. Nous apprenons continuellement à comprendre les risques émergents tout en innovant avec audace. »
Hinton s’est également rendu sur Twitter pour clarifier sa position sur la gestion de Google :
« Dans le NYT d’aujourd’hui, Cade Metz laisse entendre que j’ai quitté Google pour pouvoir le critiquer. En fait, j’ai quitté Google pour pouvoir parler des dangers de l’IA sans tenir compte de l’impact sur Google. Google a agi de manière très responsable. »
– Geoffrey Hinton (@geoffreyhinton), 1er mai 2023
La diffusion de fausses informations n’est que la préoccupation immédiate de Geoffrey Hinton. À plus long terme, il craint que l’IA n’élimine les emplois routiniers, voire l’humanité elle-même lorsqu’elle commencera à écrire et à exécuter son propre code.
« L’idée que cette machine puisse devenir plus intelligente que les gens, quelques personnes y ont cru », a déclaré Hinton au NYT. « Mais la plupart des gens pensaient que c’était une erreur. Et je pensais que c’était loin d’être le cas. Je pensais que c’était dans 30 à 50 ans, voire plus. Évidemment, je ne le pense plus. »
Mise à jour du 1er mai à 8h 48 heure d’été de l’est, [soit heure GMT – 4, NdT] : Ajout d’un tweet de Hinton clarifiant sa position sur la gestion de Google jusqu’à présent.
Thomas Ricker
Thomas Ricker, rédacteur en chef adjoint et cofondateur de Verge, est passionné par les villes centrées sur l’humain, les vélos électriques et la vie de nomade numérique. Il est journaliste technique depuis près de 20 ans.
Source : The Verge, Thomas Ricker, 01-05-2023
Traduit par les lecteurs du site Les-Crises