Les armes autonomes sont idéales pour des missions telles qu’assassinats, déstabilisation de nations, soumission de populations et élimination sélective d’un groupe ethnique particulier. Nous pensons donc qu’une course aux armements IA ne sera pas bénéfique pour l’humanité.
Cette lettre ouverte a été rendue publique le 28 juillet à l’ouverture de la conférence 2015 de l’IJCAI (International Joint Conference on Artificial Intelligence, la principale organisation internationale de chercheurs en Intelligence Artificielle). Elle a été signée par plusieurs centaines de chercheurs dans ce domaine.
Les armes autonomes sélectionnent et visent des cibles sans intervention humaine. Cela peut concerner, par exemple, les quadricoptères armés qui peuvent chercher et éliminer des gens réunissant certains critères prédéfinis, mais n’inclut pas les missiles de croisière ou les drones pilotés à distance pour lesquels des humains peuvent décider des cibles. La technologie IA est arrivée au point où le déploiement de tels systèmes – pratiquement sinon légalement – sera réalisable d’ici quelques années – pas des dizaines d’années – et les enjeux sont importants : les armes autonomes ont été décrites comme la troisième révolution après la poudre à fusil et les armes nucléaires.
De nombreux arguments ont été exprimés pour et contre les armes autonomes. Par exemple, remplacer des soldats humains par des machines permettrait à leur propriétaire de réduire le nombre des victimes, mais abaisserait, en même temps, le seuil de déclenchement de la bataille. La question clé pour l’humanité, aujourd’hui, est de savoir s’il faut lancer une course internationale aux armes IA ou l’empêcher de démarrer. Si une puissance militaire majeure se lance dans le développement d’armes IA, une course internationale est virtuellement inévitable et le point d’impact de cette trajectoire technologique est évident : les armes autonomes deviendront les Kalachnikovs de demain. Contrairement aux armes nucléaires, elles ne demandent aucun matériau coûteux ou difficile à obtenir et elles deviendront, donc, omniprésentes, avec un coût peu élevé de production de masse pour toute puissance militaire d’importance. Leur apparition sur le marché noir, dans les mains de terroristes, de dictateurs voulant mieux contrôler leur population, de seigneurs de guerre souhaitant perpétrer des nettoyages ethniques, etc., ne sera qu’une question de temps. Les armes autonomes sont idéales pour des missions telles qu’assassinats, déstabilisation de nations, soumission de populations et élimination sélective d’un groupe ethnique particulier. Nous pensons donc qu’une course aux armements IA ne sera pas bénéfique pour l’humanité. L’Intelligence artificielle peut servir de nombreuses manières à rendre les champs de bataille moins dangereux pour les hommes, particulièrement les civils, sans créer de nouveaux instruments pour tuer les gens.
De même que la plupart des chimistes et des biologistes n’ont aucun intérêt à construire des armes chimiques ou biologiques, la plupart des chercheurs en IA n’ont aucun intérêt à construire des armes IA – et ne veulent pas que d’autres entachent leur travail en le faisant, créant potentiellement une réaction négative publique majeure contre l’Intelligence artificielle qui la priverait de ses bénéfices sociétaux futurs. Les chimistes et les biologistes ont largement soutenu les accords internationaux qui ont interdit avec succès les armes chimiques et biologiques, tout comme les physiciens ont soutenu les traités interdisant les armes nucléaires dans l’espace et les armes laser aveuglantes.
En résumé, nous croyons que l’Intelligence artificielle a un grand potentiel qui peut bénéficier à l’humanité dans de nombreux domaines et que tel devrait être son but. Se lancer dans une course à l’armement IA militaire est une mauvaise idée et devrait faire l’objet d’une interdiction sur les armes offensives autonomes hors contrôle humain.
Pour consulter la liste des signataires : https://futureoflife.org