nye260_Sean GallupGetty Images_ukrainedrones Sean Gallup/Getty Images

L'IA et la sécurité nationale

ASPEN - L'homme est une espèce qui fabrique des outils, mais pouvons-nous contrôler les outils que nous fabriquons ? Lorsque Robert Oppenheimer et d'autres physiciens ont mis au point la première arme à fission nucléaire dans les années 1940, ils craignaient que leur invention ne détruise l'humanité. Jusqu'à présent, cela n’a pas été le cas, mais le contrôle des armes nucléaires reste un défi permanent depuis lors.

Aujourd'hui, de nombreux scientifiques considèrent l'intelligence artificielle – les algorithmes et les logiciels qui permettent aux machines d'effectuer des tâches qui requièrent habituellement l'intelligence humaine – comme un outil tout aussi transformateur. Comme les technologies polyvalentes précédentes, l'intelligence artificielle a un énorme potentiel pour le bien et le mal. Dans le domaine de la recherche sur le cancer, elle peut trier et résumer plus d'études en quelques minutes qu'une équipe humaine ne pourrait le faire en plusieurs mois. De même, elle peut prédire de manière fiable des schémas de repliement de protéines que les chercheurs humains mettraient des années à découvrir. 

Cependant, l'IA réduit également les coûts et les barrières à l'entrée pour les malfaiteurs, les terroristes et autres acteurs mal intentionnés qui pourraient vouloir causer des dommages. Comme le souligne une récente étude de la Rand, « le coût marginal de la résurrection d'un virus dangereux semblable à celui de la variole peut n'être que de 100 000 dollars, alors que la mise au point d'un vaccin complexe peut coûter plus d'un milliard de dollars ». 

En outre, certains experts craignent que l'IA avancée soit tellement plus intelligente que l'homme qu'elle nous contrôlera, et non l'inverse. Les estimations du temps nécessaire pour développer de telles machines super intelligentes – connues sous le nom d'intelligence artificielle générale– varient de quelques années à quelques décennies. Quoi qu'il en soit, les risques croissants liés à l'intelligence artificielle limitée d'aujourd'hui exigent déjà une plus grande attention.

Depuis 40 ans, l’Aspen Strategy Group, composé d'anciens fonctionnaires, d'universitaires, d'hommes d'affaires et de journalistes, se réunit chaque été pour se pencher sur un problème majeur de sécurité nationale. Les sessions précédentes ont porté sur des sujets tels que les armes nucléaires, les cyberattaques et la montée en puissance de la Chine. Cette année, nous nous sommes concentrés sur les implications de l'IA pour la sécurité nationale, en examinant les avantages et les risques.

Parmi les avantages, citons une plus grande capacité à trier d'énormes quantités de données de renseignement, à renforcer les systèmes d'alerte précoce, à améliorer les systèmes logistiques complexes et à inspecter le code informatique afin d'améliorer la cybersécurité. Mais il existe aussi des risques importants, tels que les progrès des armes autonomes, les erreurs accidentelles dans les algorithmes de programmation et les IA adverses qui peuvent affaiblir la cybersécurité.

PS Events: Climate Week NYC 2024
image (24)

PS Events: Climate Week NYC 2024

Project Syndicate is returning to Climate Week NYC with an even more expansive program. Join us live on September 22 as we welcome speakers from around the world at our studio in Manhattan to address critical dimensions of the climate debate.

Register Now

La Chine a investi massivement dans la course à l'armement en matière d'IA et peut se targuer d'avoir certains avantages structurels. Les trois ressources clés de l'IA sont des données pour entraîner les modèles, des ingénieurs intelligents pour développer les algorithmes et une puissance de calcul pour les exécuter. La Chine a peu de limites juridiques ou de protection de la vie privée en matière d'accès aux données (bien que l'idéologie limite certains ensembles de données), et elle est bien pourvue en jeunes ingénieurs brillants. Le domaine dans lequel elle est le plus en retard sur les États-Unis est celui des micropuces avancées qui produisent la puissance de calcul nécessaire à l'IA.

Les contrôles américains à l'exportation limitent l'accès de la Chine à ces puces d'avant-garde, ainsi qu'aux coûteuses machines de lithographie néerlandaises qui permettent de les fabriquer. Les experts présents à Aspen s'accordent à dire que la Chine a un ou deux ans de retard sur les États-Unis, mais la situation reste instable. Bien que les présidents Joe Biden et Xi Jinping aient convenu de tenir des discussions bilatérales sur l'IA lors de leur rencontre à l'automne dernier, les perspectives de maîtrise des armements liés à l'IA n'ont pas suscité beaucoup d'optimisme à Aspen.

Les armes autonomes constituent une menace particulièrement grave. Après plus d'une décennie de diplomatie aux Nations unies, les pays n'ont pas réussi à se mettre d'accord sur une interdiction des armes létales autonomes. Le droit humanitaire international exige que les armées fassent la distinction entre les combattants armés et les civils, et le Pentagone exige depuis longtemps qu'un être humain participe à la prise de décision avant qu'une arme ne soit tirée. Mais dans certains contextes, comme la défense contre des missiles en approche, l'intervention humaine n'a pas le temps de se produire.

Étant donné que le contexte est important, les humains doivent définir avec précision (dans le code) ce que les armes peuvent et ne peuvent pas faire. En d'autres termes, il devrait y avoir un humain « sur la boucle » plutôt que « dans la boucle ». Il ne s'agit pas d'une simple question spéculative. Dans la guerre en Ukraine, les Russes brouillent les signaux des forces ukrainiennes, obligeant les Ukrainiens à programmer leurs appareils pour qu'ils puissent prendre des décisions finales autonomes sur le moment de tirer.

L'un des dangers les plus effrayants de l'IA est son application à la guerre biologique ou au terrorisme. Lorsque les pays ont convenu d'interdire les armes biologiques en 1972, la croyance commune était que ces dispositifs n'étaient pas utiles, en raison du risque de « retour de flamme » dans son propre camp. Mais avec la biologie synthétique, il peut être possible de mettre au point une arme qui détruise un groupe mais pas un autre. Ou bien un terroriste ayant accès à un laboratoire peut simplement vouloir tuer autant de personnes que possible, comme l'a fait la secte apocalyptique Aum Shinrikyo au Japon en 1995. Bien qu'ils aient utilisé du sarin, qui n'est pas transmissible, leur équivalent moderne pourrait utiliser l'IA pour développer un virus contagieux.

Dans le cas de la technologie nucléaire, les pays se sont mis d'accord, en 1968, sur un traité de non-prolifération qui compte aujourd'hui 191 membres. L'Agence internationale de l'énergie atomique inspecte régulièrement les programmes énergétiques nationaux pour s'assurer qu'ils sont utilisés uniquement à des fins pacifiques. Et malgré la concurrence intense de la guerre froide, les pays leaders en matière de technologie nucléaire ont convenu, en 1978, de faire preuve de retenue dans l'exportation des installations et des connaissances techniques les plus sensibles. Un tel précédent laisse entrevoir certaines pistes pour l'IA, même si les deux technologies présentent des différences évidentes. 

C'est un truisme que de dire que la technologie évolue plus vite que la politique ou la diplomatie, en particulier lorsqu'elle est stimulée par une concurrence intense dans le secteur privé. S'il est une conclusion majeure de la réunion du groupe stratégique d'Aspen de cette année, c'est que les gouvernements doivent accélérer leur rythme.

https://prosyn.org/AygBUaifr