nye260_Sean GallupGetty Images_ukrainedrones Sean Gallup/Getty Images

AI en nationale veiligheid

ASPEN – Mensen maken gereedschap, maar hebben we controle over het gereedschap dat we maken? Toen Robert Oppenheimer en andere natuurkundigen in de jaren veertig het eerste kernsplijtingswapen ontwikkelden, maakten ze zich zorgen dat hun uitvinding de mensheid zou kunnen vernietigen. Tot nu toe is dat niet gebeurd, maar het beheersen van kernwapens is sindsdien een hardnekkige uitdaging.

Nu zien veel wetenschappers AI – algoritmen en software die machines in staat stellen om taken uit te voeren waarvoor normaal gesproken menselijke intelligentie nodig is – als een even transformerend gereedschap. Net als eerdere technologieën voor algemeen gebruik heeft AI (artificial intelligence, kunstmatige intelligentie) een enorm potentieel voor goed en kwaad. In kankeronderzoek kan het in een paar minuten meer onderzoeken doorvorsen en samenvatten dan een menselijk team in maanden kan doen. Ook kan het op betrouwbare wijze patronen van eiwitvouwing voorspellen waar menselijke onderzoekers jaren over zouden doen om ze te ontdekken.

Maar AI verlaagt ook de kosten en de toegangsdrempels voor buitenbeentjes, terroristen en andere slechtwillenden die kwaad willen aanrichten. Zoals een recente RAND- studie waarschuwde: ‘De marginale kosten om een gevaarlijk virus als pokken te laten herrijzen kunnen slechts honderdduizend dollar bedragen, terwijl de ontwikkeling van een complex vaccin meer dan één miljard dollar kan kosten.’

Bovendien maken sommige experts zich zorgen dat geavanceerde AI zoveel slimmer zal zijn dan de mens dat de technologie ons zal beheersen, in plaats van andersom. Schattingen van hoe lang het zal duren om zulke superintelligente machines te ontwikkelen – bekend als kunstmatige algemene intelligentie – variëren van een paar jaar tot een paar decennia. Maar hoe dan ook, de toenemende risico’s van de huidige beperkte AI vragen nu al om meer aandacht.

Al veertig jaar komt de Aspen Strategy Group (bestaande uit voormalige regeringsfunctionarissen, wetenschappers, zakenmensen en journalisten) elke zomer bijeen om zich te richten op een belangrijk probleem op het gebied van de nationale veiligheid. Eerdere sessies gingen over onderwerpen als kernwapens, cyberaanvallen en de opkomst van China. Dit jaar richtten we ons op de implicaties van AI voor de nationale veiligheid, waarbij we zowel de voordelen als de risico’s onderzochten.

Tot de voordelen behoren een groter vermogen om enorme hoeveelheden gegevens van inlichtingendiensten te doorzoeken, systemen voor vroegtijdige waarschuwing te versterken, ingewikkelde logistieke systemen te verbeteren en computercode te inspecteren om de cyberveiligheid te verbeteren. Maar er zijn ook grote risico’s, zoals de vooruitgang in autonome wapens, toevallige fouten in programmeeralgoritmen en vijandige AI’s die de cyberveiligheid kunnen verzwakken.

PS Events: Climate Week NYC 2024
image (24)

PS Events: Climate Week NYC 2024

Project Syndicate is returning to Climate Week NYC with an even more expansive program. Join us live on September 22 as we welcome speakers from around the world at our studio in Manhattan to address critical dimensions of the climate debate.

Register Now

China heeft enorm geïnvesteerd in de bredere AI-wapenwedloop en heeft ook een aantal structurele voordelen. De drie belangrijkste bronnen voor AI zijn data om de modellen te trainen, slimme technici om algoritmes te ontwikkelen en rekenkracht om ze uit te voeren. China kent weinig wettelijke of privacybeperkingen voor de toegang tot gegevens (hoewel ideologie sommige datasets beperkt) en het beschikt over slimme jonge technici. Het gebied waar China het meest achterloopt op de Verenigde Staten is dat van de geavanceerde microchips die de rekenkracht voor AI produceren.

Amerikaanse exportcontroles beperken de toegang van China tot deze geavanceerde chips en tot de dure Nederlandse lithografiemachines waarmee ze worden gemaakt. De consensus onder de experts in Aspen was dat China een jaar of twee achterloopt op de VS; maar de situatie blijft instabiel. Hoewel de presidenten Joe Biden en Xi Jinping tijdens hun ontmoeting afgelopen najaar overeenkwamen om bilaterale gesprekken over AI te voeren, was er in Aspen weinig optimisme over de vooruitzichten voor AI-wapenbeheersing.

Autonome wapens vormen een bijzonder ernstige bedreiging. Na ruim tien jaar diplomatie bij de Verenigde Naties zijn landen er niet in geslaagd om het eens te worden over een verbod op autonome dodelijke wapens. Het internationaal humanitair recht vereist dat militairen onderscheid maken tussen gewapende strijders en burgers, en het Pentagon eist al langere tijd dat een mens betrokken is bij de besluitvorming voordat een wapen wordt afgevuurd. Maar in sommige contexten, zoals bij de verdediging tegen inkomende raketten, is er geen tijd voor menselijke tussenkomst.

Omdat de context belangrijk is, moeten mensen strak definiëren (in de code) wat wapens wel en niet kunnen doen. Met andere woorden, er moet een mens ‘on the loop’ zijn in plaats van ‘in the loop.’ Dit is niet zomaar een speculatieve vraag. In de oorlog in Oekraïne storen de Russen de signalen van de Oekraïense strijdkrachten, waardoor de Oekraïners gedwongen worden om hun toestellen te programmeren voor autonome eindbeslissingen over wanneer ze moeten vuren.

Een van de meest angstaanjagende gevaren van AI is de toepassing ervan in biologische oorlogvoering of terrorisme. Toen landen in 1972 overeenkwamen om biologische wapens te verbieden, was de algemene overtuiging dat dergelijke wapens niet nuttig waren vanwege het risico op ‘terugslag’ aan de eigen kant. Maar met synthetische biologie is het misschien mogelijk om een wapen te ontwikkelen dat de ene groep vernietigt, maar de andere niet. Of een terrorist met toegang tot een laboratorium wil gewoon zoveel mogelijk mensen doden, zoals de doemsdagcultus Aum Shinrikyo in 1995 in Japan deed. (Terwijl zij sarin gebruikten, dat niet overdraagbaar is, zou hun moderne equivalent AI kunnen gebruiken om een besmettelijk virus te ontwikkelen).

In het geval van nucleaire technologie kwamen landen in 1968 een non-proliferatieverdrag overeen dat nu 191 lidstaten telt. De Internationale Organisatie voor Atoomenergie inspecteert regelmatig binnenlandse energieprogramma’s om te bevestigen dat ze uitsluitend voor vreedzame doeleinden worden gebruikt. En ondanks de hevige concurrentie uit de Koude Oorlog zijn de belangrijkste landen op het gebied van nucleaire technologie in 1978 overeengekomen om terughoudend te zijn met de export van de meest gevoelige faciliteiten en technische kennis. Een dergelijk precedent suggereert enkele paden voor AI, hoewel er duidelijke verschillen zijn tussen de twee technologieën.

Het is een waarheid als een koe dat technologie sneller evolueert dan beleid of diplomatie, vooral wanneer ze gedreven wordt door intense marktconcurrentie in de privésector. Als er één belangrijke conclusie was van de bijeenkomst van de Aspen Strategy Group dit jaar, dan was het wel dat overheden hun tempo moeten opvoeren.

Vertaling: Menno Grootveld

https://prosyn.org/AygBUainl