RIO DE JANEIRO – De afgelopen maanden zullen wellicht worden herinnerd als het moment waarop voorspellende kunstmatige intelligentie mainstream ging. Hoewel voorspellingsalgoritmen al tientallen jaren worden gebruikt, heeft de introductie van toepassingen zoals OpenAI’s ChatGPT3 – en de snelle integratie ervan met Microsofts Bing-zoekmachine – wellicht de sluizen geopend als het gaat om gebruiksvriendelijke AI. Binnen enkele weken na de release van ChatGPT3 had het programma alhonderd miljoen maandelijkse gebruikers aangetrokken, van wie velen ongetwijfeld ook al de duistere kant ervan hebben ervaren – van beledigingen en bedreigingen tot desinformatie en een aangetoond vermogen om kwaadaardige code te schrijven.
De chatbots die de krantenkoppen halen zijn slechts het topje van de ijsberg. AI’s voor het creëren van tekst, spraak, kunst en video boeken snelle vorderingen, met verstrekkende gevolgen voor bestuur, handel en het maatschappelijk leven. Het is dan ook niet verwonderlijk dat het kapitaal de sector overspoelt, waarbij zowel overheden als bedrijven investeren in start-ups om de nieuwste instrumenten voor machinaal leren te ontwikkelen en in te zetten. Deze nieuwe toepassingen combineren historische gegevens met machinaal leren, natuurlijke taalverwerking en deep learning om de waarschijnlijkheid van toekomstige gebeurtenissen te bepalen.
Cruciaal is dat de toepassing van de nieuwe natuurlijke taal verwerkende en generatieve AI’s niet beperkt blijft tot de rijke landen en bedrijven als Google, Meta en Microsoft die het voortouw hebben genomen bij de ontwikkeling ervan. Deze technologieën verspreiden zich al over de lage- en middeninkomenslanden, waar voorspellende analyses voor alles van het terugdringen van stedelijke ongelijkheid tot het aanpakken van voedselonzekerheid een enorme belofte inhouden voor overheden, bedrijven en ngo’s met weinig geld om de efficiëntie te verbeteren en sociale en economische voordelen te ontsluiten.
Het probleem is echter dat er onvoldoende aandacht is geweest voor de mogelijke negatieve externe effecten en onbedoelde gevolgen van deze technologieën. Het meest voor de hand liggende risico is dat ongekend krachtige voorspellingsinstrumenten de surveillance-capaciteit van autoritaire regimes zullen versterken.
Een veel genoemd voorbeeld is het Chinese ‘sociale kredietstelsel,’ dat gebruik maakt van kredietverleden, strafrechtelijke veroordelingen, online gedrag en andere gegevens om een score toe te kennen aan elke persoon in het land. Die scores kunnen dan bepalen of iemand een lening kan krijgen, toegang heeft tot een goede school, per trein of vliegtuig kan reizen, enzovoort. Hoewel China’s systeem wordt aangeprezen als een instrument om de transparantie te verbeteren, is het ook een instrument voor sociale controle.
Maar zelfs als ze worden gebruikt door ogenschijnlijk goedwillende democratische regeringen, bedrijven die zich richten op sociale impact en progressieve non-profitorganisaties, kunnen voorspellende instrumenten suboptimale resultaten opleveren. Ontwerpfouten in de onderliggende algoritmen en bevooroordeelde datasets kunnen leiden tot inbreuken op de privacy en op identiteit gebaseerde discriminatie. Dit is al een flagrant probleem geworden in het strafrecht, waar voorspellende analyses routinematig raciale en sociaaleconomischeongelijkheden bestendigen. Zo heeft een AI-systeem dat is ontwikkeld om rechters in de VS te helpen de kans op recidive te beoordelen, ten onrechte vastgesteld dat zwarte verdachten een veel groter risico op recidive lopen dan witte verdachten.
At a time when democracy is under threat, there is an urgent need for incisive, informed analysis of the issues and questions driving the news – just what PS has always provided. Subscribe now and save $50 on a new subscription.
Subscribe Now
De bezorgdheid over hoe AI de ongelijkheid op de werkplek kan vergroten neemt ook toe. Tot nu toe hebben voorspellende algoritmen de efficiëntie en winsten verhoogd op manieren die managers en aandeelhouders ten goede komenten koste van de gewone werknemers (vooral in de gig-economie).
In al deze voorbeelden houden AI-systemen de samenleving een spiegel voor, waarin onze vooroordelen en ongelijkheden gereflecteerd en uitvergroot worden. Zoals technologie-onderzoeker Nanjira Sambuli opmerkt, verergert digitalisering eerder reeds bestaande politieke, sociale en economische problemen dan dat ze ze verbetert.
Het enthousiasme om voorspellende instrumenten te gebruiken moet worden afgewogen tegen een geïnformeerde en ethische afweging van de bedoelde en onbedoelde effecten ervan. Wanneer de effecten van krachtige algoritmen worden betwist of onbekend zijn, zou het voorzorgsbeginsel de inzet ervan moeten ontraden.
We moeten voorkomen dat AI het zoveelste terrein wordt waarop besluitvormers om vergiffenis vragen in plaats van om toestemming. Daarom hebben de Hoge Commissaris voor de Mensenrechten van de Verenigde Naties en anderenopgeroepen tot een moratorium op de invoering van AI-systemen totdat de ethische en mensenrechtenkaders zijn bijgewerkt om rekening te kunnen houden met de potentiële schade ervan.
Om de juiste kaders te creëren moet een consensus worden bereikt over de basisbeginselen die ten grondslag moeten liggen aan het ontwerp en het gebruik van voorspellende AI-instrumenten. Gelukkig heeft de wedloop naar AI ook geleid tot een golf van onderzoek, initiatieven, instituten en netwerken op het gebied van ethiek. En hoewel het maatschappelijk middenveld het voortouw heeft genomen, zijn ook intergouvernementele instanties zoals de OESO en de UNESCO hierbij betrokken.
De VN werkt al minstens sinds 2021 aan universele normen voor ethische AI. Bovendien heeft de Europese Unie een AI-wet voorgesteld – de eerste dergelijke inspanning van een grote regelgever – die bepaalde toepassingen (zoals die welke lijken op het Chinese sociale-kredietstelsel) zou blokkeren en andere toepassingen met een hoog risico zou onderwerpen aan specifieke eisen en toezicht.
Tot nu toe is dit debat vooral in Noord-Amerika en West-Europa gevoerd. Maar lage- en middeninkomenslanden hebben hun eigen basisbehoeften, zorgen en sociale ongelijkheden waarmee rekening moet worden gehouden. Er is overvloedig onderzoek dat aantoont dat technologieën die zijn ontwikkeld door en voor markten in geavanceerde economieën vaak ongeschikt zijn voor minder ontwikkelde economieën.
Als de nieuwe AI-instrumenten eenvoudigweg worden ingevoerd en op grote schaal worden gebruikt voordat de nodige bestuursstructuren zijn opgezet, kunnen zij makkelijk meer kwaad dan goed doen. Met al deze kwesties moet rekening worden gehouden als we werkelijk universele beginselen voor AI-governance willen opstellen.
Het Igarapé-instituut en New America erkennen deze lacunes en hebben onlangs een nieuwe Global Task Force on Predictive Analytics for Security and Development opgericht. De taskforce zal voorvechters van digitale rechten, partners uit de publieke sector, tech-ondernemers en sociale wetenschappers uit Noord- en Zuid-Amerika, Afrika, Azië en Europa bijeenbrengen om de beginselen vast te stellen voor het gebruik van voorspellende technologieën voor openbare veiligheid en duurzame ontwikkeling in het Mondiale Zuiden.
Het formuleren van deze beginselen en normen is slechts de eerste stap. De grotere uitdaging zal zijn om de internationale, nationale en subnationale samenwerking en coördinatie tot stand te brengen die nodig zullen zijn om ze in wetgeving en praktijk om te zetten. In de wereldwijde haast om nieuwe voorspellende AI-instrumenten te ontwikkelen en in te zetten, zijn kaders voor schadepreventie essentieel om een veilige, welvarende, duurzame en mensgerichte toekomst te garanderen.
To have unlimited access to our content including in-depth commentaries, book reviews, exclusive interviews, PS OnPoint and PS The Big Picture, please subscribe
At the end of a year of domestic and international upheaval, Project Syndicate commentators share their favorite books from the past 12 months. Covering a wide array of genres and disciplines, this year’s picks provide fresh perspectives on the defining challenges of our time and how to confront them.
ask Project Syndicate contributors to select the books that resonated with them the most over the past year.
RIO DE JANEIRO – De afgelopen maanden zullen wellicht worden herinnerd als het moment waarop voorspellende kunstmatige intelligentie mainstream ging. Hoewel voorspellingsalgoritmen al tientallen jaren worden gebruikt, heeft de introductie van toepassingen zoals OpenAI’s ChatGPT3 – en de snelle integratie ervan met Microsofts Bing-zoekmachine – wellicht de sluizen geopend als het gaat om gebruiksvriendelijke AI. Binnen enkele weken na de release van ChatGPT3 had het programma al honderd miljoen maandelijkse gebruikers aangetrokken, van wie velen ongetwijfeld ook al de duistere kant ervan hebben ervaren – van beledigingen en bedreigingen tot desinformatie en een aangetoond vermogen om kwaadaardige code te schrijven.
De chatbots die de krantenkoppen halen zijn slechts het topje van de ijsberg. AI’s voor het creëren van tekst, spraak, kunst en video boeken snelle vorderingen, met verstrekkende gevolgen voor bestuur, handel en het maatschappelijk leven. Het is dan ook niet verwonderlijk dat het kapitaal de sector overspoelt, waarbij zowel overheden als bedrijven investeren in start-ups om de nieuwste instrumenten voor machinaal leren te ontwikkelen en in te zetten. Deze nieuwe toepassingen combineren historische gegevens met machinaal leren, natuurlijke taalverwerking en deep learning om de waarschijnlijkheid van toekomstige gebeurtenissen te bepalen.
Cruciaal is dat de toepassing van de nieuwe natuurlijke taal verwerkende en generatieve AI’s niet beperkt blijft tot de rijke landen en bedrijven als Google, Meta en Microsoft die het voortouw hebben genomen bij de ontwikkeling ervan. Deze technologieën verspreiden zich al over de lage- en middeninkomenslanden, waar voorspellende analyses voor alles van het terugdringen van stedelijke ongelijkheid tot het aanpakken van voedselonzekerheid een enorme belofte inhouden voor overheden, bedrijven en ngo’s met weinig geld om de efficiëntie te verbeteren en sociale en economische voordelen te ontsluiten.
Het probleem is echter dat er onvoldoende aandacht is geweest voor de mogelijke negatieve externe effecten en onbedoelde gevolgen van deze technologieën. Het meest voor de hand liggende risico is dat ongekend krachtige voorspellingsinstrumenten de surveillance-capaciteit van autoritaire regimes zullen versterken.
Een veel genoemd voorbeeld is het Chinese ‘sociale kredietstelsel,’ dat gebruik maakt van kredietverleden, strafrechtelijke veroordelingen, online gedrag en andere gegevens om een score toe te kennen aan elke persoon in het land. Die scores kunnen dan bepalen of iemand een lening kan krijgen, toegang heeft tot een goede school, per trein of vliegtuig kan reizen, enzovoort. Hoewel China’s systeem wordt aangeprezen als een instrument om de transparantie te verbeteren, is het ook een instrument voor sociale controle.
Maar zelfs als ze worden gebruikt door ogenschijnlijk goedwillende democratische regeringen, bedrijven die zich richten op sociale impact en progressieve non-profitorganisaties, kunnen voorspellende instrumenten suboptimale resultaten opleveren. Ontwerpfouten in de onderliggende algoritmen en bevooroordeelde datasets kunnen leiden tot inbreuken op de privacy en op identiteit gebaseerde discriminatie. Dit is al een flagrant probleem geworden in het strafrecht, waar voorspellende analyses routinematig raciale en sociaaleconomischeongelijkheden bestendigen. Zo heeft een AI-systeem dat is ontwikkeld om rechters in de VS te helpen de kans op recidive te beoordelen, ten onrechte vastgesteld dat zwarte verdachten een veel groter risico op recidive lopen dan witte verdachten.
HOLIDAY SALE: PS for less than $0.7 per week
At a time when democracy is under threat, there is an urgent need for incisive, informed analysis of the issues and questions driving the news – just what PS has always provided. Subscribe now and save $50 on a new subscription.
Subscribe Now
De bezorgdheid over hoe AI de ongelijkheid op de werkplek kan vergroten neemt ook toe. Tot nu toe hebben voorspellende algoritmen de efficiëntie en winsten verhoogd op manieren die managers en aandeelhouders ten goede komen ten koste van de gewone werknemers (vooral in de gig-economie).
In al deze voorbeelden houden AI-systemen de samenleving een spiegel voor, waarin onze vooroordelen en ongelijkheden gereflecteerd en uitvergroot worden. Zoals technologie-onderzoeker Nanjira Sambuli opmerkt, verergert digitalisering eerder reeds bestaande politieke, sociale en economische problemen dan dat ze ze verbetert.
Het enthousiasme om voorspellende instrumenten te gebruiken moet worden afgewogen tegen een geïnformeerde en ethische afweging van de bedoelde en onbedoelde effecten ervan. Wanneer de effecten van krachtige algoritmen worden betwist of onbekend zijn, zou het voorzorgsbeginsel de inzet ervan moeten ontraden.
We moeten voorkomen dat AI het zoveelste terrein wordt waarop besluitvormers om vergiffenis vragen in plaats van om toestemming. Daarom hebben de Hoge Commissaris voor de Mensenrechten van de Verenigde Naties en anderen opgeroepen tot een moratorium op de invoering van AI-systemen totdat de ethische en mensenrechtenkaders zijn bijgewerkt om rekening te kunnen houden met de potentiële schade ervan.
Om de juiste kaders te creëren moet een consensus worden bereikt over de basisbeginselen die ten grondslag moeten liggen aan het ontwerp en het gebruik van voorspellende AI-instrumenten. Gelukkig heeft de wedloop naar AI ook geleid tot een golf van onderzoek, initiatieven, instituten en netwerken op het gebied van ethiek. En hoewel het maatschappelijk middenveld het voortouw heeft genomen, zijn ook intergouvernementele instanties zoals de OESO en de UNESCO hierbij betrokken.
De VN werkt al minstens sinds 2021 aan universele normen voor ethische AI. Bovendien heeft de Europese Unie een AI-wet voorgesteld – de eerste dergelijke inspanning van een grote regelgever – die bepaalde toepassingen (zoals die welke lijken op het Chinese sociale-kredietstelsel) zou blokkeren en andere toepassingen met een hoog risico zou onderwerpen aan specifieke eisen en toezicht.
Tot nu toe is dit debat vooral in Noord-Amerika en West-Europa gevoerd. Maar lage- en middeninkomenslanden hebben hun eigen basisbehoeften, zorgen en sociale ongelijkheden waarmee rekening moet worden gehouden. Er is overvloedig onderzoek dat aantoont dat technologieën die zijn ontwikkeld door en voor markten in geavanceerde economieën vaak ongeschikt zijn voor minder ontwikkelde economieën.
Als de nieuwe AI-instrumenten eenvoudigweg worden ingevoerd en op grote schaal worden gebruikt voordat de nodige bestuursstructuren zijn opgezet, kunnen zij makkelijk meer kwaad dan goed doen. Met al deze kwesties moet rekening worden gehouden als we werkelijk universele beginselen voor AI-governance willen opstellen.
Het Igarapé-instituut en New America erkennen deze lacunes en hebben onlangs een nieuwe Global Task Force on Predictive Analytics for Security and Development opgericht. De taskforce zal voorvechters van digitale rechten, partners uit de publieke sector, tech-ondernemers en sociale wetenschappers uit Noord- en Zuid-Amerika, Afrika, Azië en Europa bijeenbrengen om de beginselen vast te stellen voor het gebruik van voorspellende technologieën voor openbare veiligheid en duurzame ontwikkeling in het Mondiale Zuiden.
Het formuleren van deze beginselen en normen is slechts de eerste stap. De grotere uitdaging zal zijn om de internationale, nationale en subnationale samenwerking en coördinatie tot stand te brengen die nodig zullen zijn om ze in wetgeving en praktijk om te zetten. In de wereldwijde haast om nieuwe voorspellende AI-instrumenten te ontwikkelen en in te zetten, zijn kaders voor schadepreventie essentieel om een veilige, welvarende, duurzame en mensgerichte toekomst te garanderen.
Vertaling: Menno Grootveld