Pause Giant AI Experiments: An Open Letter // Techprominenten pleiten voor tijdelijke rem op 'risicovolle' ontwikkeling AI

29-03-2023 17:07

Techprominenten pleiten voor tijdelijke rem op 'risicovolle' ontwikkeling AI

 

De ontwikkelingen op het gebied van AI (kunstmatige intelligentie) gaan momenteel zo snel, dat er een pauze moet worden ingelast. Dat schrijven tal van prominenten uit de wetenschap en techsector in een open brief. Onder de ruim 1100 ondertekenaars zitten techprominenten als Elon Musk en Steve Wozniak, en ook tal van academici.

 

De ontwikkelingspauze moet minstens zes maanden duren en zou moeten gelden voor alle AI die krachtiger is dan GPT-4, de nieuwste motor onder de bekende geavanceerde tekstgenerator ChatGPT. De pauze moet volgens de ondertekenaars gebruikt worden om veiligheidsmaatregelen op te stellen voor de omgang met de steeds complexere en geavanceerdere AI.

 

In de open brief wordt geschreven over AI-systemen die nu al kunnen concurreren met mensen bij bepaalde taken. De schrijvers vragen zich of er wel gestreefd moet worden naar het ontwikkelen van niet-menselijke systemen, die in de toekomst misschien wel slimmer zijn dan mensen en deze zullen vervangen.

 

Dit soort vraagstukken zouden volgens hen niet bij niet-gekozen leiders van techgiganten moeten liggen, maar bij politici.

 

'Vangrails nodig'

In de systemen van dit soort geavanceerde kunstmatige intelligentie kunnen vooroordelen of onjuiste informatie sluipen. Dat kan leiden tot bijvoorbeeld discriminatie, legt Catelijne Muller uit. Muller is voorzitter van ALLAI, een organisatie die het verantwoord gebruik van AI aanmoedigt.

 

Ze pleit niet alleen voor het in de gaten houden van systemen in de toekomst, maar ook van de systemen die er nu al zijn. Muller: "Er zijn nu al systemen die met autoritaire stem een onjuist antwoord geven op vragen die je stelt, zoals ChatGPT. Mensen nemen dit aan voor de waarheid."

 

Dit komt volgens haar doordat mensen geneigd zijn te vertrouwen op automatisering. "Het komt van een computer dus het zal wel goed zijn. Daarom moeten er vangrails geplaatst worden."

 

Ook Claes de Vreese, hoogleraar AI en Society aan de Universiteit van Amsterdam, beaamt de mogelijke gevaren van AI. "Denk aan de inzet van AI in gewapende situaties, in oorlogen. Er kan bijvoorbeeld worden geprogrammeerd dat AI besluit wanneer een gewapende droneactie ondernomen mag worden."

 

Ook noemt hij door ChatGPT-achtige programma's opgestelde phishingmails (valse e-mails, bedoeld om mensen of bedrijven op te lichten). "Deze kunnen bijvoorbeeld precies lijken op de fondsenwervingsmails die tijdens Amerikaanse verkiezingscampagnes verstuurd worden."

 

Europese wetgeving

Catelijne Muller denkt dat de open brief van de techprominenten "een enorm effect" kan hebben op het debat over AI. "Het momentum is juist", zegt ze, doelend op onder meer de Europese regelgeving voor kunstmatige intelligentie waar momenteel aan gewerkt wordt.

 

Er was toen niet direct veel aandacht voor general purpose-AI zoals ChatGPT, zegt Muller, oftewel kunstmatige intelligentie die ontwikkeld wordt zonder specifiek doel. "Dit neemt ineens een enorme vlucht, midden in het wetgevingsproces, waardoor het een kritiek onderwerp wordt."

 

Frits Vaandrager is hoofd van de afdeling Software Science bij de Radboud Universiteit en één van de ondertekenaars van de open brief. Recente rapporten onderstrepen volgens hem dat ChatGPT-achtige modellen gedrag vertonen dat wel erg slim is.

 

We weten nu niet precies waar de systemen op getraind worden of hoe ze gebouwd worden.

 

Catelijne Muller, voorzitter van ALLAI

"Ik maak mij zorgen over de miljarden investeringen van onder meer Microsoft, waarmee in sneltreinvaart tools worden ontwikkeld die in worden gezet in een commerciële situatie, want mensen willen geld verdienen. Het in bedwang houden van deze technologie ontbreekt", zegt Vaandrager.

 

"We weten nu niet precies waar de systemen op getraind worden of hoe ze gebouwd worden", zo vult Catelijne Muller aan. "Dit gebeurt namelijk allemaal achter gesloten deuren van commerciële bedrijven. Dit is zorgelijk."

 

Ondertekenaar Vaandrager maakt zich overigens weinig illusies dat de brief gaat helpen, maar vanwege zijn zorgen heeft hij toch zijn handtekening gezet: "Ik ben niet de specialist, ik ben gewoon een bezorgde wetenschapper".

 

Ook De Vreese denk niet dat een tijdelijke pauze van de AI-ontwikkeling de gouden sleutel is. "Het is wel belangrijk om het er echt nu over te hebben. We staan aan de vooravond van de risicovolle scenario's, of misschien is de avond al wel begonnen."

 

De open brief ie te lezen op

FutureOflife.ORG

https://futureoflife.org/open-letter/pause-giant-ai-experiments/