Ga naar hoofdinhoud

The Challenge Risico’s van AI

De lijst met risico’s van AI-technologie is lang en gevarieerd: van discriminatie en gebrek aan transparantie tot de vraag wie verantwoordelijk is. Maar zonder risico’s kun je niet innoveren. Hoe gaan we daarmee om? Een discussie tussen TU hoogleraar Inald Lagendijk en WRR-onderzoeker en jurist Monique Steijns.

Tekst Bennie Mols

Wat gebruiken jullie zelf aan AI-toepassingen en zijn jullie je daarbij bewust van risico’s?

Steijns: “Ik gebruik het aanbevelingssysteem van streamingsdiensten. Verder heb ik nog niet zo lang geleden mijn rijbewijs gehaald, en nu is Google Maps veel aanwezig in de auto. Afgelopen zomer stuurde Google Maps me via een kleine weg om een file heen, en met mij nog een boel andere auto’s. Wat zouden de mensen die aan dat weggetje wonen daarvan vinden, dacht ik. Ook gebruik ik Google Translate veel, vooral om voor mijn familie te verbergen dat mijn Frans niet zo goed is. Daarbij vraag ik me wel af in hoeverre Google woorden met een bepaalde lading juist wel of juist niet gebruikt en hoe dat de vertaling beïnvloedt. In de categorie onbedoelde neveneffecten had ik twee jaar geleden een ervaring met de foto-app van mijn iPhone. Terwijl ik bij een gezellig etentje zat, besloot de automatische terugbliktoepassing me ineens foto’s te laten zien van de recente begrafenis van mijn vader. Dat vond ik pijnlijk.”
Lagendijk: “Ik gebruik zo’n beetje dezelfde verzameling AI-toepassingen. Bij aanbevelingssystemen ben ik me bewust van het filterbubbel-effect en probeer ik af en toe bewust buiten die bubbel te kijken.

‘Ik vind dat er nu wel erg veel aandacht is voor de negatieve kanten, terwijl AI zoveel voor­delen kan bieden’

Verder gebruik ik regelmatig de automatische omzetting van spraak naar tekst. Wat ik ronduit vervelend vind, zijn op maat gesneden reclames van dingen die ik net heb besteld, en die je dan nog wekenlang te zien krijgt. Maar we hebben het nu over persoonlijk gebruik van AI. Wat veel mensen zich niet realiseren, is dat 80 tot 90 procent van de AI-systemen hun werk op de achtergrond doet van belangrijke diensten die wij allemaal gebruiken. Denk aan het optimaliseren van het energienet of logistieke ketens.”

Monique Steijns is jurist en als wetenschappelijk medewerker van de Wetenschappelijke Raad voor het Regeringsbeleid (WRR) betrokken bij het project Artificiële Intelligentie en publieke waarden. In 2021 publiceerde zij het WRR-Working Paper ‘AI van repliek gediend? Een verkenning van tegenmacht vanuit maatschappelijke organisaties’. Steijns maakt deel uit van de begeleidingscommissie Mensgerichte AI/ ELSA LABS en is tevens voorzitter van het Nederlands Juristen Comité voor de Mensenrechten.

Professor Inald Lagendijk is hoogleraar computing-based society aan de TU Delft. Hij stond aan de basis van de Nederlandse AI Coalitie NL AIC, en is onder andere bestuurslid van het nationale AiNed programma en CTO van het nationale innovatie topteam Dutch Digital Delta.

Zijn er wat jullie betreft domeinen waar AI a priori niet gebruikt mag worden omdat de risico’s daar te groot zijn?

Lagendijk: “Ik denk niet dat je a priori domeinen moet uitsluiten van AI, maar dat je het per geval moet bekijken. Is het nodig? Waar ik moeite mee heb: tegenwoordig lijkt alles AI te moeten bevatten. Waarom? Wat biedt het extra? AI brengt nieuwe problemen met zich mee, zoals betrouwbaarheid en reproduceerbaarheid. Het gesprek daarover ontbreekt vaak. Het vergroten van de betrouwbaarheid zie ik als een van de belangrijkste AI-uitdagingen voor de komende jaren.”
Steijns: “Het belangrijkste vind ik dat we de randvoorwaarden goed gaan formuleren. Ik maak me zorgen over kwetsbare groepen in de samenleving. Vaak is juist van deze mensen veel data verzameld, bijvoorbeeld omdat zij gebruikmaken van sociale voorzieningen. We hebben inmiddels gezien dat ze nadelig geraakt kunnen worden door de toepassing van AI-systemen. Dat is zorgelijk. Dus ik denk dat de vraag inderdaad is of we AI in bepaalde domeinen moeten willen gebruiken.” Lagendijk: “In de afgelopen tien jaar was de AI-ontwikkeling sterk technologie gedreven: het kan, dus we doen het. Daar zit iets tussen, en dat hebben we nog niet goed geregeld. Ik ben een groot voorstander van het bij elkaar brengen van de sociale en de technologische kant. Aan de TU Delft proberen we technische AI-specialisten op te leiden met het nadenken over maatschappelijke en -ethische aspecten. Het omgekeerde zou ook moeten gebeuren: sociale en geesteswetenschappers laten leren over AI-technologie.”

Steijns: “Hier aan tafel voeren wij dit gesprek nu wel, maar ik vind dat dit soort gesprekken maatschappijbreed nog veel te weinig plaatsvindt. Het is heel belangrijk om mensen met verschillende achtergronden aan tafel te hebben: niet alleen AI-technici, maar ook juristen, ethici, burger- en maatschappelijke organisaties. AI-ontwikkeling moet niet in een koker plaatsvinden.”

Wat is AI?

AI staat voor het Engelse Artificial Intelligence, in het Nederlands vertaald als artificiële of kunstmatige intelligentie. Als wetenschap is AI het bestuderen van machines die dingen doen die intelligentie vereisen wanneer mensen ze zouden doen. Dat is een handige definitie die de moeilijke, filosofische vraag wat intelligentie is bewust uit de weg gaat. Tot het wetenschappelijke vakgebied AI behoren vaardigheden als plannen, redeneren, informatie zoeken, kennisrepresentatie, taalverwerking, beeldherkenning en leren. Vooral in dat laatste aspect, leren, is AI het afgelopen decennium steeds beter geworden. Daarnaast heeft de wetenschap van de AI altijd als doel gehad om menselijke intelligentie beter te begrijpen. Het idee is dat we iets pas echt begrijpen wanneer we het ook kunnen nabouwen. Als technologie bouwt AI machines die kunnen waarnemen, denken en handelen. Inmiddels wordt AI gezien als een algemeen toepasbare technologie die vrijwel elke economische en maatschappelijke sector verandert, die toegepast wordt door bedrijven en overheden, en die door burgers, consumenten en wetenschappers volop wordt gebruikt.

‘Mensen­rechten moeten voorop staan. Binnen dat kader kun je innoveren’

Lagendijk: “Maar dat gesprek is niet eenvoudig. Zo staat er in de Europese AI Act dat biometrische AI-toepassingen niet gebruikt mogen worden wanneer ze een disproportioneel effect hebben. Wat bedoelen we dan met ‘disproportioneel effect’? Mag ik in mijn kleine winkel een camera ophangen omdat ik tienmaal per jaar beroofd word? Mogen we camera’s op stations ophangen? Wat er in die AI Act staat is alleen maar het begin van een gesprek, niet het eind, terwijl het soms wel zo wordt gepresenteerd.”

Monique, jij hebt voor de WRR onderzoek gedaan naar hoe maatschappelijke organisaties in Nederland AI-ontwikkelingen kunnen beïnvloeden via wat jij ‘tegenmacht’ noemt. Wat is dat?

Steijns: “Mijn inspiratie vond ik in recente Amerikaanse ontwikkelingen. In bepaalde staten is in de afgelopen jaren gezichtsherkenning verboden. Dat gebeurde onder druk van sociale rechtvaardigheidsorganisaties. In kleinere verbanden zijn bewoners bijvoorbeeld in opstand gekomen tegen het gebruik van automatische camerasystemen in hun flatgebouwen. Ik vroeg me af wat er in Nederland gebeurt. Daarvoor heb ik drie clusters bekeken: verzet en protest, zoals in de Amerikaanse voorbeelden; meebewegen en meedenken, zoals we bijvoorbeeld in de begindagen van het internet zagen; en tenslotte confronteren en controleren. Alle drie de clusters zijn vormen van tegenmacht.”

En welke conclusies heb je uit je onderzoek getrokken?

Steijns: “Er is in Nederland slechts een beetje sprake van tegenmacht. Het zit in een prille fase. Bovendien is er een groot verschil tussen de verschillende maatschappelijke organisaties. De meer traditionele organisaties, zoals vakbonden, hebben AI bijna niet op hun netvlies staan. Bij mensenrechtenorganisaties al veel meer. Organisaties die gespecialiseerd zijn in het digitale domein, hebben er zeker oog voor, maar hebben de neiging om op zichzelf te opereren. Om betere tegenmacht te organiseren, zouden organisaties meer moeten samenwerken. Wat bijvoorbeeld Bits of Freedom weet, zou heel nuttig zijn voor de traditionele organisaties, want die hebben geen capaciteit en geld om zich in AI te verdiepen.”

Inald, hoe kijk jij naar die tegenmacht?

Lagendijk: “Ik heb moeite met de term ‘tegenmacht’. Dat roept bij mij een beeld op van ‘nee’ zeggen in plaats van het zoeken naar samenwerking. Ik zou maatschappelijke partijen graag willen laten meedenken. Hoe kan AI nuttig voor ze zijn?”
Steijns: “Ik doel met de term tegenmacht niet op het feitelijk ‘ergens tegen zijn’, maar op het systeem dat in de samenleving zorgt voor checks and balances. Dat kan onder meer bestaan uit het controleren en confronteren van degene die de macht ergens over heeft, maar ook uit richting geven en meedenken.”

Monique, in het WRR-onderzoek heb je ook een vergelijking getrokken tussen de ontwikkeling van het internet en die van AI. Wat kunnen we daaruit leren?

Steijns: “Bij de opkomst van het publieke internet in de jaren negentig zag je in eerste instantie veel meedenken en bijsturen vanuit maatschappelijke organisaties. Dat toe-eigenen van de technologie mis ik bij AI. Ik denk dat dat komt door de tech-industrie. Hun AI-toepassingen zijn weinig toegankelijk.” Lagendijk: “Bij het internet was De Digitale Stad van onder anderen Marleen Stikker er inderdaad vlot bij. Nu bewegen de techgiganten heel snel.” [De Digitale Stad (1994), een initiatief van ‘internetpionier’ Marleen Stikker streefde naar een laagdrempelig internet met toegang voor iedereen. In Amsterdam kwamen er publieke terminals waarmee iedereen het net op kon, red.] Steijns: “De eerste deelnemers van het internet waren zowel gebruikers als producenten van de technologie. Nu wordt AI vooral door grote bedrijven ontwikkeld. Ook de data zijn vooral in hun handen. Dan is het lastig om AI mede vorm te geven vanuit maatschappelijke organisaties. Toch is dat een van mijn aanbevelingen: zorg dat je relevante organisaties al in het beginstadium betrekt bij de ontwikkeling. Dan hadden we misschien zo’n gerechtelijke uitspraak als die tegen het invoeren van het Systeem Risico Indicatie (SyRI) kunnen voorkomen.”

ai
initiative

8

faculiteiten

7

thema’s

24

AI Labs

(meer dan)

1400

onderzoekers

32

afdelingen

(alle)

28.000

studenten

96

promovendi

10

online cursussen

voor professionals

25 +

partners

(bedrijven, gemeenten,
universiteiten, internationaal)

TUDELFT.NL/AI

Mondai, House of AI

Deze zomer opende Mondai zijn deuren, een laagdrempelige ontmoetingsplek op de campus voor wetenschappers, professionals, alumni, studenten en geïnteresseerd publiek. Wetenschap, onderwijs en innovatie komen hier samen aan de hand van een programmering van lezingen, workshops, hackatons en andere evenementen. Ook vindt hier samenwerking plaats tussen TU Delft, Erasmus Universiteit Rotterdam, Erasmus MC, Universiteit Leiden en LUMC. Meer info over dit ‘House of AI’ en de agenda met activiteiten staat op mondai.nl.

Foto: Het Delft AI Energy Lab onderzoekt hoe nieuwe, op AI gebaseerde methoden het beheer van energiesystemen met hernieuwbare energiebronnen mogelijk maken.

Hoe moeten we omgaan met het spanningsveld tussen aan de ene kant innoveren – en dus het nemen van risico’s – en anderzijds juist het beperken van mogelijke negatieve gevolgen van AI, en dus het beperken van risico’s?

Lagendijk: “De medische wereld werkt met degelijke procedures voor medicijn- en behandelingontwikkeling. Dat zouden we voor AI ook kunnen doen. Er zijn zoveel sectoren waar geëxperimenteerd moet worden: de auto-industrie, de voedingsindustrie, het onderwijs… Natuurlijk moet je die experimenten niet zomaar de maatschappij in gooien. Laten we gecontroleerde experimenten doen. Maar we moeten wel experimenteren en innoveren!”

‘Nederland was zo’n beetje het laatste land met een nationale AI-­strategie’

Steijns: “Goede controle is wat mij betreft dat fundamentele rechten voorop staan. Vaak worden echter de randen opgezocht, met het gevaar er makkelijk overheen te gaan. Doe het dan gewoon niet. Mensenrechten moeten voorop staan. Binnen dat kader kun je innoveren.

Bedrijven en overheden gaan soms systemen gebruiken waarvan ze nog helemaal niet goed weten hoe deze werken en welke gevolgen ze hebben. Vinden we het oké dat verzekeraars AI toepassen om premies te verhogen of mensen uit te sluiten? Bij de ontwikkeling van de sociale media in de afgelopen vijftien jaar hebben we dat gesprek onvoldoende gevoerd, en kijk waar we nu zijn beland met desinformatie en filterbubbels.”
Lagendijk: “Traditioneel is Nederland best goed in het bij elkaar brengen van de engineering en het sociale domein, je ziet dat bijvoorbeeld in de nationale AI-onderzoeksagenda terugkomen. Maar we zijn erg traag in het doorpakken. Nederland was zo’n beetje het laatste land met een nationale AI-strategie. Het gesprek dat wij nu voeren, wordt in de politiek slechts flinterdun gevoerd.”
Steijns: “Het probleem is dat er in ons parlement heel weinig kennis over AI is. Bij de WRR hebben we diverse rapporten over digitalisering en over AI gepubliceerd, met aanbevelingen voor de politiek.

Het is mijn indruk dat de politiek op dit soort aanbevelingen reageert met het uitzetten van weer een nieuw onderzoek. Beslissingen worden vooruit geschoven.”
Lagendijk: “We kunnen een voorbeeld nemen aan Duitsland. Daar is AI chefsache.”

Tot slot, wat vinden jullie van de publieke perceptie van AI op dit moment?

Lagendijk: “AI is een systeemtechnologie die veel economische en maatschappelijke processen raakt, zowel in positieve als negatieve zin. Ik vind dat er nu wel erg veel aandacht is voor de negatieve kanten, terwijl AI zoveel voordelen kan bieden. Ja, er zijn problemen, maar laten we ze wel in proporties zien.”
Steijns: “Ik vind het juist goed dat we geen laat-maar-gaan-houding bij AI hebben en dat we het nu veel hebben over de risico’s. Juist het uitvergroten brengt de noodzakelijke discussie op gang.”

Meer lezen?