“Machines mogen de mens nooit overbodig maken”

Verslag lustrumthemadag Artificial Intelligence & Ethics
Publicatiedatum: 25-5-2022

Artificiële intelligentie biedt kansen voor een duurzamer en inclusiever samenleving, maar brengt ook ethische risico’s met zich mee, zoals bias of maatschappelijke uitsluiting. Dat vraagt om een mensgerichte en waardegedreven aanpak met langetermijnperspectief. Alleen zo kunnen we aan volgende generaties de best mogelijke toekomst nalaten, zo kwam naar voren tijdens de tweede lustrumthemadag van Nyenrode Business Universiteit.

Gericht fraude opsporen, een complexe medische diagnose stellen of slim preventief onderhoud om een defecte roltrap of lift vóór te zijn. Allemaal voorbeelden waarbij artificiële intelligentie (AI) het menselijk brein verslaat als het gaat om snelheid, scope en succesratio. De inzet van AI gaat echter ook gepaard met ethische dilemma’s. Het verkennen daarvan staat centraal tijdens de tweede lustrumthemadag van Nyenrode Business Universiteit. “AI biedt grote kansen, maar de leiders van vandaag en morgen moeten zich ook bewust zijn van de bedreigingen en de impact ervan op mens en maatschappij”, stelt middagvoorzitter Jessica Peters-Hondelink, Director Executive Education aan Nyenrode.

Sterke en zwakke AI

Wat is kunstmatige intelligentie eigenlijk en wat is het níet? Jan Veldsink, lead Artifical Intelligence bij Rabobank en kerndocent AI en cybersecurity aan Nyenrode, neemt de fysieke en virtuele zaal mee op een tour d’horizon langs verwondering en waarheid. Onderweg worden een paar mythes doorgeprikt. “AI is geen magie of iets goddelijks”, stelt Veldsink. Het is gewoon software, gebouwd door de mens, met gebruik van bestaande data. De beeldvorming wordt vaak beheerst door ‘sterke’ AI: superintelligente systemen die de wereld zullen overnemen. Veldsink: “Als mensheid hebben we de plicht om dat toekomstscenario te voorkomen.” De huidige toepassingen vallen gelukkig nog gewoon onder ‘zwakke’ AI: computers die taken beter, efficiënter en sneller uitvoeren dan mensen. De basis is machine learning: je voert data in, de computer herkent razendsnel patronen – het gaat om correlaties, niet om causaliteit, relativeert Veldsink – en daaruit ontwikkel je een voorspellend model dat kan helpen om besluitvorming te optimaliseren.

Met algoritme fraude bestrijden

Waar mensen jaren voor nodig hebben, doen computers in weken, uren, minuten of seconden. Het menselijk brein kan slechts vijf tot zeven datapunten tegelijk aan, de computer duízenden. De toepassingen zijn eindeloos en inzetbaar in elke sector en voor elke discipline in de organisatie, schetst Veldsink. De Rabobank zet AI bijvoorbeeld in voor de bestrijding van fraude en witwassen. AI kan ook worden gebruikt voor het in kaart brengen van risico’s in de supplychain, voor verbetering van de onderhoudsplanning, of voor marketing: welk type zal volgend jaar het best verkopen? “Begin niet bij de technologie, maar bij de business, bij de zakelijke vragen of problemen”, adviseert Veldsink.

De les van Kasparov

Het allerbelangrijkste inzicht bij AI: de mens moet aan zet blijven, de controle houden en de eindbeslissing nemen. “Machines mogen de mens nooit overbodig maken.” Modellen zijn namelijk altijd verkeerd, ze maken fouten. Er blijven dus altijd mensen nodig om de uitkomsten te interpreteren en fouten te herstellen. Maar mensen zélf maken ook fouten, benadrukt Veldsink. “Bij het categoriseren van documenten voor de Rabobank maken mensen 20% fouten en AI slechts 5%.” De beste resultaten worden dan ook verkregen door een interactie tussen mens en computer, zodat systemen zich organisch kunnen ontwikkelen. Veldsink geeft het voorbeeld van schaaklegende Garry Kasparov, die in 1997 verloor tegen IBM-computer Deep Blue. Kasparov ontdekte in de jaren erna dat een middelmatige schaker in samenwerking met een AI, een topspeler kan verslaan. Inmiddels is Kasparov er dan ook van overtuigd dat mens en machine moeten samenwerken aan augmented intelligence: If you can’t beat them, join them.

Zorgen voor morgen

Verbinding vormt ook de rode draad in het verhaal van Jan van de Venis, mensenrechtenjurist en ombudspersoon bij het Lab Toekomstige Generaties. Allereerst intergenerationele verbinding. Inheemse volken kijken zeven generaties terug en zeven generaties vooruit, legt Van de Venis uit. “Ze willen een goede voorouder zijn voor hun kinderen en kindskinderen. Bij alles wat ze doen kijken ze naar de impact ervan op toekomstige generaties. Dat zorgen voor morgen hebben wij als moderne Westerse samenleving verloren.” Het Lab Toekomstige Generaties wil daar verandering in brengen en streeft naar een inclusieve en duurzame samenleving door het welzijn van de volgende zeven generaties te laten meewegen bij belangrijke beslissingen. Een van de ‘kwesties’ waarmee het lab zich bezighoudt is de vraag: hoe kunnen we toekomstige technologie ontwerpen die bijdraagt aan een inclusieve arbeidsmarkt en samenleving?

Ethisch anker

Bij de ontwikkeling van die technologie zijn drie ankers noodzakelijk, schetst Van de Venis. Allereerst: hanteer een ethisch anker voor het omgaan met de groeiende risico’s van AI. “Kijk naar het etnisch profileren in de toeslagenaffaire: zijn we ons voldoende bewust van vooroordelen in de systemen? Hoe voorkom je dat systemen worden gebruikt als ‘Chinese’ overheidscontrole, waarbij iemand die bijvoorbeeld te vaak door rood loopt zich niet meer kan inschrijven voor de universiteit? Komen de voordelen van AI alleen ten goede aan de rijkste of slimste mensen, of kan iederéén in de samenleving meeprofiteren en de ontwikkelingen bijbenen?” Het tweede anker: stel mensen en de mooiste toekomst centraal in het technologisch ontwerpproces. Zet AI in om de mensheid te dienen. En het derde anker: grijp de ruimte voor verbetering aan. “Wacht als werkgevers niet op Nederlandse en Europese regelgeving om te werken aan die inclusieve arbeidsmarkt van de toekomst”, luidt de oproep van Van de Venis. “Laten we nú al beginnen met het ontwikkelen van nieuwe technologie en de bijbehorende cultuur- en gedragsverandering.”

Moderne kathedralen bouwen

Bedrijven kunnen daarbij de roadmap volgen die het Lab Toekomstige Generaties heeft uitgetekend. Er zijn zeven stappen: definieer het doel van de nieuwe technologie, betrek er een diverse groep mensen bij en bepaal samen de waarden die de technologie moet ondersteunen, bedenk hoe die waarden bereikt gaan worden, onderzoek de impact van de nieuwe technologie, bijvoorbeeld in ecologische of sociale zin, kies voor co-creatie bij het ontwikkelproces, blijf testen en aanpassen en tot slot: monitor en evalueer. Een mensgerichte en waardegedreven aanpak met een langetermijnperspectief, als erfenis voor de generaties na ons. Van de Venis: “Onze voorouders gebruikten stenen om kathedralen te bouwen. Zo kunnen wij technologie en AI gebruiken om de best mogelijke toekomst te creëren voor onze toekomstige generaties.”

Garbage in, garbage out

Hoe ziet de Werdegang van artificiële intelligentie eruit, welke dilemma’s komen we daarbij tegen? Ronald Jeurissen, hoogleraar Bedrijfsethiek aan Nyenrode, laat een paar aansprekende voorbeelden zien. AI is volgens hem niets anders dan het terugbrengen van de wereld in rekeneenheden - iets wat de Babyloniërs al deden - en het herkennen van patronen daarin: “Domme, maar snelle technologie, met in principe eenvoudige algoritmen. En juist in die eenvoud schuilt de bedreiging.” Want je kan AI-systemen bijvoorbeeld gebruiken om fake gezichten te produceren en te ‘herkennen’ als echt. En als je computers voedt met data die zijn gebaseerd op vooroordelen, is ook de output biased. Garbage in, garbage out. Jeurissen laat een afbeelding zien van een vrouw achter een pc, die door het algoritme werd aangemerkt als een man. Het systeem baseerde zich ten onrechte op de computer in plaats van de persoon erachter als ‘bewijs’. Kennelijk was het algoritme getraind met alleen foto's van mannen achter computers, ergo: de persoon op het plaatje moet een man zijn.

Ingebouwde sociale normen

Technologie is nooit waardevrij, benadrukt Jeurissen. Hij haalt de Franse socioloog en filosoof Bruno Latour aan, die stelt dat mensen (agents) en dingen (artefacten) beide actoren zijn die in netwerken gezamenlijk waarden realiseren. Abstract? Nee hoor, denk maar aan een winkelwagentje. Dat bevat via het muntslot de ingebouwde sociale norm dat het netjes teruggebracht moet worden. Of neem de echo tijdens een zwangerschap: als de foetus niet aan de maatschappelijke norm voldoet, plaatst dat de ouders voor zware ethische afwegingen. Meestal wordt AI alleen beoordeeld langs de technische dimensie, aldus Jeurissen, maar ook de menselijke dimensie moet worden meegenomen. “Je hebt bijvoorbeeld een divers team nodig om een algoritme zonder vooroordelen te trainen.” En dan is er nog de institutionele dimensie, zoals wet- en regelgeving. “Je kan een auto zó bouwen dat het technisch onmogelijk is om een menigte in te rijden. Maar de overheid kan dat gedrag ook wettelijk verbieden, dat is veel goedkoper.” Hetzelfde geldt voor de toepassing van AI: dat vraagt om de juiste mix van ethische verantwoordelijkheid, juridische instituties en normgedreven technologie.

Vakantiefoto’s op Facebook als red flag

Zowel de Europese Commissie als Unesco hebben inmiddels richtlijnen geformuleerd voor het omgaan met de ethische aspecten van AI. De EU hanteert vier waarden voor de inzet van AI: respect voor het menselijke recht op zelfbeschikking, het voorkomen van schade voor mens en maatschappij, rechtvaardigheid en uitlegbaarheid. Daarnaast moet aan een aantal kernvereisten worden voldaan. Zo moeten AI-toepassingen onder meer de privacy respecteren, mogen ze niet discrimineren en moet er sprake zijn van diversiteit, transparantie en verantwoording. Mooie woorden, maar hoe weerbarstig is de praktijk? Om dat te ervaren, kunnen de deelnemers aan de lustrumthemadag aan de slag met de casus KeenBee (de naam is fictief), een algoritme dat gemeenten kunnen inzetten voor het opsporen van bijstandsfraude. KeenBee 1.0 was een expertmodel, gebaseerd op grote hoeveelheden data die door een team experts op frauderisico konden duiden, variërend van het betalen van hondenbelasting tot vakantiefoto’s op Facebook en waterverbruik. Arbeidsintensief, belastend voor onschuldige burgers en een ‘successcore’ van slechts 14%. Die nadelen werden ondervangen door KeenBee 2.0, een AI-model dat het algoritme slechts trainde met de fraudegeschiedenis in de bestaande bijstandsdata. De successcore schoot omhoog naar maar liefst 84%, terwijl er minder data en minder inspectiegesprekken nodig waren.

Wel of niet op postcode selecteren?

Zowel in de zaal als online wordt in groepen aan de casus gewerkt. KeenBee mag dan wel succesvol zijn in de aanpak van bijstandsfraude, maar hoe scoort de casus in ethische zin, als de vier EU-waarden erop worden toegepast? Er wordt druk gediscussieerd. Wel of niet op postcode selecteren? Mag de overheid onschuldige burgers zomaar vragen of ze hun hondenbelasting wel betalen, of een wietplantage op zolder hebben? En welke rol speelt bias en maatschappelijke druk? Een deelnemer: “Toen Hongaren fraudeerden met huur- en zorgtoeslag, zei iedereen: dit moet stoppen. Daarmee hebben we een perverse prikkel gegeven aan de politiek, die uiteindelijk heeft geleid tot de toeslagenaffaire bij de Belastingdienst. We zijn als samenleving medeschuldig aan dat debacle.” In een andere groep wordt geworsteld met het gebrek aan transparantie. “Je weet niet op basis waarvan het systeem iemand als fraudeur aanmerkt”, zegt de ene deelnemer. “Maar daardoor kan een inspecteur een fraudemelding ook met een open mind en zonder vooroordelen controleren”, reageert een ander.

Is het systeem racistisch?

Geen enkele deelnemer waardeerde de casus als ethisch verantwoord, blijkt bij de plenaire terugkoppeling: de meesten vinden KeenBee in moreel opzicht gebrekkig. De focus ligt eenzijdig op het opsporen van zo veel mogelijk fraudeurs, de ethiek is verwaarloosd. De inzet van AI is niet transparant, er is een risico op bias (“Je weet niet of het systeem racistisch is”, klinkt het uit de zaal), onduidelijk is of de data wel in de juiste context zij gebruikt en werden de uitkomsten wel goed geïnterpreteerd? “Stel dat het systeem alleen vrouwen aanmerkt als fraudeurs?” Jeurissen benadrukt nogmaals het belang van een divers team bij de ontwikkeling van AI en de interpretatie van de uitkomsten. “AI is té belangrijk om alleen aan specialisten over te laten, je moet er een democratisch proces omheen bouwen.”

“Zet een filosoof of dichter in het AI-team”

Veldsink sluit daar tijdens de afsluitende vragenronde op aan: “Naast codeurs heb je sociale wetenschappers, gedragskundigen, filosofen en dichters in je team nodig, die helpen de juiste vragen te stellen en morele afwegingen mogelijk maken.” Systeemdenken is belangrijk, benadrukt Veldsink, niet alleen in AI-teams, maar al aan de vóórkant van het proces, bij het besluitvormingsproces in de organisatie: mogen we deze data wel gebruiken, van wie zijn die data eigenlijk, wat is de impact van onze acties? Hoe projecteer je dat op de planeet aarde en haar bewoners?, luidt een vraag uit de zaal. Van de Venis wijst op artikel 1 van de Universele Verklaring van de Rechten van de Mens: Alle mensen worden vrij en gelijk in waardigheid en rechten geboren. Zij zijn begiftigd met verstand en geweten, en behoren zich jegens elkander in een geest van broederschap te gedragen. Vaak redeneren we alleen vanuit de ratio, AI vraagt om een bredere benadering, aldus Van de Venis. “Een oude Israëlische stam maakte onderscheid tussen drie soorten lichamen: het denkende, het voelende en het handelende lichaam. Daar kunnen we veel van leren.” Een balans tussen hoofd, hart en handen, parafraseert middagvoorzitter Peters-Hondelink in haar slotwoord. Laat dat nou net ook al 75 jaar de onderwijsfilosofie van Nyenrode zijn. De lustrumthemadag wordt besloten met de robotdans onder leiding van professioneel danser Sam den Hollander: circa 100 deelnemers bewegen zich schokkerig in de zaal, of achter hun scherm. Voor even mens én machine.

Bekijk hier de aftermovie.