Sluit je aan bij andere lezers die gepassioneerd zijn over RPA en AI.
Bedankt! Je staat op onze nieuwsbrief lijst.
Oops! Er is iets fout gegaan met het verzenden van het formulier. Probeer het nog eens.

AI en ethiek: wie maakt eigenlijk de regels?

Silvain van Weers
7
minuten leestijd
DOOR
May 10, 2021

De tijd dat je voor het bouwen en gebruiken van een voorspelmodel een kamer vol genieën en een supercomputer nodig had, is voorbij. Tegenwoordig zet je in twee klikken een data warehouse op, inclusief machine learning capabilities, en kun je beginnen. Het inzetten van technologie waar je de ins en outs niet van kent neemt echter ook risico’s met zich mee. Mijn gedachten en drie concrete adviezen over het ethische verantwoord uitrollen van AI en andere technologie in je bedrijf deel ik graag met je.

Iedereen staat te dringen om de kracht van AI te gebruiken. De meeste bedrijven missen echter de kennis om echt te begrijpen wat de technologie doet. Want de technologie is makkelijk te krijgen, maar developers en technici die deze echt snappen zijn extreem schaars. Tegelijkertijd leven er rondom AI veel vragen. Hoe houden we controle over wat er in AI-algoritmen gebeurt? Hoe voorkomen we dat AI-algoritmen vooroordelen bevatten of ongelijkheid en onrecht bevorderen? De snelle adoptie van AI, gecombineerd met het gebrek aan diepgaande kennis erover, maakt het voor bedrijven lastig om grip te krijgen op de ethiek rondom het gebruik ervan.

Pas op voor de ‘superoplossing’

Ik merk dat ik het ook lastig vind om daar wat zinnigs over te zeggen. Dat komt vooral omdat AI en machine learning eigenlijk helemaal niet zo spannend zijn. Je voedt een systeem, dat uit vrij simpele rekensommen bestaat, met heel veel gegevens en zo zie je bepaalde verbanden die je met het blote oog misschien niet had gezien. Binnen in zo’n AI-algoritme kan in principe dus ethisch helemaal niet zo veel misgaan. De problemen ontstaan niet door de AI zelf, maar door hoe we ermee omgaan. Hoe makkelijker AI inzetbaar wordt, hoe meer we de neiging hebben om problemen op te lossen met AI. AI wordt een ‘superoplossing’, die zorgt dat we niet zelf meer heel hard over het probleem hoeven na te denken. Doordat we over steeds meer gegevens beschikken, laten we het uitpluizen van verbanden over aan de AI. Zo ontstaat er ‘datahonger’: we verzamelen steeds meer data, in de hoop dat AI daarmee onze problemen kan oplossen.  

Vragen over veiligheid en privacy

Natuurlijk zijn er vragen over veiligheid en privacy bij het werken met zoveel data. Maar dat is geen AI-probleem, dat is een algemeen probleem. De AVG dwingt ons, voor zover we dat daarvoor al niet deden, na te denken over de doelmatigheid van de gegevens die we verwerken. Als daar gevoelige informatie bij zit, moeten we ons serieus afvragen of we die wel moeten verwerken. Als je doel bijvoorbeeld is om mensen te behoeden voor schuldproblematiek en je modellen laten zien dat mensen met een migratie-achtergrond daar kwetsbaar voor zijn, is het goed om dat mee te nemen in je model. Maar als je hetzelfde model gebruikt om de marges van een kredietverstrekker te verhogen en dat leidt ertoe dat je mensen met een migratie-achtergrond minder leningen verstrekt, ga je een ethische grens over. Maar hadden we die vragen niet ook al toen we nog ouderwets met statistiek werkten?

Dark design patterns

Wat in de discussie vaak vergeten wordt, is dat software meestal geen beslissingen neemt. Dat doen mensen, op basis van adviezen van de software. De ethische vragen horen dus niet bij de technologie zelf, maar bij hoe we deze gebruiken. En dat geldt voor alle technologie. Kijk bijvoorbeeld eens naar boekingssites of webwinkels die de gebruiker een laatste conversie-duwtje geven door te melden dat anderen dezelfde aanbieding aan het bekijken zijn of in hun winkelmandje hebben liggen. Dat is onethisch, omdat de gebruiker die erdoor beïnvloed wordt niet kan controleren of het ook echt waar is. En er zijn voorbeelden van websites die deze getallen gewoon willekeurig genereren. Iedereen mag het er dan over eens zijn dat dit niet ethisch is, maar het gebeurt. Omdat het voor een hogere conversie zorgt. Dit soort misleidende elementen in gebruikerservaring noemen we dark design patterns. Dark design patterns worden geïmplementeerd met een paar simpele regels code. Daar hoeft geen AI aan te pas te komen. Toch leiden ze volgens mij direct naar de centrale vraag die we moeten stellen:

“Als technisch gesproken alles kan, hoe bepalen we dan wat we wél en wat we níet toelaatbaar vinden?”

Ethical frameworks

In een bedrijf dat puur wordt aangestuurd op harde performance-KPI’s kunnen zulke donkere patronen optreden. Neem de toeslagenaffaire, het onvermijdelijke voorbeeld van dit moment. Ook daar geldt dat je nauwelijks de maker van het fraudedetectie-systeem de schuld kunt geven. De politiek vertelde de Belastingdienst dat fraude keihard moest worden aangepakt en dat is wat er gebeurde. Met alle gevolgen van dien. De problemen beginnen niet bij de machines. De problemen beginnen als mensen zich beginnen te gedragen als machines. En dat risico zal alleen maar groter worden naarmate technologie toegankelijker wordt en er dus meer mensen bezig zijn met het ontwikkelen van allerlei functionaliteit. Met low-code, no-code, SaaS en RPA kan een citizen developer, een businessgebruiker met enige technische kennis, bijna alles maken. Om dat onder controle te houden en te werken aan bewustzijn van de maatschappelijke impact van technische beslissingen, is er behoefte aan ‘ethical frameworks. In zo’n framework leg je als organisatie vast wat je wel en vooral niet doet om je doelen te bereiken. Het is allereerst een set abstracte principes, maar binnen een ethical framework kun je ook gedetailleerd uitwerken hoe je omgaat met user experience, AI, data, RPA en andere technologieën. Komt er een nieuwe technologie binnen, dan kijk je eerst naar je ethisch framework voordat je die uitrolt en stel je specifieke randvoorwaarden.

Systemen die systemen bouwen

Dat kan al in de zeer nabije toekomst interessante vragen opleveren. Wat gebeurt er bijvoorbeeld als AI meer gaat doen dan alleen maar bestanden combineren en verbanden ontdekken? Hoe bouwen we een ethisch raamwerk rondom een computerprogramma dat zelf processen optimaliseert? Hoe zorg je dat zelflerende systemen niet ontsporen? Met AI-tools als GPT-3, een AI-model dat gigantische hoeveelheden tekst van internet analyseert om natuurlijke taal te leren begrijpen en schrijven, kun je een chatbot maken die zelf ontdekt wat de taal van je doelgroep is. Zo’n bot verandert dus op eigen houtje zijn eigen vocabulaire. Hoe zorg je dat die bot zich netjes blijft gedragen? Wat een ongepaste opmerking is en welke woorden en antwoorden wel en niet bij je bedrijfscultuur en richtlijnen passen? Daar moet je over nadenken voordat je dit soort technologie uitrolt, anders loop je achter de feiten aan. Wees je er continu bewust van dat eindgebruikers bescherming nodig hebben en denk na over ‘tipping points’: momenten waarop technische, organisatorische en culturele omstandigheden bij elkaar komen die ervoor kunnen zorgen dat je de controle verliest, zodat er slechte dingen kunnen gebeuren. Zoals dat gebeurde bij de Belastingdienst.

Wegkijken is geen optie meer

Hoe je dat precies aanpakt, daar is geen blauwdruk voor. Ook bij Node1 zijn we nog aan het ontdekken hoe we hiermee om moeten gaan. We zijn gewend om te werken met ‘harde’ techniek en het nadenken over ‘zachte’ onderwerpen als ethiek is ook voor ons een nieuwe uitdaging. Maar we hebben geen keuze. Wegkijken is geen optie meer. AI zit in alle systemen, van videospelers tot auto’s en van kassasystemen tot internetrouters. Soms zichtbaar, soms zonder dat we het weten. De RPA-oplossingen die wij voor klanten maken hebben vrijwel allemaal een AI-component. Leid je een bedrijf, dan moet je kennis van en een visie op AI te hebben. Natuurlijk vanwege de commerciële kansen die het biedt, maar vooral ook omdat je bedrijf anders bij je wegloopt. Analoog aan ‘shadow-IT’ krijg je dan ‘shadow-AI’ in je bedrijf: afdelingen, teams en individuele medewerkers die, bij gebrek aan sturing en goede ‘officiële’ AI-tooling, zelf de creditcard trekken en met AI in de cloud aan het werk gaan. Op die manier verlies je de controle en heb je dus ook geen middelen om een ethische norm af te dwingen.

Als je ethiek je geld gaat kosten...

Een ander aspect van de brede beschikbaarheid van technologie is standaardisering. Het is vaak het makkelijkst en het goedkoopst om met standaardsoftware te werken. Het is alleen de vraag of die software voldoet aan jouw ethical framework. En of je dat überhaupt vooraf kunt controleren. Dit resulteert in een dilemma: wanneer je maatwerk moet gaan bouwen, omdat standaardsoftware je niet voldoende invloed geeft op hoe je AI functioneert, kom je op het punt dat je ethische normen je hoogstwaarschijnlijk tot een hogere investering dwingen. En aangezien er altijd wel een commerciële businesscase is (en dus geen morele) vinden we dat natuurlijk niet altijd even leuk.  

Wat wij doen en wat jij kunt doen

Bij Node1 werken we momenteel aan een verzameling met best practices die we toepassen op alles wat we doen. Het is een goed idee om daarna te kijken of we kunnen opschrijven hoe we met technologie en ethiek omgaan. Als consultants en softwarebouwers staan we voor een aantal waarden die we meenemen in alle projecten die we doen. We willen technologie inzetten om de levens van mensen beter te maken. Die waarden zou ik graag willen vastleggen in een soort manifest, vergelijkbaar met de wetten die Asimov ooit formuleerde voor het gedrag van robots.

Helemaal ideaal zou het zijn als alle technologiebedrijven samen tot zo’n manifest zouden komen: een set basisregels voor het gebruik van technologie die ervoor zorgt dat we de menselijke kant van innovatie niet uit het oog verliezen. Maar zover is het nog niet. Voorlopig is het pionieren en moet jij, binnen jouw organisatie, zelf de lijnen uitzetten als het gaat om technologie en ethiek en werken aan bewustzijn en controle. Daarom geef ik je vast drie basisregels, die je kunt gebruiken als basis voor je eigen denken:

  1. Neem verantwoordelijkheid. Ethiek heeft sterk leiderschap nodig. De leiding van een bedrijf, afdeling of team moet ook het voortouw nemen in ethische kwesties. Maak dus zelf de regels en leef daar ook naar. Wacht daarbij niet op wetgeving, want die loopt per definitie achter op de technologische praktijk. En dat is goed, want wetgeving vooraf kan innovatie in de weg zitten. En die innovatie gaat zo snel, dat het nooit kan volstaan om je simpelweg aan de bestaande wetten te houden.
  1. Weet wat er gaande is. Het is essentieel dat je op de hoogte bent van de technologische ontwikkelingen en dat je een beeld hebt welke technologie er binnen je bedrijf gebruikt wordt en hoe dit ingezet wordt. Zorg ook dat je weet wat de technologische ontwikkelingen zijn. Omring je hiervoor met medewerkers en partners die het technologielandschap kennen en ervaring hebben in het toepassen ervan.  
  1. Denk na voordat je technologie uitrolt. Zorg dat je, voordat je technologie aan je organisatie ter beschikking stelt, hebt nagedacht over de donkere kanten ervan. Zo kom je niet voor verrassingen te staan.

Silvain van Weers
DOOR
Managing Partner
Silvain is Node1’s nieuwste partner en is een echte mensen IT'er - IT gaat namelijk vaker over mensen dan over systemen volgens Silvain. Hij weet met zijn brede technische kennis onschatbare waarde toe te voegen aan ieder project.
Aanbevolen inzichten
Deze website gebruikt cookies om je de beste gebruikerservaring te geven. Door het gebruik van de website stem je in met ons gebruik van cookies. Lees meer
Ik begrijp het