AI- en machine learning-specialist Stefan Leijnen is 28 juni 2019 geïnterviewd op Digital Waves, een YouTube-talkshow over technologie en innovatie. In het interview legt hij de verschillen tussen AI, machine learning en deep learning uit, de ethische dilemma’s en legt hij uit waarom hijzelf niet pessimistisch is.
Digital Waves is een online talkshow waarin Nederlandse innovators en ondernemers worden geïnterviewd. Het is een initiatief van Node1 en is inmiddels bezig met het tweede seizoen. In een eerdere aflevering werd Martin van Esschoten geïnterviewd over Robotic Process Automation.
Op vrijdag 28 juni werd hiervoor Stefan Leijnen geïnterviewd. Stefan is gepromoveerd op creativiteit en AI, één van de auteurs van de Artificial Intelligence Impact Assessment, associate professor en CTO van Warchild Nederland. Volgens Stefan zelf is het niet veel, maar vooral breed: “De rode draad is technologie, de impact hiervan op de samenleving en dat het allemaal zaken zijn die ik leuk vind”.
Het gehele interview duurt iets meer dan een uur en is zeker de moeite van het kijken/luisteren waard. Voor wie weinig tijd heeft: de meest interessante clips zijn hieronder weergegeven.
In discussies over de impact van AI worden de termen AI, machine learning, neurale netwerken en deep learning vaak door elkaar gebruikt. Stefan werd daarom gevraagd om deze termen uit te leggen: “Iedereen heeft verschillende definities. Hieronder zijn werkdefinities.
Een hot topic in de discussie over de rol van AI en of AI gevaarlijk is en dus via regels aan banden gelegd moet worden. Stefan Leijnen legt uit waarom dit zo’n lastig vraagstuk is:
Een paar jaar geleden was ik op een conferentie bij Google en er was een discussie over zelfrijdende auto’s. Men vroeg aan het publiek wat het grootste probleem is met zelfrijdende auto’s: vision, aansturing. etc. Het grootste pobleem was echter ethiek. Stel je hebt een regel dat de auto remt als er iemand oversteekt. Het probleem is dat de auto nooit zeker weet of er iemand oversteekt. Er is nooit honderd procent zekerheid. Je moet dus als programmeur een punt kiezen. Een kans die zo klein is dat je wel door durft te rijden. Iemand moet deze kans stellen. Hier krijg je rechtszaken van en morele zaken. Dit was een probleem in 2010, 2011. Nu hebben we deep learning. Niemand stelt meer de waardes in. Uit de data volgt wat de auto doet. Voor Google is dit fantastisch, namelijk dat het ethische vraagstuk niet meer bij de maker ligt. De verantwoordelijkheid is verlegd, en opgedeeld. Deze discussie over verantwoordelijkheid is nog niet uitgespeeld.
Meer informatie over dit onderwerp is te vinden in het artikel ‘The Moral Machine’ van Prof Iyad Rahwan, zie bijvoorbeeld dit artikel over driverless class in The New Yorker.
Je zou verwachten dat AI-experts pessimistisch zijn gegeven alle mogelijke risico’s: er zijn veel voorbeelden te vinden van problemen met AI-toepassingen. Daarom wordt er door ICT Institute meegewerkt aan de AI impact assessment als middel om AI vooraf te toetsen. Stefan is echter niet pessimistisch: ”
Ik ben helemaal niet angstig over de toekomst van AI. De angst die er is bij sommige mensen komt voor uit onbekendheid met AI en angst voor het onbekende: bijvoorbeeld als mensen horen dat hun baan over tien jaar niet bestaat. Ik denk na over oplossingen en contingenties, maar niet vanuit angst.
Bekijk het volledige gesprek hier: