Artificial Intelligence Center

Hoogleraar Pim Haselager onderzoekt de menselijke kant van AI

Pim Haselager is onlangs aangesteld als hoogleraar Maatschappelijke implicaties van Kunstmatige Intelligentie aan de Radboud Universiteit. The Economic Board sprak met hem over zijn onderzoeksgebied, de positie van Nijmegen op AI-gebied en het belang van samenwerken.

Pim Haselager is verbonden aan de opleiding Artificial Intelligence en het Donders Institute for Brain, Cognition and Behaviour. Hij houdt zich al dertig jaar bezig met kunstmatige intelligentie, op zijn Engels vaak afgekort als AI. En dat doet hij nog steeds. Tot voorkort was hij universitair hoofddocent.

Algoritmes en menselijke controle

Pim-Haselager-Artifical-intelligence Haselager vertelt over zijn nieuwe functie als hoogleraar. “Ik ga me bezighouden met de inzet van kunstmatige intelligentie in de besluitvorming en met de effecten daarvan op het menselijk gedrag. Verantwoordelijkheid is daarbij eigenlijk het overkoepelende thema”.

We laten steeds meer over aan algoritmes

“We gebruiken met zijn allen veel algoritmes in het maatschappelijk verkeer. In de wereld van hypotheken en verzekeringen, bij het bepalen van kredietwaardigheid, in de nieuwsvoorziening, bij het daten, of bij het inschatten van de kans op recidive door de politie. Hoe meer we overlaten aan – soms zelflerende – algoritmes die lastig te controleren zijn, hoe meer de vraag ontstaat naar betekenisvolle menselijke controle. We willen natuurlijk verantwoord gebruik maken van AI en neurotechnologie. Dan heb je te maken met veel onderliggende thema’s zoals bijvoorbeeld vrije wil, zelfbeschikkingsrecht, verantwoordelijkheid, identiteit, vertrouwen en eerlijkheid.”

“Mijn streven is om de ontwikkeling en de inzet van AI-technologie, samen met allerlei stakeholders, maatschappelijk verantwoord te laten plaatsvinden”, vervolgt hij. “Ik richt me daarbij op de vertaling van ethische inzichten naar concrete applicaties. Er zijn genoeg ethische codes ontwikkeld, het gaat nu om de toepassingen.”

Gezonde chatbots en tegendenkende beslissingsondersteumers

Hij geeft twee voorbeelden uit de praktijk van verantwoord omgaan met AI. Het eerste voorbeeld is een chatbot die wordt ontwikkeld om te helpen bij stoppen met roken en te ondersteunen bij veilig vrijen. Deze is vooral gericht op jongeren. “Bij die leeftijd spelen zelfexpressie en soms ook rebellie een grote rol. De uitdaging is ervoor te zorgen dat die chatbots, die natuurlijk een gezond doel hebben, niet een overdreven sturend of zelfs manipulatief effect hebben. Daarnaast heb je in het geval van veilig vrijen ook nog te maken met een ander persoon. Die is niet per se aan de chatbot verbonden. Hoe ga je daarmee om? Dan heb je het dus over gevoeligheden op het gebied van autonomie en zelfbeschikkingsrecht. Dat moet je vertalen naar een applicatie.”

Zou een machine dat niet kunnen?

Het tweede voorbeeld gaat om beslissingsondersteunende systemen. Die zoeken informatie uit en komen dan met een suggestie, bijvoorbeeld in de juridische wereld. “De mens wordt daarbij geacht om die beslissing te monitoren en te controleren, net zoals de mens bij zelfrijdende auto’s ook eindverantwoordelijk blijft. Maar als een auto zelf rijdt, zullen mensen gaan vertrouwen op het systeem en op een gegeven moment iets anders gaan doen, zo blijkt nu al. Zo zal dat misschien ook wel gaan bij bijvoorbeeld juridische beslissingen. In feite ga je dan de menselijke verantwoordelijkheid uithollen. Daarom werk ik aan een systeem dat ‘tegendenkt’. Jij formuleert een diagnose en het systeem vraagt of je misschien ook nog aan andere datapunten hebt gedacht.” Politieteams werken soms met een menselijke tegendenker, om tunnelvisie te voorkomen, zo legt hij uit. “Zou een machine dat niet kunnen? Op die manier houd je mensen juist scherp in plaats van dat ze te veel gaan leunen op technologie.”

Bijzondere invalshoek

De Radboud Universiteit heeft een lange geschiedenis in de kunstmatige intelligentie. Haselager: “Ik werk hier al sinds 1990 en toen waren we er al mee bezig, onder de naam Cognitiewetenschap. Rond 2002 is dat AI geworden. Onze positie is bijzonder omdat AI hier, misschien wel als enige ter wereld, is verbonden aan de Faculteit der Sociale Wetenschappen, in plaats van onder de FNWI waar Informatica onder valt. We zijn op cognitief niveau – en vanwege het Donders Institute ook op neurocognitief niveau – met dit thema bezig. Onze studenten krijgen in het eerste jaar bijvoorbeeld ook les over menselijke informatieverwerking. Dat is heel nuttig, want veel knelpunten rondom AI hebben te maken met het menselijk gebruik van slimme technologie.”

Samenwerking

In zijn nieuwe rol zoekt Haselager de samenwerking. Met andere vakgebieden binnen de faculteit, want AI is een totaalpakketje, zo geeft hij aan. Samenwerken gebeurt daarnaast ook met overheden, maatschappelijke instanties en bedrijven. “Het is voor mij onder meer belangrijk om de maatschappelijke zorgen rond AI en neurotechnologie in kaart te brengen. Daarnaast zijn bedrijven heel belangrijk voor ons met het oog op stages. Volgend jaar beginnen we met een master-specialisatie die ‘Societal Impact of AI’ heet. In twee jaar tijd worden studenten opgeleid om maatschappelijke innovaties op het gebied van AI te kunnen begeleiden. Jonge studenten kunnen bij bedrijven en overheden een heel belangrijke informerende en adviserende rol spelen, ook bij ethische discussies. Ik verwacht dat daar veel vraag van bedrijven naar zal zijn. Dat kunnen bedrijven uit het hele land zijn, maar we kijken daarbij zeker ook specifiek naar de nabije regio.”

Bekijk onze minidocumentaire met Pim Haselager

Meer over AI

Dit artikel delen

FacebookTwitterEmailLinkedInWhatsApp
FacebookTwitterEmailLinkedInWhatsApp