De toeslagenaffaire maakte voor Nederland pijnlijk duidelijk hoe groot de risico’s van geautomatiseerde besluitvorming zijn. Als de overheid vertrouwt op onjuiste of discriminerende algoritmes kan dit enorme impact hebben op de groepen tegen wie het algoritme wordt ingezet.
Toeslagenaffaire als symptoom
De toeslagenaffaire was echter een symptoom. Het onderliggende probleem is dat het bijzonder lastig is om ervoor te zorgen dat artificiële intelligentie (AI), bewust of onbewust, fundamentele rechten niet ondermijnt. Dat probleem doet zich voor in elk deel van de samenleving waarin AI wordt ingezet. Het probleem is niet alleen dat de overheid discriminerend en hardvochtig fraude detecteert, maar ook dat AI die medische diagnoses stelt minder goed werkt voor minderheden, dat oplichters AI kunnen gebruiken om de stemmen van familieleden perfect na te bootsen, en dat platforms je automatisch juist die (des)informatie laten zien die je aanspreekt. Elke keer dat AI wordt ingezet om belangrijke beslissingen te nemen ligt een nieuwe toeslagenaffaire op de loer.
Dat zou men niet afleiden uit de partijprogramma’s – dé plaats waarop partijen aan kiezers kunnen uitleggen hoe zij de impact van AI op de samenleving in goede banen leiden. Een aantal partijen, zoals de PVV, FvD, 50Plus, JA21, en SP, negeert AI vrijwel volledig. Door zelf geen visie over AI uit te zetten, laten deze partijen het aan de grote techbedrijven of de Europese Unie over om te bepalen hoe AI wordt ingezet.
Partijprogramma’s
Hiertegenover staan Volt en D66, die AI prominent in hun partijprogramma’s hebben staan. Beiden weiden secties aan de rol van AI en technologie in de samenleving. Beiden spreken echter ook grotendeels dezelfde kiezers aan en staan gezamenlijk op ongeveer 12 zetels. Om kiezers in staat te stellen werkelijk te stemmen tussen verschillende visies op de rol die AI in de samenleving moet spelen, zijn meer opties nodig.
De overige partijen besteden slechts zijdelings aandacht aan AI en algoritmes. 33 keer noemen deze partijen, met name de linksere, de risico’s van AI. Maar (en dit is de crux) de risico’s die partijen schetsen worden gedomineerd door de toeslagenaffaire. AI wordt geframed als een technologie die de overheid gebruikt om mogelijk te discrimineren. Risico’s die hierbuiten vallen worden slechts incidenteel genoemd als zij veel in het nieuws zijn (zoals polarisatie op sociale media) of goed in het straatje van de politieke partij passen (zoals de klimaatimpact van AI).
Geen visie
Wat mist zijn visies op hoe de impact van AI op alle onderdelen van de samenleving in goede banen kan worden geleid. Met name de privésector komt er goed vanaf. Verschillende partijen willen de potentie van AI “verzilveren” (VVD) door te investeren in infrastructuur, onderzoek en onderwijs. Ook het gebruik van AI om de druk op overbelaste sectoren als de zorg te verlichten is populair.
Natuurlijk is het in principe toe te juichen dat partijen de economische winst die AI belooft niet op de plank laten liggen. Maar deze investeringen in AI moeten gecombineerd worden met een goed doordachte strategie om de problemen die AI in elke sector kan veroorzaken op te sporen en aan te pakken. Zo niet, dan investeert men om mogelijk discriminerende, misleidende, en/of polariserende algoritmes door zoveel mogelijk onderdelen van de samenleving te vlechten.
Over de eerste stap om dit soort doemscenario’s te voorkomen bestaat consensus in de partijprogramma’s. Er is transparantie nodig, van de data waarop modellen getraind worden tot watermerken op de output die zij maken. Transparantie helpt echter niets zonder de wil en de macht om te zorgen dat AI daadwerkelijk anders wordt ingezet. Voor een technologie als AI die de hele samenleving raakt, moeten middelen bestaan voor de partijen die geraakt worden om invloed uit te oefenen. Dit kan door de betrokken burgers vroeg in het proces te betrekken, zodat zij risico’s kunnen signaleren over de manier waarop AI wordt ontwikkeld of toegepast. Ook kan geïnvesteerd worden in de maatschappelijke, wetenschappelijke, en journalistieke organisaties die de negatieve impact van AI aan het licht brengen. Nederland heeft de instituties om AI verantwoordelijk te gebruiken, maar het is cruciaal dat deze partijen actief ondersteund en betrokken worden om toekomstige toeslagenaffaires te voorkomen.
Geef een reactie
Je moet inloggen om een reactie te kunnen plaatsen.