In februari hebben vertegenwoordigers van de Bijstandsbond gepraat met Gabriel Geiger, een journaliste van Ligthhouse Reports. Zij was helemaal vanuit Los Angeles naar Amsterdam gekomen om onderzoek te doen naar de ‘slimme checq’ die de gemeente Amsterdam wilde invoeren bij potentiële fraudeurs onder bijstandsgerechtigden die een uitkering aanvragen. Van het gesprek heb ik een verslag gemaakt. Zij werkte samen met journalisten van Trouw om enkele artikelen te schrijven, die nu gepubliceerd zijn. een artikel in Trouw kun je hier vinden Verder verschenen er Engelstalige artikelen bij Ligthouse Reports en bij het tijdschrift Technological MIT Review. Je kunt ze wel vertalen met Google translate.
Algoritme
De ‘slimme checq’ was een algoritme, dat toegepast werd, waarbij 15 kenmerken van een aanvrager in de computer ingevoerd werden, en het algoritme moest dan bepalen, of er een vergoot risico is op fraude en dan moet een uitgebreider onderzoek in die gevallen plaatsvinden. De gemeente Amsterdam heeft besloten, die ‘slimme checq voorlopig niet in te voeren, omdat er teveel fouten in het systeem zitten. Lighthouse reports was geïnteresseerd in de ‘slimme checq’ omdat ze aan het onderzoeken zijn of die algoritmen sowieso wel geschikt zijn om in te voeren bij het opsporen van fraude in de bijstand. Is er eigenlijk wel een systeem mogelijk waarin geen fouten zitten? Daarvoor hebben ze ook het algoritme onderzocht dat in Rotterdam functioneerde, en dat naar zeggen van de journaliste nog veel slechter was dan het Amsterdamse. Het Rotterdamse systeem discrimineerde oa een ouder gezinnen.
Hoe werkt het algoritme?
Nu wordt dus bekend hoe het algoritme werkt na onderzoek van Light house reports. En wat blijkt uit de conclusies die de gemeente Amsterdam ic de wethouder Groot Wassink ook al eerder getrokken hadden? Een algoritme bouwen om fraude op te sporen is niet te ontwikkelen zonder een bias, dwz dat bepaalde groepen sterker als mogelijke fraudeurs naar voren komen dan andere. Een ‘ethisch verantwoord’ selectiesysteem met algoritmen in de sociale zekerheid is niet mogelijk. Eerst was er in het Amsterdamse experiment sprake van, dat migranten onevenredig veel gecontroleerd werden, toen men ‘nationaliteit’ uit de variabelen haalde, bleken Nederlanders en vrouwen onevenredig veel uit het systeem te komen als mogelijke fraudeurs. Wat overigens ook gevonden werd is dat er in de handmatige afhandeling van de bijstandsaanvragen een bias zit, nl dat bepaalde bevolkingsgroepen verhoudingsgewijs vaker voor nader onderzoek naar handhaving gestuurd worden dan andere groepen. De gemeente probeert nu bij een experiment, waarbij at random steekproeven worden gedaan, die bias te voorkomen. Algoritmen zijn dus blijkens het uitgebreide onderzoek van Light House Reports niet geschikt om fraude op te sporen f een slectie te maken van wie wel of niet ergens voor in aanmerking komt.
Piet van der Lende