Toeslagenaffaire

Nederland schendt de wet door burgers stiekem te profileren, blijkt uit uitspraak Europees hof

Nederland schendt de wet door burgers stiekem te profileren, blijkt uit uitspraak Europees hof

 5 CONNECTIES

 28 BIJDRAGEN

Met geheime algoritmen controleren overheidsinstellingen als de Belastingdienst op grote schaal burgers. Maar stiekem profileren is in strijd met de wet, blijkt uit een recente uitspraak van het Europese Hof, die mogelijk verstrekkende gevolgen heeft. ‘Regels worden al 20 jaar aan de laars gelapt.’

Zonder dat je het weet, word je geprofileerd. 

Overheidsinstellingen, zoals de Belastingdienst, controleren burgers op grote schaal via geautomatiseerde systemen. Ze doen dat om te zien of iemand een risico vormt voor bijvoorbeeld een foute aangifte, een te hoge toeslag, of fraude.

Als jij volgens zo’n algoritme belangrijke kenmerken gemeen hebt met mensen bij wie de kans op fraude of fouten groter zou zijn, word je zelf ook als risico aangewezen. Talloze andere factoren kunnen een rol spelen in deze systemen. Denk aan inkomen, gezinssituatie, leeftijd, woonplek en soms zelfs factoren die iets zeggen over iemands afkomst.

Rechtsbescherming ontbreekt: je kunt je profilering niet door een rechter laten toetsen

Een hoge risicoscore bij de Belastingdienst kan grote gevolgen hebben: je krijgt een extra handmatige controle of de dienst zet terugbetaling van btw voorlopig stop. Niemand kan controleren of die profilering zorgvuldig tot stand is gekomen: de systemen zijn een black box en er zijn geen wettelijke waarborgen. Dat betekent dat er geen rechtsbescherming is – je kunt de profilering niet door een rechter laten toetsen. Bovendien: je weet niet eens dat je bent geprofileerd.

Deze selectietechnieken – ook wel risicomodellen genoemd – liggen sinds de toeslagenaffaire onder het vergrootglas. Het meest in het oog springende probleem was dat het risicomodel voor toeslagen van de Belastingdienst nationaliteit als risicofactor meewoog, in strijd met het verbod op discriminatie. Mensen met lage inkomens, alleenstaande ouders en mensen met een andere nationaliteit kregen onevenredig vaak de hoogste risicoscores.

De Parlementaire enquêtecommissie Fraudebeleid en Dienstverlening concludeerde vorige week in haar rapport Blind voor mens en recht dat het probleem binnen de overheid wijdverbreid is. ‘Door structurele tekortkomingen in de uitvoeringspraktijk van risicogericht toezicht in de sociale zekerheid en toeslagen zijn bepaalde groepen mensen vaker in beeld gekomen als mogelijke fraudeurs. Daarbij zijn de grondrechten op de eerbiediging van de persoonlijke levenssfeer en gelijke behandeling geschonden.’

Deze ‘structurele tekortkomingen’ bij ‘risicogericht toezicht’ zijn er nog steeds.

AUTORITEIT PERSOONSGEGEVENS: ‘MASSALE SCHENDING GRONDRECHTEN’

Aleid Wolfsen, de voorzitter van de Autoriteit Persoonsgegevens, zei tijdens zijn verhoor bij de enquêtecommissie: ‘Als je de problematiek die u bespreekt en die wij hebben aangetroffen bij de Belastingdienst en bij allerlei andere onderzoeken, langs de meetlat legt van de rechtsstaat en van de grondrechten, dan zie je dat het grondrecht op privacy, persoonlijke levenssfeer, het privéleven – dat zijn synoniemen – massaal met voeten is getreden. Het grondrecht op bescherming van je persoonsgegevens idem dito. Het recht op non-discriminatie is massaal met voeten getreden. Het recht om je goed te kunnen verdedigen voor een rechter is ook geschonden.

Als je wordt geselecteerd met een risicoclassificatiemodel en je niet weet op basis waarvan je geselecteerd wordt, kun je je niet verdedigen voor een rechter. Als de ambtenaar die ernaast zit, niet weet waarom hij dat dossier op zijn bureau krijgt, dan ben je in feite discriminatie aan het witwassen, en dat geldt voor iedereen die ernaast zit – de bezwarencommissie, de rechter – idem dito. Je moet weten waarom je bent geselecteerd, anders kun je je daar niet tegen verdedigen.’

Door een baanbrekende uitspraak van het Hof van Justitie van de Europese Unie eind vorig jaar staat profilering juridisch op losse schroeven. Er is zodoende grote kans dat het huidige gebruik van risicomodellen in veel gevallen illegaal is, vanwege het ontbreken van een wettelijke basis met waarborgen voor rechtsbescherming. Dat zeggen meerdere deskundigen op gebied van privacyrecht die Follow the Money heeft geraadpleegd.

Twijfel bij Financiën

De uitspraak heeft geleid tot grote zorgen bij het ministerie van Financiën, waar de Belastingdienst onder valt. In een brief aan de Kamer van 13 februari twijfelen de staatssecretarissen over de rechtmatigheid van de praktijk van profilering. Ze hebben advies gevraagd aan de landsadvocaat, dat in de ministerraad is besproken. Uit de brief en het oordeel van de deskundigen blijkt dat de uitspraak mogelijk verstrekkende gevolgen heeft. De bewindslieden beloven rijksbreed te inventariseren welke modellen de overheid gebruikt.

Er geldt al jaren een wettelijk verbod op ‘geautomatiseerde besluiten’, waaronder besluiten op basis van profilering

Wat is de betekenis van de uitspraak? En wat zijn die mogelijke gevolgen voor profilering door de overheid? Financiën wil er desgevraagd weinig over kwijt (zie reactie onderaan dit artikel). 

Er geldt al jaren een wettelijk verbod op ‘geautomatiseerde besluiten’, waaronder besluiten op basis van profilering. Een overheid mag alleen een automatisch besluit over iemand nemen – zoals het goedkeuren van diens aangifte – als in een wet staat dat het mag.

Tot nu toe stelde de overheid dat profilering met risicomodellen niettemin geoorloofd is, omdat na de voorselectie door het model een ambtenaar uiteindelijk de beslissing neemt. Dankzij die ‘menselijke tussenkomst’ zou het geen ‘geautomatiseerd besluit’ zijn, en zou er dus ook geen wettelijke basis met waarborgen nodig zijn.

De zaak-Schufa

De zaak bij het Hof van Justitie ging over een Duits bedrijf (Schufa) dat automatisch kredietscores genereert van mensen die een hypotheek aanvragen. Schufa leverde de scores aan een kredietverlener, die bij een hoog risico op wanbetaling de hypotheek meestal afwees. Dat gebeurde handmatig, na menselijke tussenkomst.

Het Hof van Justitie oordeelde dat deze profilering (de kredietscore) door Schufa aanzienlijke gevolgen heeft voor de kredietaanvrager. De hypotheekaanvraag werd immers bij een hoog risico meestal afgewezen.

Het Hof van Justitie had nadrukkelijk de bedoeling om het gebrek aan rechtsbescherming te repareren

Daarom geldt de profilering an sich volgens het Hof van Justitie als een ‘geautomatiseerd besluit’ dat onder de reikwijdte van de Algemene Verordening Gegevensbescherming (AVG) valt – zelfs al werd het uiteindelijke besluit over de kredietverlening pas na menselijke tussenkomst genomen.

Nu het Hof de AVG op de profilering van toepassing heeft verklaard, gelden alle waarborgen uit die verordening. Zo moet het bedrijf de kredietaanvrager duidelijk maken hoe de risicoselectie tot stand is gekomen, en moet de aanvrager de mogelijkheid hebben om de hoge score aan te vechten. Het Hof van Justitie had nadrukkelijk de bedoeling om het gebrek aan rechtsbescherming te repareren.

Hoewel de uitspraak over een bedrijf ging, is die ook relevant voor de overheid en haar instellingen. Want de AVG geldt ook voor hen, en die bepaalt dat voor elke uitzondering op het verbod van geautomatiseerde besluitvorming een wettelijke basis met waarborgen nodig is.

‘Gigantische gevolgen’

Mireille Hildebrandt, hoogleraar digitale veiligheid (Radboud Universiteit), bestudeerde de uitspraak en zegt: ‘De Belastingdienst heeft – voor zover zij risicomodellen gebruikt om burgers te behandelen op een wijze die aanzienlijke gevolgen heeft voor die burgers – een wettelijke grondslag nodig. En die wettelijke grondslag moet voldoende effectieve rechtsbescherming bieden.’

Tijmen Wisman, privacy-jurist (Vrije Universiteit) en voorzitter van de stichting Platform Bescherming Burgerrechten, stelt dat de uitspraak ‘gigantische gevolgen’ heeft. ‘De overheid zal in veel gevallen risicoscores genereren en dan er nog een persoon naar laten kijken. Op die manier dacht de overheid dat ze buiten de reikwijdte van de AVG kon opereren, omdat er dan sprake is van menselijke tussenkomst en niet van geautomatiseerde besluitvorming. Maar die vlieger gaat niet langer op.’

WELKE MOGELIJKE GEVOLGEN HEEFT DE UITSPRAAK?

Als selectie met risicomodellen of -profielen niet volgens de regels gebeurt, kan dat grote gevolgen hebben voor de controles die de overheid uitvoert.

De Centrale Raad van Beroep, de hoogste bestuursrechter in sociale zekerheidszaken, deed eind 2020 een heldere uitspraak in zo’n kwestie. Een man uit Eindhoven van wie de bijstandsuitkering was beëindigd, vermoedde dat hij om discriminatoire redenen was geselecteerd voor een huisbezoek binnen de zogeheten wijkgerichte aanpak. Dat is een vorm van fraudeopsporing die gebruikmaakt van profilering, waarover Follow the Money afgelopen jaar meerdere keren schreef, en die in het najaar voorlopig werd stopgezet.

De gemeente kon niet duidelijk en controleerbaar uitleggen waarom het adres van deze man als ‘verwonderadres’ was aangewezen en kon dus ook niet aantonen dat er geen sprake was van discriminatie. De rechter bepaalde daarom dat het onderzoek naar de man en zijn uitkering onrechtmatig was.

Ook Sascha van Schendel, onderzoeker op het gebied van privacy en overheidsdata (Universiteit Tilburg), stelt dat een wettelijke grondslag noodzakelijk is. Dat de overheid aan wettelijke borging probeerde te ontkomen door zich op menselijke tussenkomst te beroepen, noemt ze ‘schrikbarend’. ‘Dat is geen pleister die je erop kan plakken. Er zijn waarborgen nodig bij menselijke tussenkomst. Het besluit is meestal al door het systeem genomen. Dat iemand er een handtekening onder zet, maakt dat niet anders.’

Volgens haar moet er per model een specifieke wetsbepaling zijn waarin het model en de werking ervan zijn beschreven. ‘Wat zijn de risicofactoren? Welke gegevens gaan erin? Zonder transparantie daarover kun je niet nagaan of de profilering rechtmatig is, en heb je geen rechtsbescherming.’

‘Het besluit is meestal al door het systeem genomen. Dat iemand er een handtekening onder zet, maakt dat niet anders’

Of elk risicomodel een wettelijke grondslag nodig heeft, is na de uitspraak van het Hof van Justitie niet helemaal duidelijk, zegt hoogleraar ICT en recht Frederik Zuiderveen Borgesius (Radboud Universiteit). ‘Als een ambtenaar na profilering alleen afstempelt, dan geldt het verbod en is een grondslag nodig. Als die ambtenaar er meer werk in steekt, dan is het een grijs gebied.’

Privacy-jurist Sarah Eskens (Vrije Universiteit) beaamt dat: ‘Je moet kijken hoe de keten van besluitvorming na de profilering eruit ziet. Wat doen die ambtenaren? En welke invloed heeft de profilering op hun besluitvorming?’ Met andere woorden: als een ambtenaar na de voorselectie door het model veel werk steekt in een besluit, is profilering zonder wettelijke grondslag wellicht toegestaan. Want dan geldt het mogelijk niet als een geautomatiseerd besluit.

Maar ook dan gelden alle algemene waarborgen van de AVG voor het verwerken van gegevens. Het moet helder zijn wiens persoonlijke gegevens worden gebruikt. Voor de betrokkene moet duidelijk zijn waarom dat gebeurt, hoe dat gebeurt en door wie. Dit betekent dat de betrokkene recht heeft op informatie hierover.

De Belastingdienst weet dat hij de wet overtreedt

Bij de Belastingdienst bestaan al langer grote zorgen over de juridische houdbaarheid van zijn aanpak. Maar daarover hebben de bewindslieden tot voor kort gezwegen.

De afdeling Midden- en kleinbedrijf kreeg begin 2021 intern het advies om drie modellen stop te zetten die zij gebruikte om fraude en fouten op te sporen. Ze zouden geen van drieën aan de privacywet voldoen en schonden mogelijk zelfs grondrechten. In het advies werd gewaarschuwd dat de kans op discriminatie groot was. ‘Helaas is gebleken dat geen van de modellen voldoet aan de Algemene Verordening Gegevensbescherming.’

Na een kortstondige stop besloot de directie de systemen toch weer aan te zetten. Het ‘maatschappelijk en organisatiebelang’ woog daarbij zwaarder dan voldoen aan de wet en het risico op grondrechtschendingen vermijden, onthulde Follow the Money eind vorig jaar.

In interne stukken stond bovendien dat de Belastingdienst zeer waarschijnlijk het verbod op geautomatiseerde besluiten overtreedt, omdat het óók voor goedkeurende besluiten geldt. Aanslagen worden namelijk automatisch geaccordeerd, zonder verdere controle, wanneer de aangifte binnen het model geen hoge risicoscore krijgt.

Bij een ander model, dat moet voorkomen dat de Belastingdienst ten onrechte geld teruggeeft, wordt een uitbetaling automatisch (tijdelijk) stopgezet wanneer een aangifte door het algoritme wordt gevlagd. Alleen al dat uitstel kan voor de burger aanzienlijke gevolgen hebben, waardoor de kans groot is dat het wettelijk niet mag, zo oordeelden juristen.

Toch gaat de Belastingdienst ermee door. De dienst wil geen openheid geven over systemen omdat die anders minder effectief zouden zijn in de opsporing van fraude.

‘We zijn het zicht op die systemen totaal verloren’

De privacy-experts wijzen erop dat de uitspraak niet op zichzelf staat en dat de overheid profilering al eerder aan banden had moeten leggen. De Nederlandse rechter heeft immers al een paar jaar geleden een invloedrijke uitspraak op dit terrein gedaan.

In 2020 oordeelde de rechtbank Den Haag dat het anti-fraudesysteem SyRI (Systeem Risico Indicatie) illegaal was. De inbreuk op het privéleven, die door het Europees Verdrag voor de Rechten voor de Mens (EVRM) wordt beschermd, stond niet in een ‘redelijke verhouding’ tot het doel van de wet (fraudedetectie) en was daarom niet gerechtvaardigd.

SyRI koppelde allerlei privacygevoelige gegevens van mensen in arme wijken aan elkaar. Dat leidde tot risicomeldingen (profilering), op grond waarvan extra controles werden uitgevoerd. Voor dit systeem was wel een speciale wet gemaakt, maar die maakte de inzet van SyRI onvoldoende inzichtelijk en controleerbaar. Het onderliggende model bleef namelijk geheim, zodat niemand zich tegen de schimmige risicomeldingen kon verweren.

Dat is illegaal. Dit soort modellen moeten voldoen aan de AVG en dus transparant zijn.

FATMA ÇAPKURT

De overheid heeft steeds meer informatie over burgers, maar burgers weten daar bijna niets over. De waarborgen uit de AVG zijn een dode letter

Indien profilering aanzienlijke gevolgen voor burgers kan hebben, is er bovendien extra wettelijke bescherming nodig, naast de algemene waarborgen uit de AVG. Volgens de rechter is bij profilering al snel sprake van zulke gevolgen: ‘Dat een risicomelding niet steeds tot verder onderzoek hoeft te leiden, of tot een (bestuursrechtelijke of strafrechtelijke) sanctie en ook niet als enige basis voor een handhavingsbesluit mag worden gebruikt, doet niet af aan het aanmerkelijke effect op het privéleven van een betrokkene.’

‘Uit de SyRI-uitspraak blijkt dat gebruik van een risicomodel inmenging in de privacy is. Daarvoor is een wettelijke grondslag nodig,’ zegt Sascha van Schendel. ‘Dat geldt ook als het model niet onder het verbod op geautomatiseerde besluitvorming valt. In deze zin is de Europese uitspraak niet nieuw. Er is van SyRI niets geleerd.’

Fatma Çapkurt is dat met haar eens. Ze is universitair docent aan de Universiteit Leiden en promoveert op de doorwerking van de privacywet op het bestuursrecht. ‘De overheid heeft steeds meer informatie over burgers, maar burgers weten daar bijna niets over. De waarborgen uit de AVG zijn een dode letter. We zijn het zicht op die systemen totaal verloren. Dit is het resultaat van twintig jaar lang de regels aan de laars lappen.’

REACTIE MINISTERIE VAN FINANCIËN

‘De vraag speelt hoe geautomatiseerde selectie en afhandeling zich verhouden tot de zich ontwikkelende juridische kaders. Dan gaat het specifiek om de relatie tot de wettelijke grondslag die nodig is voor geautomatiseerde selectie en afhandeling. Daarvoor moeten werkwijzen getoetst worden aan de AVG (artikel 22) en de uitvoeringswet AVG (artikel 40).

Dit is een complex vraagstuk waarin ontwikkelingen in de wetenschap en jurisprudentie een steeds grotere rol zijn gaan spelen. Vanwege de juridische ontwikkelingen, de complexiteit van dit vraagstuk en het brede belang van geautomatiseerde selectie voor de dienstverlening is in november 2023 advies gevraagd aan de landsadvocaat. Zij hebben een eerste conceptadvies opgeleverd. Over dit concept zijn verduidelijkende vragen aan de landsadvocaat gesteld.

Na beoordeling van dat advies zal mogelijk nader juridisch advies worden gevraagd. Dit proces loopt nog.

Aansluitend wordt de Kamer verder geïnformeerd. De reikwijdte van dit vraagstuk heeft mogelijk niet alleen gevolgen voor de Belastingdienst of Dienst Toeslagen, maar ook breder voor dienstverlening binnen de overheid.’