Nederland schendt de wet door burgers stiekem te profileren, blijkt uit uitspraak Europees hof
Met geheime algoritmen controleren overheidsinstellingen als de Belastingdienst op grote schaal burgers. Maar stiekem profileren is in strijd met de wet, blijkt uit een recente uitspraak van het Europese Hof, die mogelijk verstrekkende gevolgen heeft. ‘Regels worden al 20 jaar aan de laars gelapt.’
Overheidsinstellingen, zoals de Belastingdienst, controleren burgers op grote schaal via geautomatiseerde systemen. Ze doen dat om te zien of iemand een risico vormt voor bijvoorbeeld een foute aangifte, een te hoge toeslag, of fraude.
Als jij volgens zo’n algoritme belangrijke kenmerken gemeen hebt met mensen bij wie de kans op fraude of fouten groter zou zijn, word je zelf ook als risico aangewezen. Talloze andere factoren kunnen een rol spelen in deze systemen. Denk aan inkomen, gezinssituatie, leeftijd, woonplek en soms zelfs factoren die iets zeggen over iemands afkomst.
Rechtsbescherming ontbreekt: je kunt je profilering niet door een rechter laten toetsen
Een hoge risicoscore bij de Belastingdienst kan grote gevolgen hebben: je krijgt een extra handmatige controle of de dienst zet terugbetaling van btw voorlopig stop. Niemand kan controleren of die profilering zorgvuldig tot stand is gekomen: de systemen zijn een black box en er zijn geen wettelijke waarborgen. Dat betekent dat er geen rechtsbescherming is – je kunt de profilering niet door een rechter laten toetsen. Bovendien: je weet niet eens dat je bent geprofileerd.
Deze selectietechnieken – ook wel risicomodellen genoemd – liggen sinds de toeslagenaffaire onder het vergrootglas. Het meest in het oog springende probleem was dat het risicomodel voor toeslagen van de Belastingdienst nationaliteit als risicofactor meewoog, in strijd met het verbod op discriminatie. Mensen met lage inkomens, alleenstaande ouders en mensen met een andere nationaliteit kregen onevenredig vaak de hoogste risicoscores.
De Parlementaire enquêtecommissie Fraudebeleid en Dienstverlening concludeerde vorige week in haar rapport Blind voor mens en recht dat het probleem binnen de overheid wijdverbreid is. ‘Door structurele tekortkomingen in de uitvoeringspraktijk van risicogericht toezicht in de sociale zekerheid en toeslagen zijn bepaalde groepen mensen vaker in beeld gekomen als mogelijke fraudeurs. Daarbij zijn de grondrechten op de eerbiediging van de persoonlijke levenssfeer en gelijke behandeling geschonden.’
Deze ‘structurele tekortkomingen’ bij ‘risicogericht toezicht’ zijn er nog steeds.
Door een baanbrekende uitspraak van het Hof van Justitie van de Europese Unie eind vorig jaar staat profilering juridisch op losse schroeven. Er is zodoende grote kans dat het huidige gebruik van risicomodellen in veel gevallen illegaal is, vanwege het ontbreken van een wettelijke basis met waarborgen voor rechtsbescherming. Dat zeggen meerdere deskundigen op gebied van privacyrecht die Follow the Money heeft geraadpleegd.
Twijfel bij Financiën
De uitspraak heeft geleid tot grote zorgen bij het ministerie van Financiën, waar de Belastingdienst onder valt. In een brief aan de Kamer van 13 februari twijfelen de staatssecretarissen over de rechtmatigheid van de praktijk van profilering. Ze hebben advies gevraagd aan de landsadvocaat, dat in de ministerraad is besproken. Uit de brief en het oordeel van de deskundigen blijkt dat de uitspraak mogelijk verstrekkende gevolgen heeft. De bewindslieden beloven rijksbreed te inventariseren welke modellen de overheid gebruikt.
Er geldt al jaren een wettelijk verbod op ‘geautomatiseerde besluiten’, waaronder besluiten op basis van profilering
Wat is de betekenis van de uitspraak? En wat zijn die mogelijke gevolgen voor profilering door de overheid? Financiën wil er desgevraagd weinig over kwijt (zie reactie onderaan dit artikel).
Er geldt al jaren een wettelijk verbod op ‘geautomatiseerde besluiten’, waaronder besluiten op basis van profilering. Een overheid mag alleen een automatisch besluit over iemand nemen – zoals het goedkeuren van diens aangifte – als in een wet staat dat het mag.
Tot nu toe stelde de overheid dat profilering met risicomodellen niettemin geoorloofd is, omdat na de voorselectie door het model een ambtenaar uiteindelijk de beslissing neemt. Dankzij die ‘menselijke tussenkomst’ zou het geen ‘geautomatiseerd besluit’ zijn, en zou er dus ook geen wettelijke basis met waarborgen nodig zijn.
De zaak-Schufa
De zaak bij het Hof van Justitie ging over een Duits bedrijf (Schufa) dat automatisch kredietscores genereert van mensen die een hypotheek aanvragen. Schufa leverde de scores aan een kredietverlener, die bij een hoog risico op wanbetaling de hypotheek meestal afwees. Dat gebeurde handmatig, na menselijke tussenkomst.
Het Hof van Justitie oordeelde dat deze profilering (de kredietscore) door Schufa aanzienlijke gevolgen heeft voor de kredietaanvrager. De hypotheekaanvraag werd immers bij een hoog risico meestal afgewezen.
Het Hof van Justitie had nadrukkelijk de bedoeling om het gebrek aan rechtsbescherming te repareren
Daarom geldt de profilering an sich volgens het Hof van Justitie als een ‘geautomatiseerd besluit’ dat onder de reikwijdte van de Algemene Verordening Gegevensbescherming (AVG) valt – zelfs al werd het uiteindelijke besluit over de kredietverlening pas na menselijke tussenkomst genomen.
Nu het Hof de AVG op de profilering van toepassing heeft verklaard, gelden alle waarborgen uit die verordening. Zo moet het bedrijf de kredietaanvrager duidelijk maken hoe de risicoselectie tot stand is gekomen, en moet de aanvrager de mogelijkheid hebben om de hoge score aan te vechten. Het Hof van Justitie had nadrukkelijk de bedoeling om het gebrek aan rechtsbescherming te repareren.
Hoewel de uitspraak over een bedrijf ging, is die ook relevant voor de overheid en haar instellingen. Want de AVG geldt ook voor hen, en die bepaalt dat voor elke uitzondering op het verbod van geautomatiseerde besluitvorming een wettelijke basis met waarborgen nodig is.
‘Gigantische gevolgen’
Mireille Hildebrandt, hoogleraar digitale veiligheid (Radboud Universiteit), bestudeerde de uitspraak en zegt: ‘De Belastingdienst heeft – voor zover zij risicomodellen gebruikt om burgers te behandelen op een wijze die aanzienlijke gevolgen heeft voor die burgers – een wettelijke grondslag nodig. En die wettelijke grondslag moet voldoende effectieve rechtsbescherming bieden.’
Tijmen Wisman, privacy-jurist (Vrije Universiteit) en voorzitter van de stichting Platform Bescherming Burgerrechten, stelt dat de uitspraak ‘gigantische gevolgen’ heeft. ‘De overheid zal in veel gevallen risicoscores genereren en dan er nog een persoon naar laten kijken. Op die manier dacht de overheid dat ze buiten de reikwijdte van de AVG kon opereren, omdat er dan sprake is van menselijke tussenkomst en niet van geautomatiseerde besluitvorming. Maar die vlieger gaat niet langer op.’
Ook Sascha van Schendel, onderzoeker op het gebied van privacy en overheidsdata (Universiteit Tilburg), stelt dat een wettelijke grondslag noodzakelijk is. Dat de overheid aan wettelijke borging probeerde te ontkomen door zich op menselijke tussenkomst te beroepen, noemt ze ‘schrikbarend’. ‘Dat is geen pleister die je erop kan plakken. Er zijn waarborgen nodig bij menselijke tussenkomst. Het besluit is meestal al door het systeem genomen. Dat iemand er een handtekening onder zet, maakt dat niet anders.’
Volgens haar moet er per model een specifieke wetsbepaling zijn waarin het model en de werking ervan zijn beschreven. ‘Wat zijn de risicofactoren? Welke gegevens gaan erin? Zonder transparantie daarover kun je niet nagaan of de profilering rechtmatig is, en heb je geen rechtsbescherming.’
‘Het besluit is meestal al door het systeem genomen. Dat iemand er een handtekening onder zet, maakt dat niet anders’
Of elk risicomodel een wettelijke grondslag nodig heeft, is na de uitspraak van het Hof van Justitie niet helemaal duidelijk, zegt hoogleraar ICT en recht Frederik Zuiderveen Borgesius (Radboud Universiteit). ‘Als een ambtenaar na profilering alleen afstempelt, dan geldt het verbod en is een grondslag nodig. Als die ambtenaar er meer werk in steekt, dan is het een grijs gebied.’
Privacy-jurist Sarah Eskens (Vrije Universiteit) beaamt dat: ‘Je moet kijken hoe de keten van besluitvorming na de profilering eruit ziet. Wat doen die ambtenaren? En welke invloed heeft de profilering op hun besluitvorming?’ Met andere woorden: als een ambtenaar na de voorselectie door het model veel werk steekt in een besluit, is profilering zonder wettelijke grondslag wellicht toegestaan. Want dan geldt het mogelijk niet als een geautomatiseerd besluit.
Maar ook dan gelden alle algemene waarborgen van de AVG voor het verwerken van gegevens. Het moet helder zijn wiens persoonlijke gegevens worden gebruikt. Voor de betrokkene moet duidelijk zijn waarom dat gebeurt, hoe dat gebeurt en door wie. Dit betekent dat de betrokkene recht heeft op informatie hierover.
De Belastingdienst weet dat hij de wet overtreedt
Bij de Belastingdienst bestaan al langer grote zorgen over de juridische houdbaarheid van zijn aanpak. Maar daarover hebben de bewindslieden tot voor kort gezwegen.
De afdeling Midden- en kleinbedrijf kreeg begin 2021 intern het advies om drie modellen stop te zetten die zij gebruikte om fraude en fouten op te sporen. Ze zouden geen van drieën aan de privacywet voldoen en schonden mogelijk zelfs grondrechten. In het advies werd gewaarschuwd dat de kans op discriminatie groot was. ‘Helaas is gebleken dat geen van de modellen voldoet aan de Algemene Verordening Gegevensbescherming.’
Na een kortstondige stop besloot de directie de systemen toch weer aan te zetten. Het ‘maatschappelijk en organisatiebelang’ woog daarbij zwaarder dan voldoen aan de wet en het risico op grondrechtschendingen vermijden, onthulde Follow the Money eind vorig jaar.
In interne stukken stond bovendien dat de Belastingdienst zeer waarschijnlijk het verbod op geautomatiseerde besluiten overtreedt, omdat het óók voor goedkeurende besluiten geldt. Aanslagen worden namelijk automatisch geaccordeerd, zonder verdere controle, wanneer de aangifte binnen het model geen hoge risicoscore krijgt.
Bij een ander model, dat moet voorkomen dat de Belastingdienst ten onrechte geld teruggeeft, wordt een uitbetaling automatisch (tijdelijk) stopgezet wanneer een aangifte door het algoritme wordt gevlagd. Alleen al dat uitstel kan voor de burger aanzienlijke gevolgen hebben, waardoor de kans groot is dat het wettelijk niet mag, zo oordeelden juristen.
Toch gaat de Belastingdienst ermee door. De dienst wil geen openheid geven over systemen omdat die anders minder effectief zouden zijn in de opsporing van fraude.
‘We zijn het zicht op die systemen totaal verloren’
De privacy-experts wijzen erop dat de uitspraak niet op zichzelf staat en dat de overheid profilering al eerder aan banden had moeten leggen. De Nederlandse rechter heeft immers al een paar jaar geleden een invloedrijke uitspraak op dit terrein gedaan.
In 2020 oordeelde de rechtbank Den Haag dat het anti-fraudesysteem SyRI (Systeem Risico Indicatie) illegaal was. De inbreuk op het privéleven, die door het Europees Verdrag voor de Rechten voor de Mens (EVRM) wordt beschermd, stond niet in een ‘redelijke verhouding’ tot het doel van de wet (fraudedetectie) en was daarom niet gerechtvaardigd.
SyRI koppelde allerlei privacygevoelige gegevens van mensen in arme wijken aan elkaar. Dat leidde tot risicomeldingen (profilering), op grond waarvan extra controles werden uitgevoerd. Voor dit systeem was wel een speciale wet gemaakt, maar die maakte de inzet van SyRI onvoldoende inzichtelijk en controleerbaar. Het onderliggende model bleef namelijk geheim, zodat niemand zich tegen de schimmige risicomeldingen kon verweren.
Dat is illegaal. Dit soort modellen moeten voldoen aan de AVG en dus transparant zijn.
Indien profilering aanzienlijke gevolgen voor burgers kan hebben, is er bovendien extra wettelijke bescherming nodig, naast de algemene waarborgen uit de AVG. Volgens de rechter is bij profilering al snel sprake van zulke gevolgen: ‘Dat een risicomelding niet steeds tot verder onderzoek hoeft te leiden, of tot een (bestuursrechtelijke of strafrechtelijke) sanctie en ook niet als enige basis voor een handhavingsbesluit mag worden gebruikt, doet niet af aan het aanmerkelijke effect op het privéleven van een betrokkene.’
‘Uit de SyRI-uitspraak blijkt dat gebruik van een risicomodel inmenging in de privacy is. Daarvoor is een wettelijke grondslag nodig,’ zegt Sascha van Schendel. ‘Dat geldt ook als het model niet onder het verbod op geautomatiseerde besluitvorming valt. In deze zin is de Europese uitspraak niet nieuw. Er is van SyRI niets geleerd.’
Fatma Çapkurt is dat met haar eens. Ze is universitair docent aan de Universiteit Leiden en promoveert op de doorwerking van de privacywet op het bestuursrecht. ‘De overheid heeft steeds meer informatie over burgers, maar burgers weten daar bijna niets over. De waarborgen uit de AVG zijn een dode letter. We zijn het zicht op die systemen totaal verloren. Dit is het resultaat van twintig jaar lang de regels aan de laars lappen.’