Skip naar inhoud

AP waarschuwt voor fouten met AVG bij ai-projecten

Wilt u deze bijdrage aanbevelen? Dat kan via:

Share on facebook
Share on twitter
Share on linkedin
Share on reddit
Share on tumblr
Share on stumbleupon
Share on mix
Share on telegram
Share on pocket
Share on whatsapp
Share on email
Steeds meer bedrijven en overheden experimenteren met ai-toepassingen. Vaak zijn persoonsgegevens in het spel en dus moeten tests voldoen aan privacyregels zoals vastgelegd in de AVG (Algemene Verordening Gegevensbescherming). Ook voor ai-pilots gelden strenge regels, waarschuwt de privacy-toezichthouder.
Tests, pilots, proeven, houtskoolschetsen, proof of concepts. Bedrijven en overheden experimenteren er flink op los met ai. Maar in die drang naar nieuwe toepassingen zien ze de AVG nogal eens over het hoofd, zegt AP-directeur systeemtoezicht, beveiliging en technologie, Cecile Schut.
In een online-sessie van de AP tijdens het congres Nederland Digitaal waarschuwt de privacy-toezichthouder dat er ook voor het gebruik van persoonsgegevens in ai-testtrajecten strenge regels gelden. ‘Vaak wordt vergeten dat die ook onder de AVG vallen.’
Ze verwijst naar de verantwoordingsplicht van partijen die persoonsgegevens gebruiken. Daarin moet op papier staan met welk doel bepaalde data worden gebruikt. Ook moet bij controle door de AP of navraag van een betrokkene die informatie beschikbaar zijn.

Hoog privacy-risico

De AP wijst erop dat wanneer gegevensverwerking waarschijnlijk een hoog privacy-risico oplevert voor betrokkenen, het verplicht is om een data protection impact assessment (dpia) op te stellen. Die beoordeling is dus ook verplicht voor tests waarin persoonsgegevens worden gebruikt.
In het dpia moeten vooraf alle verwerkingen verantwoord worden. Zo moet de vraag gesteld worden of er een redelijke verhouding is tussen het doel en het ingezette middel (proportionaliteit) en waarom dit de beste manier is om dat te bereiken (subsidiariteit). Ook de risico’s op ongewenste uitkomsten (bias) en fouten in het algoritme moeten benoemd zijn. In het dpia staat verder informatie over beveiliging, de rechten van betrokkenen, transparantie en uitlegbaarheid van ai. De AP benadrukt dat het gaat om een doorlopend proces dat regelmatig geëvalueerd moet worden.

Voorleggen voor advies

Schut adviseert om ai-plannen altijd voor te leggen aan de functionaris gegevensbescherming van de eigen organisatie. Dat is degene die binnen de organisatie toezicht houdt op de toepassing en naleving van de AVG. Voor sommige organisaties is zo’n functie verplicht. Zijn er daarna nog vragen, dan kan de functionaris eventueel aankloppen bij de AP voor raadgeving, meldt Schut.

Onzichtbare ontwikkeling

Om grip te krijgen op risicoprofielen en voorspellende systemen bij de overheid, deelt het College voor de rechten van de mens een Handreiking – (Semi-)geautomatiseerde besluitvorming door de overheid. Daarin staan stappen die overheden kunnen nemen om te voorkomen dat ze door de inzet van ai en algoritmen burgers discrimineren of benadelen.
‘De (lokale) overheid zet op grote schaal computers in bij besluiten over burgers. Een neveneffect is dat risicoprofielen en voorspellende systemen kunnen leiden tot schending van de mensenrechten. Zo kunnen fouten in data en algoritmes zorgen voor discriminatie. Daarnaast wordt het moeilijker om een besluit aan te vechten’, lichten de samenstellers toe.
‘Ondanks grote incidenten als etnisch profileren door de Belastingdienst en ingrijpende controles op bijstandsfraude door verschillende gemeenten, is (semi-)geautomatiseerde besluitvorming nog steeds een onzichtbare ontwikkeling. Door fouten in data en algoritmes kunnen groepen burgers als fraudeur worden aangemerkt. Bovendien wordt het in de praktijk moeilijker om een besluit aan te vechten, want burgers ontvangen niet altijd de achterliggende – digitale – informatie’, stelt het college.

AVG

Het uitgangspunt van de Algemene Verordening Gegevensbescherming (AVG) is dat organisaties zelf nadenken over de opbrengsten en risico’s van gegevensverwerking en over transparantie naar gebruikers.
Eerder meldde KPMG dat toezicht op algoritmes die persoonsgegevens verwerken niet van de grond komt doordat de AP over onvoldoende mankracht, geld en middelen beschikt.

Lees ook:

We gaan verhuizen. Wat betekent dit voor u als klant?

Door de jaren heen is er veel gebeurd. Reden voor ons om uit te breiden naar een andere locatie. In dit bericht leest u wat u kunt verwachten.

OldFlix: We bewaren oude films en series en presenteren ze: In een Netflix-achtige methode, maar gratis!

Wie kent ze niet, Charlie Chaplin, Dallas Dolls, Philips met hun nieuwe spectaculaire uitvindingen tot de spannende avonturen van de jeugddetective Q & Q. Maar waar kijkt u ze? Vanaf

Microsoft launches ‘top secret’ Azure cloud region for US intelligence community

Microsoft continues to deliver on its pledge to provide cloud services to the US government that are compliant with all strengths of data classification

Zo loopt de weg naar vertrouwen in ai

Net zoals vertrouwen in persoonlijke en zakelijke relaties moet groeien, heeft het ook tijd nodig voor een gebruiker van ai-technologie om vertrouwen te krijgen in het systeem. Transformatieve technologieën als zelfrijdende voertuigen kunnen alleen succesvol zijn als er duidelijke methoden en benchmarks zijn om vertrouwen te creëren in ai-systemen. Maar hoe wek je vertrouwen op in ai?

IT leaders fear ‘trickle-down’ of nation-state cyber attacks

Three-quarters of IT decision-makers are concerned that the tactics, techniques and procedures used by nation-state attackers could be used against them

Wilt u deze bijdrage aanbevelen? Dat kan via:

Share on facebook
Share on twitter
Share on linkedin
Share on google
Share on reddit
Share on tumblr
Share on stumbleupon
Share on mix
Share on telegram
Share on pocket
Share on whatsapp
Share on email

Klaar voor de beste oplossing voor uw IT & ICT-situatie?

Ik heb mijn wachtwoord gewijzigd in “onjuist.” Dus wanneer ik vergeet wat het is, zal de computer zeggen: “Uw wachtwoord is onjuist.”