Rekenkamer signaleert risico’s bij algoritmes

De Algemene Rekenkamer heeft een toetsingskader ontwikkeld om algoritmes te beoordelen. Het orgaan baseert zich op een studie naar negen algoritmes die bij de overheid in gebruik zijn; slechts drie voldeden aan alle aspecten. Staatssecretaris Digitalisering Van Huffelen gebruikt de bevindingen om digitale voorschriften te verbeteren.

Uit het onderzoek ‘Algoritmes getoetst’ blijkt dat bij zes algoritmen uiteenlopende risico’s bestaan, variërend van gebrekkige controle op prestaties of effecten, tot vooringenomenheid, datalek of ongeautoriseerde toegang. De onderzochte algoritmes die gebruikt worden door de politie, het directoraat-generaal Migratie van het ministerie van Justitie en Veiligheid en de Rijksdienst voor Identiteitsgegevens voldoen op diverse aspecten niet. Bij de laatste twee organisaties is de ontwikkeling en het beheer van het algoritme uitbesteed, maar ontbreekt het aan afspraken wie voor wat aanspreekbaar is.

Geen goede afspraken

“We hebben gezien dat er soms geen goede afspraken worden gemaakt over wat het algoritme moet kunnen”

‘We hebben gezien dat er soms geen goede afspraken worden gemaakt over wat het algoritme moet kunnen. Of dat er geen afspraken worden gemaakt om te controleren of een algoritme werkt zoals de bedoeling is. Dat is extra belangrijk als de overheid een andere organisatie vraagt om een algoritme te maken of te beheren. Het gevaar is dat de overheid zelf dan niet meer in de gaten kan houden of het algoritme veilig gebruikt wordt’, aldus de Algemene Rekenkamer.

Een ander verbeterpunt is IT-beheer. Algoritmes gebruiken gegevens van mensen en bedrijven. Organisaties die algoritmes gebruiken moeten goede afspraken maken over wie wel en wie niet met die gegevens mag werken. De Rekenkamer heeft gezien dat niet alle organisaties zulke afspraken hebben gemaakt. Daardoor kunnen de organisaties niet zeker weten of de gegevens van burgers en bedrijven veilig zijn.

Een derde verbeterpunt is bias. Bias betekent dat de uitkomsten van het algoritme voor sommige groepen mensen verkeerd zijn. Doordat er een fout zit in een algoritme of doordat er bij het maken van het algoritme verkeerde informatie in het algoritme is gestopt. Het onderzoek laat zien dat organisaties niet controleren of dat soort fouten in algoritmes zitten. Daardoor kunnen de organisaties niet zeker weten of de uitkomsten van het algoritme voor alle mensen hetzelfde zijn.

In een reactie op het rapport stelt Van Huffelen aan de slag te gaan met de departementen om de tekortkomingen aan te pakken.

Gedrag van mensen

Het Rathenau Instituut onderzoekt (in opdracht van het ministerie van BZK) in het rapport ‘Algoritmes afwegen’ het gebruik van profilerende algoritmes door uitvoeringsorganisaties. Deze algoritmes proberen het gedrag van mensen te voorspellen door hen in te delen in groepen. Om te voorkomen dat dit leidt tot beoordeling op basis vooroordelen, pleit Rathenau voor de inzet van adviseurs om kennis van, en het gevoel voor ethische vraagstukken bij de rijksoverheid te vergroten. Bij het goed van informeren van burgers over het gebruik van algoritmes kunnen burgerpanels worden ingezet.

De aanbevelingen van het Rathenau Instituut zijn:

  • Verbeter de hanteerbaarheid van de juridische vereisten en ethische beginselen;
  • Stimuleer ethische expertise in de gehele organisatie;
  • Blijf investeren in privacytoetsing;
  • Versterk de manier waarop bias-toetsing plaatsvindt;
  • Investeer in een actieve informatievoorziening;
  • Versterk de waarborgen voor procedurele rechten;
  • Waak voor verkokering bij de ontwikkeling en beoordeling van algoritmische toepassingen.

De aanbevelingen komen voort uit gesprekken over de genomen maatregelen ten aanzien van profilerende algoritmes bij het UWV, het CJIB en de SVB.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt artificiële intelligentie en machine learning om spam te verminderen. Bekijk hoe uw reactiegegevens worden verwerkt.

Gerelateerde berichten

Grote beveiligingslek ontdekt in populaire 3CX desktop app, uitgebreide uitleg en samenvatting

In dit blogbericht wordt een beveiligingslek besproken dat is ontdekt in de populaire 3CX desktop app, een software die wordt gebruikt door vele grote bedrijven wereldwijd. De blogpost begint met het beschrijven van de officiële 3CX desktop app en hoe deze wordt gebruikt als een vervanging van traditionele zakelijke telefoonlijnen. Vervolgens wordt ingegaan op de ontdekking van onverwachte kwaadaardige activiteit afkomstig van de 3CX desktop app door beveiligingsanalisten van CrowdStrike. De reactie van het bedrijf op de ontdekking wordt bekritiseerd en er wordt gewezen op het gebrek aan voorbereiding van veel grote bedrijven op malware-aanvallen. De blogpost gaat verder met een technische uitleg van hoe het beveiligingslek werkt, inclusief de aanwezigheid van kwaadaardige dll-bestanden en de versleuteling van kwaadaardige payloads. De ernst van het beveiligingslek wordt benadrukt, omdat het honderden of zelfs duizenden bedrijven kan treffen die de 3CX desktop app gebruiken.

Lees verder

Alles wat je moet weten over het nieuwe GPT-4, Hoe Google AI en Microsoft 365 AI de toekomst van kunstmatige intelligentie vormgeven

In de wereld van Artificial Intelligence en Machine Learning was afgelopen week een historische week. Dit komt door de aankondiging van de officiële lancering van GPT-4 door Open AI. Hoewel we al toegang hadden tot deze AI via Bing, is de officiële lancering van GPT-4 iets om te vieren. In dit blog bericht gaan we dieper in op de mogelijkheden van GPT-4 en wat deze nieuwe AI zo bijzonder maakt.

Lees verder

Autodiefstal met USB-kabels

In deze blog bespreken we de ontwikkelingen op het gebied van autodiefstal met USB-kabels. We leggen uit hoe autodieven met deze methode te werk gaan en hoe fabrikanten proberen dit probleem aan te pakken. We bespreken enkele mogelijke oplossingen, waaronder software-updates en fysieke beveiligingsmaatregelen, om deze vorm van autodiefstal te voorkomen.

Lees verder
U bent helemaal bij, dit was het laatste bericht.
  • Tags

  • Categorieën

  • Archieven

  • Naar de inhoud springen