Rekenkamer signaleert risico’s bij algoritmes

De Algemene Rekenkamer heeft een toetsingskader ontwikkeld om algoritmes te beoordelen. Het orgaan baseert zich op een studie naar negen algoritmes die bij de overheid in gebruik zijn; slechts drie voldeden aan alle aspecten. Staatssecretaris Digitalisering Van Huffelen gebruikt de bevindingen om digitale voorschriften te verbeteren.

Uit het onderzoek ‘Algoritmes getoetst’ blijkt dat bij zes algoritmen uiteenlopende risico’s bestaan, variërend van gebrekkige controle op prestaties of effecten, tot vooringenomenheid, datalek of ongeautoriseerde toegang. De onderzochte algoritmes die gebruikt worden door de politie, het directoraat-generaal Migratie van het ministerie van Justitie en Veiligheid en de Rijksdienst voor Identiteitsgegevens voldoen op diverse aspecten niet. Bij de laatste twee organisaties is de ontwikkeling en het beheer van het algoritme uitbesteed, maar ontbreekt het aan afspraken wie voor wat aanspreekbaar is.

Geen goede afspraken

“We hebben gezien dat er soms geen goede afspraken worden gemaakt over wat het algoritme moet kunnen”

‘We hebben gezien dat er soms geen goede afspraken worden gemaakt over wat het algoritme moet kunnen. Of dat er geen afspraken worden gemaakt om te controleren of een algoritme werkt zoals de bedoeling is. Dat is extra belangrijk als de overheid een andere organisatie vraagt om een algoritme te maken of te beheren. Het gevaar is dat de overheid zelf dan niet meer in de gaten kan houden of het algoritme veilig gebruikt wordt’, aldus de Algemene Rekenkamer.

Een ander verbeterpunt is IT-beheer. Algoritmes gebruiken gegevens van mensen en bedrijven. Organisaties die algoritmes gebruiken moeten goede afspraken maken over wie wel en wie niet met die gegevens mag werken. De Rekenkamer heeft gezien dat niet alle organisaties zulke afspraken hebben gemaakt. Daardoor kunnen de organisaties niet zeker weten of de gegevens van burgers en bedrijven veilig zijn.

Een derde verbeterpunt is bias. Bias betekent dat de uitkomsten van het algoritme voor sommige groepen mensen verkeerd zijn. Doordat er een fout zit in een algoritme of doordat er bij het maken van het algoritme verkeerde informatie in het algoritme is gestopt. Het onderzoek laat zien dat organisaties niet controleren of dat soort fouten in algoritmes zitten. Daardoor kunnen de organisaties niet zeker weten of de uitkomsten van het algoritme voor alle mensen hetzelfde zijn.

In een reactie op het rapport stelt Van Huffelen aan de slag te gaan met de departementen om de tekortkomingen aan te pakken.

Gedrag van mensen

Het Rathenau Instituut onderzoekt (in opdracht van het ministerie van BZK) in het rapport ‘Algoritmes afwegen’ het gebruik van profilerende algoritmes door uitvoeringsorganisaties. Deze algoritmes proberen het gedrag van mensen te voorspellen door hen in te delen in groepen. Om te voorkomen dat dit leidt tot beoordeling op basis vooroordelen, pleit Rathenau voor de inzet van adviseurs om kennis van, en het gevoel voor ethische vraagstukken bij de rijksoverheid te vergroten. Bij het goed van informeren van burgers over het gebruik van algoritmes kunnen burgerpanels worden ingezet.

De aanbevelingen van het Rathenau Instituut zijn:

  • Verbeter de hanteerbaarheid van de juridische vereisten en ethische beginselen;
  • Stimuleer ethische expertise in de gehele organisatie;
  • Blijf investeren in privacytoetsing;
  • Versterk de manier waarop bias-toetsing plaatsvindt;
  • Investeer in een actieve informatievoorziening;
  • Versterk de waarborgen voor procedurele rechten;
  • Waak voor verkokering bij de ontwikkeling en beoordeling van algoritmische toepassingen.

De aanbevelingen komen voort uit gesprekken over de genomen maatregelen ten aanzien van profilerende algoritmes bij het UWV, het CJIB en de SVB.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses artificial intelligence and machine learning to reduce spam. See how your comment data is processed.

Related posts

Major security vulnerability discovered in popular 3CX desktop app, extensive explanation and summary.

This blog post discusses a security vulnerability discovered in the popular 3CX desktop app, a software used by many large businesses worldwide. The blog post begins by describing the official 3CX desktop app and how it is used as a replacement for traditional business phone lines. It then delves into the discovery of unexpected malicious activity originating from the 3CX desktop app by security analysts from CrowdStrike. The company's response to the discovery is criticized and the lack of preparedness of many large businesses for malware attacks is highlighted. The blog post continues with a technical explanation of how the security vulnerability works, including the presence of malicious DLL files and the encryption of malicious payloads. The severity of the security vulnerability is emphasized as it can affect hundreds or even thousands of companies using the 3CX desktop app.

Read more

Everything you need to know about the new GPT-4 How Google AI and Microsoft 365 AI shape the future

Last week was a historic week in the world of Artificial Intelligence and Machine Learning. This is due to the announcement of the official launch of GPT-4 by Open AI. Although we already had access to this AI through Bing, the official launch of GPT-4 is something to celebrate. In this blog post, we will delve deeper into the capabilities of GPT-4 and what makes this new AI so special.

Read more

Autodiefstal met USB-kabels

In deze blog bespreken we de ontwikkelingen op het gebied van autodiefstal met USB-kabels. We leggen uit hoe autodieven met deze methode te werk gaan en hoe fabrikanten proberen dit probleem aan te pakken. We bespreken enkele mogelijke oplossingen, waaronder software-updates en fysieke beveiligingsmaatregelen, om deze vorm van autodiefstal te voorkomen.

Read more
You are all caught up, this was the last message.
  • Tags

  • Categories

  • Archives

  • Skip to content