Skip to content

AI brengt vermoorde man terug in de rechtszaal – moet dit verboden worden?

Kunstmatige intelligentie heeft zich in recordtempo ontwikkeld en vindt toepassing in vrijwel alle sectoren van de samenleving. Van gezondheidszorg tot financiële dienstverlening, van entertainment tot onderwijs – AI transformeert de manier waarop we werken en leven. Het rechtssysteem vormt hierop geen uitzondering. Waar AI enorme voordelen kan bieden in juridisch onderzoek, documentanalyse en administratieve processen, ontstaan er fundamentele risico’s wanneer technologie wordt ingezet om menselijke emoties, intenties en verklaringen te simuleren. De recente zaak van Christopher Pelkey in Arizona markeert een verontrustende mijlpaal: voor het eerst in de Amerikaanse rechtspraak werd een AI-gegenereerde avatar toegestaan om namens een overleden slachtoffer te spreken tijdens een strafzaak. Deze whitepaper analyseert waarom dergelijke toepassingen van AI een gevaarlijk precedent vormen dat de integriteit van ons rechtssysteem bedreigt. We onderzoeken de technische, juridische en ethische aspecten van deze zaak en formuleren concrete aanbevelingen om soortgelijke situaties in de toekomst te voorkomen.

AI brengt vermoorde man terug in de rechtszaal – moet dit verboden worden?AI brengt vermoorde man terug in de rechtszaal – moet dit verboden worden?

Een Kritische Whitepaper naar Aanleiding van de Zaak Christopher Pelkey

Executive Summary

In mei tweeduizend vijfentwintig werd in Arizona een opmerkelijk juridisch precedent gezet, toen een door kunstmatige intelligentie gegenereerde avatar van Christopher Pelkey – een man die in tweeduizend eenentwintig omkwam bij een verkeersruzie – werd toegestaan om een slachtofferverklaring af te leggen tijdens de strafzitting tegen zijn moordenaar, Gabriel Horcasitas. Deze zaak toont de gevaarlijke richting aan waarin AI-toepassingen in het rechtssysteem kunnen gaan.

Kernbevindingen:

  • De AI-avatar sprak namens Pelkey, drukte spijt uit over de ontmoeting “onder die omstandigheden” en suggereerde zelfs dat hij en de dader in een ander leven vrienden hadden kunnen zijn. Ook sprak de avatar over vergiffenis en berusting in een hoger plan.
  • Rechter Todd Lang gaf aan geroerd te zijn door de verklaring – hij prees de presentatie en “hoorde de vergiffenis” erin – maar legde desondanks de maximale straf op: tien en een half jaar gevangenis.
  • Deze casus illustreert fundamentele problemen rond authenticiteit, bias en manipulatie in door AI-gegenereerde content. Hoewel emotioneel indrukwekkend, blijft zo’n AI-verklaring juridisch problematisch en ethisch omstreden.
  • Er ontstaan gevaarlijke precedenten voor toekomstige rechtszaken: het normaliseren van AI-“getuigen” kan leiden tot misbruik van technologie in de rechtszaal, ongelijkheid – want niet iedereen heeft toegang tot dergelijke AI – en uitholling van de menselijke maat in het recht.

Aanbevelingen:

Eén. Verbied AI-avatars en deepfakes als ‘getuigen’ in rechtbanken. Handhaaf dat alleen authentieke menselijke verklaringen worden toegelaten tijdens zittingen.

Twee. Ontwikkel strikte wetgeving omtrent AI-gebruik in juridische procedures. Definieer duidelijk welke AI-toepassingen wel of niet zijn toegestaan, en onder welke voorwaarden.

Drie. Bevorder bewustzijn over AI-bias en manipulatie. Train rechters, advocaten en juryleden in de valkuilen van door AI gegenereerde content, zodat ze hier kritisch tegenover staan.

Vier. Handhaaf menselijke authenticiteit als hoeksteen van het rechtssysteem. Technologie mag ondersteunend zijn, maar mag nooit de menselijke ervaring en morele verantwoordelijkheid overschaduwen in de rechtszaal.


Inhoudsopgave

  1. Executive Summary
  2. Inleiding
  3. Casus: De Zaak Christopher Pelkey
  4. Technische Analyse: Hoe Werd Deze AI-Avatar Gemaakt?
  5. Juridische Implicaties
  6. Ethische Dilemma’s
  7. Bias en Manipulatie: De Verborgen Gevaren
  8. Precedentwerking en Internationale Vergelijking
  9. Praktische Richtlijnen: Hoe Het Niet Moet
  10. Aanbevelingen voor Beleidsmakers
  11. Schlussfolgerung
  12. Bronnen en Literatuur

Executive Summary

In mei 2025 werd in Arizona een opmerkelijk juridisch precedent gezet toen een AI-gegenereerde avatar van Christopher Pelkey – een man die in 2021 omkwam bij een verkeersruzie – werd toegestaan om een slachtofferverklaring af te leggen tijdens de strafzitting tegen zijn moordenaar, Gabriel Horcasitasreuters.com. Deze zaak toont de gevaarlijke richting aan waarin AI-toepassingen in het rechtssysteem kunnen gaan.

Kernbevindingen:

  • De AI-avatar sprak namens Pelkey, drukte spijt uit over de ontmoeting “onder die omstandigheden” en suggereerde zelfs dat hij en de dader in een ander leven vrienden hadden kunnen zijndallasexpress.com. Ook sprak de avatar over vergiffenis en berusting in een hoger plan.
  • Rechter Todd Lang gaf aan geroerd te zijn door de verklaring – hij prees de presentatie en “hoorde de vergiffenis” erindallasexpress.com – maar legde desondanks de maximale straf op (10,5 jaar gevangenis)dallasexpress.com.
  • Deze casus illustreert fundamentele problemen rond authenticiteit, bias en manipulatie in AI-gegenereerde content. Hoewel emotioneel indrukwekkend, blijft zo’n AI-verklaring juridisch problematisch en ethisch omstreden.
  • Er ontstaan gevaarlijke precedenten voor toekomstige rechtszaken: het normaliseren van AI-“getuigen” kan leiden tot misbruik van technologie in de rechtszaal, ongelijkheid (niet iedereen heeft toegang tot dergelijke AI) en uitholling van de menselijke maat in het recht.

Aanbevelingen:

  1. Verbied AI-avatars en deepfakes als ‘getuigen’ in rechtbanken. Handhaaf dat alleen authentieke menselijke verklaringen worden toegelaten tijdens zittingen.
  2. Ontwikkel strikte wetgeving omtrent AI-gebruik in juridische procedures. Definieer duidelijk welke AI-toepassingen wel/niet zijn toegestaan en onder welke voorwaarden.
  3. Bevorder bewustzijn over AI-bias en manipulatie. Train rechters, advocaten en juryleden in de valkuilen van door AI gegenereerde content zodat ze hier kritisch tegenover staan.
  4. Handhaaf menselijke authenticiteit als hoeksteen van het rechtssysteem. Technologie mag ondersteunend zijn, maar mag nooit de menselijke ervaring en morele verantwoordelijkheid overschaduwen in de rechtszaal.

Inleiding

Kunstmatige intelligentie heeft zich in recordtempo ontwikkeld en vindt toepassing in vrijwel alle sectoren van de samenleving. Van gezondheidszorg tot financiële dienstverlening, van entertainment tot onderwijs – AI transformeert de manier waarop we werken en leven. Het rechtssysteem vormt hierop geen uitzondering.

Waar AI enorme voordelen kan bieden in juridisch onderzoek, documentanalyse en administratieve processen, ontstaan er fundamentele risico’s wanneer technologie wordt ingezet om menselijke emoties, intenties en verklaringen te simuleren. De recente zaak van Christopher Pelkey in Arizona markeert een verontrustende mijlpaal: voor het eerst in de Amerikaanse rechtspraak werd een AI-gegenereerde avatar toegestaan om namens een overleden slachtoffer te spreken tijdens een strafzaakreuters.com.

Deze whitepaper analyseert waarom dergelijke toepassingen van AI een gevaarlijk precedent vormen dat de integriteit van ons rechtssysteem bedreigt. We onderzoeken de technische, juridische en ethische aspecten van deze zaak en formuleren concrete aanbevelingen om soortgelijke situaties in de toekomst te voorkomen.


Casus: De Zaak Christopher Pelkey

Hintergrund

Op een fatale dag in november 2021 werd Christopher Pelkey het slachtoffer van een verkeersagressie-incident in Chandler, Arizona. Pelkey, een 37-jarige Amerikaanse leger-veteraan, was onderweg naar huis toen een conflict ontstond met een andere bestuurder bij een stoplicht. De situatie escaleerde: Pelkey stapte uit zijn truck en liep naar de auto van de ander, waarop Gabriel Paul Horcasitas een vuurwapen trok en Pelkey doodschootwwnytv.com. Horcasitas, destijds 54 jaar, werd later schuldig bevonden aan doodslag (manslaughter) en roekeloos gevaar (endangerment).

Na jaren van juridische procedures – waaronder een herhaling van het proces wegens procedurefouten – kwam de zaak in 2025 tot een climax tijdens de strafzitting. Familie en vrienden van Pelkey dienden tientallen slachtofferverklaringen in die zijn humor, karakter en militaire dienst belichttenwwnytv.com. Maar niets kwam zo dichtbij als de ervaring om het slachtoffer zelf te horen spreken – althans, een door AI geconstrueerde versie van hem.

De AI-Avatar

De zus van de overleden Christopher Pelkey houdt een foto van haar broer vast. Stacey Wales, de zus van Pelkey, had twee jaar lang gewerkt aan haar slachtofferverklaring. Ondanks die tijd voelde ze dat haar eigen woorden ontoereikend waren om de menselijkheid en het unieke karakter van haar broer over te brengen. In samenwerking met haar echtgenoot (die werkzaam is in de tech-industrie) besloot ze een revolutionaire stap te zetten: het creëren van een AI-avatar die Christopher zou kunnen laten “spreken” tijdens de rechtszaak.

De AI-avatar zag eruit als Christopher, klonk als Christopher, en sprak woorden die zijn familie had geschreven alsof hij ze zelf uitsprak. Tijdens de strafzitting richtte de avatar zich in een videoboodschap direct tot zijn moordenaar:

“Aan Gabriel Horcasitas, de man die me heeft doodgeschoten: het is jammer dat we elkaar die dag onder die omstandigheden zijn tegengekomen.”

Vervolgens bood de AI-gegenereerde Chris vergiffenis aan en suggereerde dat de twee mannen in een ander leven vrienden hadden kunnen wordendallasexpress.com. Hij sprak over geloof, vergeving en moedigde iedereen aan elke dag te koesteren, niet wetend hoeveel tijd je hebt.

Reactie van de Rechter

Rechter Todd Lang – die de zaak voorzat in het Maricopa County Superior Court – liet zich duidelijk raken door de AI-verklaring. Na het bekijken van de video sprak hij de familie toe en zei dat hij zich kon voorstellen dat Pelkey daadwerkelijk zulke gevoelens van begrip en vergiffenis zou hebben gehadwwnytv.com“Ondanks dat dat de maximale straf was wat jullie wilden, hebben jullie Chris vanuit zijn hart laten spreken zoals júllie dat zagen,” merkte hij opwwnytv.com. Lang prees de boodschap als oprecht en bedankte de familie: “I loved that AI. […] Ik hoorde de vergiffenis. En ik weet dat meneer Horcasitas het waardeerde, maar ik ook.”dallasexpress.com

Deze opmerkingen zijn veelzeggend omdat ze laten zien hoe de rechter de AI-avatar behandelde alsof het werkelijk Christopher was die sprak – en niet een technologische simulatie gebaseerd op interpretaties van zijn nabestaanden. Lang hoorde “Chris spreken vanuit zijn hart” en refereerde aan de avatar met “hem” in plaats van “het”, wat de grens tussen realiteit en simulatie in de rechtszaal deed vervagen.

De Paradox

Ondanks de vergevingsgezinde boodschap van de AI-avatar en de erkenning daarvan door de rechter, werd Gabriel Horcasitas veroordeeld tot de maximale straf van 10,5 jaar gevangenisstrafdallasexpress.com. Dit creëert een merkwaardige paradox: de AI liet een boodschap van vergiffenis en gematigdheid horen – Pelkey vroeg niet om de hoogste straf – maar de rechter legde uiteindelijk tóch de hoogst mogelijke straf op.

Deze incongruentie toont een fundamenteel probleem: de AI-verklaring had emotionele impact, maar geen daadwerkelijke invloed op de juridische uitkomst. Dit werpt vragen op over de toegevoegde waarde versus de potentiële risico’s van dergelijke technologie. Was de avatar uiteindelijk niet meer dan een emotioneel aandoenlijk schouwspel zonder juridisch gewicht? Zo ja, waarom zouden we dan het gevaar omarmen dat inherent is aan het toelaten van dit soort content in de rechtszaal?


Technische Analyse: Hoe Werd Deze AI-Avatar Gemaakt?

De Technologie Achter de Avatar

Het creëren van een AI-avatar zoals die van Christopher Pelkey vereist meerdere geavanceerde technologieën:

  1. Deep Learning en Neurale Netwerken –
    Gezichtssynthese: Met Generative Adversarial Networks (GAN’s) kan een realistisch ogend beeld van een persoon worden gegenereerd of gemanipuleerd. In dit geval werd een foto van Christopher als basis genomen en bewerkt.
    Spraaksynthese: AI-modellen (bijvoorbeeld op basis van neurale netwerken) worden getraind op audio-opnames van de stem van de persoon. Zo’n model kan vervolgens nieuwe zinnen genereren in die stem.
    Lipsynchronisatie: Er worden algoritmen toegepast om de mondbewegingen van de avatar naadloos te laten passen bij de gesynthetiseerde spraak, zodat beeld en audio synchroon lopen.
  2. Training Data –
    De kwaliteit van de AI-avatar hangt volledig af van de beschikbare data:
    – Beeldmateriaal: Foto’s en video’s van Christopher uit verschillende hoeken, met diverse gezichtsuitdrukkingen.
    – Audio: Geluidsfragmenten (bv. voicemails, video’s) om de stem en intonatie te vangen.
    – Teksten: Schriftelijke uitingen (e-mails, berichten, social media) die iets zeggen over zijn wijze van spreken en persoonlijkheid.
    – Contextuele input: Herinneringen van familie/vrienden over karaktereigenschappen, woordkeuze en humor, om de avatar een authentieke toon mee te geven.
  3. Beperkingen van de Technologie –
    Hallucinatie-probleem: AI-modellen kunnen informatie “hallucineren”, d.w.z. content verzinnen die niet gebaseerd is op de werkelijkheid maar op statistische patronen. De avatar kan dus zinnen uitspreken die Christopher nooit zo gezegd zou hebben.
    Gebrekkig Begrip: Een AI begrijpt niet echt wat het zegt – het reproduceert slechts patronen. Emotie en intentie zijn gesimuleerd, niet daadwerkelijk gevoeld of bedoeld.
    Bias-versterking: Als de input-data een vertekend of beperkt beeld geven (bijvoorbeeld vooral serieuze of juist grappige fragmenten), zal de avatar die bias overnemen en mogelijk uitvergroten. Hierop komen we later terug (zie Bias en Manipulatie).

Voorbeeld – de Zaak Pelkey: In dit concrete geval werd de avatar vervaardigd met behulp van slechts enkele bronnen. Wales en haar helpers gebruikten een YouTube-video van Pelkey (opgenomen na een PTSS-behandeling) om een spraakmodel van zijn stem te trainen, en één foto (van een poster bij zijn uitvaart) als visuele basisdallasexpress.com. Vervolgens werd Pelkey’s uiterlijk in die foto iets aangepast – zijn baard werd digitaal bijgeknipt en zijn bril en petlogo werden verwijderd – om een natuurlijk ogende digitale versie van zijn gezicht te creërendallasexpress.com. Stacey Wales schreef zelf het script van de boodschap, en samen met haar man en een zakenpartner (beiden met AI-ervaring) zette ze de technische parameters uit. Met andere woorden: de “stem van Chris” was in werkelijkheid een geconstrueerde interpretatie door meerdere partijen, verpakt in een technisch jasjedallasexpress.com.

Wie Controleert de Boodschap?

Een cruciaal punt dat vaak over het hoofd wordt gezien: wie bepaalt eigenlijk wat de AI-avatar zegt?

In de keten van totstandkoming zien we meerdere lagen van menselijke invloed:

  • De Familie: Stacey en de familie schreven de tekst van de slachtofferverklaring. Hun woorden – niet die van Christopher zelf – werden in de mond van de avatar gelegd. Hun interpretatie van wat hij zou zeggen, kleurt de hele boodschap.
  • De AI-ontwikkelaars: De mensen die de avatar technisch hebben gemaakt, bepalen hoe getrouw of juist “gepolijst” de avatar is. Kleine beslissingen (zoals het weglaten van een bril, of het net iets vriendelijker laten kijken van het gezicht) beïnvloeden de perceptie.
  • De Training Data: De selectie van foto’s, audio en andere data bepaalt welke versie van Christopher getoond wordt. Wordt hij lachend of serieus afgebeeld? Klinkt zijn stem warm of afstandelijk? Dit valt terug op welke input is gebruikt.
  • De Algoritmes: De gebruikte AI-modellen brengen hun eigen statistische biases mee. Zo kan een spraaksynthesemodel bepaalde woorden vloeiender uitspreken dan andere, of een gezichtsgeneratiemodel subtiliteiten verliezen.

Deze keten van menselijk ingrijpen betekent dat de “stem van Christopher” in werkelijkheid een geconstrueerde echo is – samengesteld door nabestaanden en technici. Het is niet een authentieke uiting van het slachtoffer zelf, hoe overtuigend het resultaat er ook uitziet.


Juridische Implicaties

Bewijswaarde en Authenticiteit

Een fundamenteel probleem rijst meteen: een AI-gegenereerde verklaring kan nooit worden geverifieerd als authentiek. Er is geen objectieve manier om vast te stellen dat Christopher Pelkey zélf daadwerkelijk deze woorden zou hebben gesproken of deze gevoelens zou hebben gehad.

Ter vergelijking:

  • Getuigenverklaring (traditioneel): Een levende getuige staat onder ede, kan worden ondervraagd (kruisverhoor) en is strafbaar bij meineed. De geloofwaardigheid wordt ingeschat door menselijk gedrag te observeren.
  • Documentair bewijs: Stukken kunnen op echtheid worden onderzocht (handtekening, watermerk, bronherkomst). Valsheid in geschrifte is aantoonbaar met forensisch onderzoek.
  • AI-avatar “verklaring”: Deze is door niemand direct uitgesproken en volledig door mens en machine samengesteld. Authenticiteit berust puur op vertrouwen in de makers; bewijswaarde heeft het strikt genomen niet.

In de zaak Pelkey was de AI-video formeel gezien geen bewijs (het werd toegelaten tijdens sentencing, waar regels minder strikt zijn). Maar stel dat zo’n video in een andere fase of toekomstige zaak wordt ingebracht – hoe zou men de authenticiteit kunnen waarborgen? Het simpele antwoord is: niet. Zoals hoogleraar Harry Surden opmerkt, is de content van generatieve AI uiteindelijk een “simulatie van de realiteit, niet het verifieerbare bewijs dat rechtbanken normaliter beoordelen”reuters.com. We betreden hier onontgonnen juridisch terrein.

Precedentwerking

De acceptatie van AI-avatar testimony in Arizona creëert een gevaarlijk precedent. En precedenten hebben de neiging om navolging te krijgen. Enkele mogelijke gevolgen:

  1. Emotionele Manipulatie: Toekomstige slachtoffers of aanklagers zouden in de verleiding kunnen komen om AI in te zetten voor maximale emotionele impact. Denk aan “perfecte” slachtofferverklaringen die zo ontroerend of schokkend mogelijk zijn gemaakt om de uitspraak te beïnvloeden. Dit is een stap verder dan de huidige praktijk (waarbij bijvoorbeeld foto’s van het slachtoffer of emotionele familieverklaringen al mogen bij sentencing) – het is technologische versterking van emotie.
  2. Ongelijke Toegang tot Technologie: Niet alle slachtoffers of verdachten hebben toegang tot geavanceerde AI-technologie. Als dit soort presentaties genormaliseerd raakt, ontstaat er een ongelijk speelveld. De welvarende of technisch onderlegde partijen kunnen digitale “getuigen” opvoeren, terwijl anderen dat niet kunnen. Gerechtigheid zou nooit mogen afhangen van wie de beste techneut kan inhuren.
  3. Uitbreiding naar Verdachten: Als AI-avatars voor slachtofferverklaringen worden geaccepteerd, waar trekt men dan de grens? Kan een verdachte of veroordeelde dan ook een AI-avatar van zichzelf of een getuige opvoeren om zijn onschuld te bepleiten? Gaat het rechtssysteem straks ook digitale dubbelgangers van verdachten toestaan om bijvoorbeeld alibi’s te verschaffen of emotie op te wekken bij de jury?
  4. Juridische Verwarring: Hogerberoepsrechters zullen zich moeten buigen over de toelaatbaarheid van dit soort materiaal. In de Pelkey-zaak noemde de advocaat van de verdediging de AI-presentatie “inflammatory” en stelde dat dit een sterke grond voor beroep oplevertdallasexpress.com. Appelrechters zullen moeten beslissen of het gebruik van de AI-video een procedurefout was die eventueel de strafmaat beïnvloed heeft. Dat alleen al betekent tijdrovende nieuwe jurisprudentie en onzekerheid.

Juridische Uitdagingen

Admissibility (Toelaatbaarheid): De meeste rechtssystemen hanteren strikte regels voor welke bewijsmiddelen zijn toegestaan. AI-gegenereerde content wringt zich lastig in bestaande categorieën. Het is geen getuigenverklaring, geen document, geen expert-opinie – wat is het dan? Veel juristen zullen betogen dat het niet voldoet aan de standaarden van toelaatbaarheid, omdat: (a) het niet verifieerbaar is; (b) de bron niet direct is (hoor-zeg risico’s en geen mogelijkheid tot kruisverhoor); en (c) manipulatie zeer wel mogelijk is zonder dat zichtbaar te maken.

Cross-Examination: Men kan geen kruisverhoor houden met een video-avatar. Cruciale elementen van onze waarheidsvinding – inconsistenties blootleggen, motieven bevragen, betrouwbaarheid aftasten – vallen weg. Zelfs als de ontwikkelaars of familieleden zouden worden opgeroepen om het proces toe te lichten, blijft de kern dat de “spreker” zelf niet bevraagd kan worden. Dit schuurt met het Confrontatiebeginsel (recht van de verdachte om getuigen te ondervragen) in Anglo-Amerikaans recht, en met het Tegenbewijsrecht in het Nederlands recht.

Due Process / Eerlijk Proces: Het recht op een eerlijk proces vereist een gelijk speelveld voor beide partijen met gelijke mogelijkheden om bewijs te leveren en te betwisten. AI-avatars werpen lastige vragen op: als de ene partij dit gebruikt, moet de andere partij dan een eigen AI-expert hebben om te counteren? En wat als de technologie faalt of misleidt – wie draagt dan de consequenties? Zonder duidelijke regels kan AI in de rechtszaal de procesorde en -gelijkheid verstoren.


Ethische Dilemma’s

Respect voor de Overledene

Centrale vraag: Hebben nabestaanden het recht om namens een overledene te spreken via AI – zelfs als dit niet overeenkomt met wat de persoon zélf werkelijk zou hebben gezegd? Dit is een grijs gebied tussen herdenking en misrepresentatie.

Christopher Pelkey kan niet bevestigen of ontkennen dat hij deze gevoelens van vergiffenis echt zou hebben gekoesterd tegenover zijn killer. De AI-avatar presenteert een versie van Christopher die mogelijk niet accuraat is, maar wel krachtige emotionele impact heeft. Is het rechtvaardig om zijn nagedachtenis op deze manier “in te vullen”? Nabestaanden hebben uiteraard het recht om hun eigen gevoelens te delen, maar in hoeverre mogen ze postuum de gevoelens van de overledene claimen of vormgeven?

Een argument zou kunnen zijn dat Stacey Wales handelde in wat zij dacht dat Christophers geest zou zijn – maar dit blijft speculatief. Postume stemmen roepen ook de vraag op van toestemming: Christopher heeft nooit toestemming gegeven voor het gebruik van zijn likeness of stem na zijn dood, zeker niet in een rechtbanksetting. Juridisch valt dit wellicht onder nabestaandenrecht, maar ethisch is het allerminst vanzelfsprekend.

Waardigheid en Menselijkheid

Er kleven zorgen aan het instrumentaliseren van een overledene via AI:

  • Instrumentalisatie: Wordt Christopher hier gereduceerd tot een “instrument” om een doel te bereiken in de rechtszaal (bijvoorbeeld een hogere of juist lagere straf uitlokken)? Veel mensen vinden het idee ongemakkelijk dat iemands beeld en stem na de dood kunnen worden ingezet alsof het gereedschappen zijn.
  • Authenticiteit: Menselijke uitlatingen danken hun kracht aan authenticiteit – dat de woorden spontaan door de persoon zelf gevoeld en uitgesproken zijn. Bij AI-avatars ontbreekt dit volledig. Is een boodschap nog van waarde als deze niet echt doorleefd is, of is het dan een vorm van misleiding, ongeacht hoe nobel de intentie?
  • Menselijke Rouw: Vanuit psychologisch oogpunt kan het maken van een AI-avatar van een overleden geliefde het rouwproces compliceren. Het geeft een illusie van “hij is er nog een beetje”, terwijl tegelijkertijd de harde werkelijkheid is dat hij er niet meer is. Dit kan verwerking vertragen of verwarren. Daarnaast moeten ook derden (zoals rechters of juryleden) emotioneel omgaan met een dergelijk fenomeen – het kan voor hen ook verwarrend zijn om een virtuele overledene toe te spreken of aan te horen.

Rouw en Verwerking

Voor nabestaanden als Stacey Wales was de drijfveer achter de AI-avatar het gevoel dat ze anders niet recht kon doen aan haar broer. Er zit iets ontroerends in die motivatie – wie wil niet dat een geliefde nog eenmaal zijn eigen verhaal kan vertellen? Tegelijkertijd kan deze drang ook voortkomen uit onvoltooid rouwproces.

Therapeuten waarschuwen dat vasthouden aan digitale herinneringen (bijvoorbeeld chatbots van overledenen, of VR-herontmoetingen) kan interfereren met het noodzakelijke proces van afscheid nemen. In zekere zin bevriest de AI-avatar de overledene in de tijd en maakt hem weer actief in het heden, wat de nabestaanden emotioneel kan belasten. Moet de rechtszaal een platform zijn waar deze experimentele rouwverwerkingsmethoden een rol spelen?

Consent en Autonomie

Een overkoepelend ethisch thema is autonomie en toestemming. Christopher’s autonome leven is hem ontnomen door het misdrijf. Ironisch genoeg wordt vervolgens ook zijn postume autonomie (voor zover je daarvan kunt spreken) ingeperkt door iemand anders zijn stem te laten voeren.

Als we dit breder trekken: stel dat iemand bij leven expliciet aangeeft niet te willen dat AI ooit zijn stem of beeld nabootst – zouden we dat juridisch moeten respecteren? En omgekeerd, als iemand het bij leven welgoedkeurt, geeft dat dan carte blanche aan nabestaanden?

We hebben hiervoor weinig precedent. Het raakt aan vragen van persoonlijkheidsrechten na de dood (die per jurisdictie verschillen). In ieder geval toont deze casus dat technologie verder gaat dan wat ons ethisch kompas al had doordacht.


Bias en Manipulatie: De Verborgen Gevaren

Systematische Bias in AI-Systemen

Recente studies tonen aan dat AI-systemen in juridische contexten systematische vertekeningen (biases) kunnen vertonenvisionfactory.org. Een AI-systeem leert immers van historische data – en die data bevatten vaak de vooroordelen van de samenleving. Zo’n systeem zal die vooroordelen dan onbewust overnemen. Met andere woorden: “some algorithms run the risk of replicating and even amplifying human biases” – ze reproduceren en vergroten de aanwezige raciale, gender- en socio-economische vooroordelenvisionfactory.org.

Bronnen van bias in deze context:

  1. Training Data Bias: Als de gegevens waarmee de AI getraind wordt bevooroordeeld zijn (bijvoorbeeld overwegend blanke gezichten, of teksten vol stereotypen), dan zal de output dat ook zijn. In de Pelkey-case is de “training data” door de familie samengesteld – onbewust kan hun eigen kijk bias meebrengen (ze benadrukten bijvoorbeeld zijn vergevingsgezindheid boven andere eigenschappen).
  2. Selectiebias: Welke uitspraken, foto’s en video’s zijn geselecteerd om Christopher te representeren? Misschien zijn vooral sympathieke beelden gekozen. Wat als dat een te rooskleurig of eenzijdig beeld schetst? Een ander familielid had wellicht andere fragmenten gekozen en daarmee een andere toon gezet.
  3. Presentatiebias: De boodschap kan zo geformuleerd en geoptimaliseerd zijn dat hij maximaal effect sorteert. Dit is niet per se het gemiddelde van wat Christopher zou zeggen, maar een bewuste keuze voor impact. Daarmee ontstaat een scheef beeld – alsof Christopher altijd zo eloquent of vergevingsgezind sprak, wat mogelijk niet zo was.
  4. Culturele Bias in AI: De software en algoritmen zelf zijn vaak in een bepaalde taal/cultuur ontwikkeld. Subtiele dingen als gezichtsuitdrukkingen of intonatie die voor de ene cultuur vergevingsgezind lijken, kunnen elders anders worden geïnterpreteerd. Een AI-avatar zou hierdoor misverstanden kunnen creëren bij rechters of jury’s van verschillende achtergronden.

Emotionele Manipulatie

Een AI-gegenereerde avatar kan – wellicht onbedoeld – de emoties in de rechtszaal manipuleren. In de psychologie kennen we het “Uncanny Valley”-effect, waar een bijna-menselijke simulatie een griezelig of juist fascinerend gevoel kan oproepen. In dit geval speelde de AI-video behendig in op empathie en medeleven.

Technieken van manipulatie die hier (of in toekomstige gevallen) aan de orde zijn:

  • Visuele Optimalisatie: De avatar van Chris zag er vredig en weloverwogen uit: keurig verzorgd, neutrale achtergrond, rustige mimiek. Dit zijn bewuste keuzes – men had hem ook woedend of huilend kunnen laten overkomen. De gekozen verschijning optimaliseerde de kans dat de rechter ontroerd raakte (en de rechter wás zichtbaar geroerddallasexpress.com). In de toekomst zou men avatars bewust nog “perfecter” kunnen laten ogen dan de persoon ooit in het echt deed, om extra sympathie op te wekken.
  • Vocale Manipulatie: Door AI-intonatie en stemkleur subtiel aan te passen, kan de spreker extra emotioneel of juist rationeel klinken. Een doorleefde tremor in de stem, een strategische pauze – AI kan dit inbouwen. Het is een vorm van voice acting op steroïden, zonder dat er een acteur aan te pas komt.
  • Scriptoptimalisatie: Men zou verschillende versies van een verklaring kunnen uittesten (bijvoorbeeld aan focusgroepen of via AI-simulaties) om te zien welke het meeste effect sorteert. De uiteindelijk gepresenteerde verklaring is dan niet per se de meest oprechte, maar de meest effectieve. Dit riekt naar marketing van emotie – iets wat we in juridische context uiterst voorzichtig moeten benaderen.

Zoals een expert het verwoordde: de simulaties zijn tegenwoordig zó goed dat ze “onze natuurlijke scepsis volledig omzeilen en rechtstreeks op onze emotie afgaan”reuters.com. Met andere woorden, rechters en juryleden kunnen zich laten meevoeren door een digitaal gecreëerde emotiepresentatie, op een manier die bij een live-getuige wellicht niet zo sterk was geweest. Dit is een totaal nieuwe uitdaging voor de objectiviteit van het rechtsproces.

Case Study: Onbedoelde Gevolgen

De zaak Pelkey zelf had onbedoelde consequenties. Stacey Wales’ doel was om vergiffenis over te brengen en de menselijkheid van haar broer te tonen. Paradoxaal genoeg resulteerde dit niet in een mildere straf – Horcasitas kreeg toch de maximale straf. Wellicht voelde de rechter zich, ondanks de vergevingsgezinde woorden, vrij om streng te straffen omdat de familie (in hun eigen verklaringen en brieven) wél om de maximumstraf had gevraagdcbsnews.comwwnytv.com. De AI-verklaring creëerde dus een emotioneel moment, maar veranderde het uitkomst niet.

Toch kan men zich andere scenario’s indenken:

  • AI-avatar eist wraak: Stel dat een nabestaande een AI maakt die in naam van het slachtoffer woedend om wraak schreeuwt en een zware straf eist. Hoe zou een rechter daarmee omgaan? Zou dat als ontoelaatbaar beïnvloedend kunnen worden gezien? De kans op vooringenomenheid bij de beslissers is dan levensgroot.
  • Tegenstrijdige avatars: Wat als verschillende familieleden verschillende AI-avatars zouden maken van dezelfde persoon, met tegenstrijdige boodschappen? (Bijvoorbeeld een gescheiden ouder en partner van het slachtoffer die elk een andere lezing geven van wat het slachtoffer “zou zeggen”.) De rechter zou in een bizarre situatie komen van “digitale schizofrenie” – welke stem is de echte?
  • Misbruik en Hacks: Zodra iets digitaal is, kan het gemanipuleerd worden. Denk aan scenario’s waar een hacker de content subtiel wijzigt – een mondbeweging net anders, een woordje vervangen – om twijfel of verwarring te zaaien. Of een partij die stiekem AI inzet om een video echt te laten lijken (deepfake) en het als traditioneel bewijs indient zonder te melden dat het AI is.
  • Commercialisatie van Herdenkingsavatars: Men kan zich voorstellen dat tech-bedrijven dit aangrijpen: “Laat uw geliefde nog één keer spreken op de rechtszitting – services starting at $9,999”. Dit klinkt cynisch, maar gezien de commercialisatie van begrafenisdiensten en herinneringsfotografie is het niet ondenkbaar. Zo’n ontwikkeling zou de kloof tussen partijen met middelen en partijen zonder middelen in de rechtszaal verder vergroten.

De conclusie is dat het toelaten van AI-gegenereerde menselijke avatars in juridische procedures een doos van Pandora opent. Zelfs met de beste intenties zijn de gevolgen onvoorspelbaar en potentieel ontwrichtend.


Precedentwerking en Internationale Vergelijking

Amerikaanse Context

De zaak Pelkey is “naar verluidt een eerste in Amerikaanse rechtbanken” waar een AI-avatar werd gebruikt om namens een overledene te sprekenreuters.com. Dit maakt het een belangrijke precedentzaak die nationaal de aandacht trok. De reacties binnen de Amerikaanse juridische gemeenschap lopen uiteen:

  • Advocatuur (Verdediging): Jason Lamm, de advocaat van Horcasitas, noemde de AI-presentatie “onverantwoord en inflammatory” (opruiend) en waarschuwde dat hiermee een sterk argument voor hoger beroep is gegevendallasexpress.com. Volgens hem is dit wellicht “te ver gegaan” en zou een beroepshof kunnen oordelen dat de rechter’s gebruik van de AI-video een reversible error was – een fout die een nieuwe veroordeling vereistdallasexpress.com.
  • Ethici en Slachtofferadvocaten: Velen uiten zorgen over de precedentwerking. Ze wijzen erop dat dit emoties in de rechtszaal kan opstoken op een manier die moeilijk te controleren is. “Het zal duidelijk de emoties nog sterker aanwakkeren dan foto’s ooit kunnen,” zei Cynthia Godsoe, professor aan Brooklyn Law Schooldallasexpress.com“Rechtbanken moeten hier uiterst voorzichtig mee zijn… dit is een glibberig hellend vlak.”dallasexpress.com
  • Technologie- en Rechtsexperts: Sommige experts zagen de stap als begrijpelijk vanuit de familie, maar gevaarlijk qua principe. Gary Marchant, jurist en tech-ethicus, prees de familie voor hun intentie maar voegde toe: “Aan de ene kant heeft de familie echt goed vertegenwoordigd wat hij zou hebben gezegd. Maar aan de andere kant: het is compleet nep, toch? Het is niet waar… Dit is een extra sprong waarvan ik voel dat die ons op gevaarlijk terrein brengt.”dallasexpress.com Generatie AI in de rechtszaal dreigt dus volgens hen de realiteit te vervangen door een construct – een grens waar justitie mee moet worstelen.
  • Rechters: Hoewel rechter Lang het in dit geval toeliet, kan men in de toekomst strengere rechters verwachten die dit soort uitingen weren. De discussie binnen de judiciary is op gang gekomen: hoe hiermee om te gaan? De National Center for State Courts in de VS is bijvoorbeeld reeds bezig met ethische richtlijnen voor AI in de rechtspraakpmc.ncbi.nlm.nih.gov.

Internationale Perspectieven

Europese Unie (EU)

De EU heeft proactief strikte regelgeving rondom AI-gebruik opgesteld. De EU AI Act – in 2024 aangenomen – classificeert AI-toepassingen in de rechtspraak expliciet als “high-risk”. AI-systemen die worden gebruikt bij de uitoefening van justitie of democratische processen moeten voldoen aan strenge eisen op het gebied van transparantie, menselijke controle en data-kwaliteitvisionfactory.org. Het inzetten van een AI-avatar in een rechtszaak zou in Europa waarschijnlijk alleen mogen onder zeer strikte voorwaarden, of mogelijk zelfs geheel ontmoedigd worden. Bovendien verplicht de AI Act dat AI-gegeneerde content (zoals deepfakes) duidelijk als zodanig herkenbaar moet zijn wanneer ze in publiek domein worden gebruiktdigital-strategy.ec.europa.eu – in een rechtszaal zou een dergelijk “watermerk” of disclosure zeker vereist zijn.

Die Niederlande

In Nederland is een dergelijk geval als dat van Pelkey nog niet voorgekomen, en er zijn nog geen specifieke richtlijnen over AI-avatars in de rechtszaal. Toch wordt er nagedacht over de rol van AI. De Nederlandse Orde van Advocaten (NOvA) waarschuwde in 2023 al voor de risico’s van AI-bias in juridische procedures (in een rapport “AI en rechtspraak: mogelijkheden en grenzen”). De Rechtspraak (de rechterlijke organisatie) zelf heeft in 2025 een AI-strategie gepubliceerd waarin ze stelt dat nooit een “robotrechter” een zitting zal voorzitten in Nederlandadvocatie.nl“Het gebruik van AI vindt uitsluitend plaats binnen de kaders van de rechtsstaat, waarbij menselijke controle, transparantie en ethische waarborgen centraal staan,” aldus de Rechtspraakadvocatie.nl. Dit geeft aan dat men zeer terughoudend wil zijn: AI kan helpen bij administratieve processen en juridisch onderzoek, maar mag niet de menselijke beslisser of getuige vervangen.

Andere Jurisdicties

  • Verenigd Koninkrijk: Het VK ontwikkelt op dit moment richtlijnen voor AI in de rechtszaal. Er zijn gevallen geweest waar advocaten gesanctioneerd werden omdat ze AI gebruikten die verzonnen jurisprudentie opleverdereuters.com. Taskforces buigen zich over de vraag hoe innovatie te balanceren met rechten van verdachten en slachtoffers. Zowel in het VK als in Canada verkent men hoe AI innovatief kan worden ingezet zonder de rechtsgang oneerlijk te maken; rechtbanken richten er speciale commissies op in voor ethische en procedurele vraagstukkenvisionfactory.org.
  • Canada: Canada experimenteert op beperkte schaal met AI (bijvoorbeeld voor procesplanning of het analyseren van bewijsstukken), maar houdt strenge menselijke toetsing in stand. Ook hier geldt dat AI achter de schermen wordt gezien als nuttig, maar voor de schermen (in de rechtszaal zelf) als potentieel disruptief.
  • Australië: In Australië zijn er geluiden om AI-gegenereerde content in juridische context te reguleren. Sommige deelstaten eisen bijvoorbeeld dat indien AI bij bewijsproductie is gebruikt, dit uitdrukkelijk vermeld moet worden (disclosure), en overwegen anders die bewijzen als ontoelaatbaar te bestempelen. Hoewel er nog geen federale wet specifiek hierover is, staat Australië bekend om haar strenge houding tegen digitale manipulatie (bijvoorbeeld deepfake-wetten op het gebied van pornografie en defamation).

Precedent-Analyse

Waarom is het precedent van de Pelkey-zaak zo gevaarlijk? Samengevat:

  1. Normalisatie: Wat eens gebeurd is, kan gemakkelijker weer gebeuren. Als één rechter het toelaat, durven anderen het wellicht ook toe te laten. Voor je het weet, is een uitzondering een nieuwe norm geworden.
  2. Escalatie: Andere partijen (aanklagers, verdachten) zullen op den duur proberen nóg geavanceerdere AI-tools in te zetten om hun kant van het verhaal kracht bij te zetten. Vandaag is het een slachtofferavatar; morgen misschien een AI-gegenereerde re-enactment van het misdrijf of een AI “karaktergetuige”.
  3. Commercialisatie: Waar een markt voor is, komt een aanbod. Tech-bedrijven zullen juridische AI-diensten aanbieden – bijvoorbeeld “virtuele slachtofferverklaring pakketten” – die professioneel en gelikt zijn. Dit zet druk op partijen om mee te gaan in de trend om niet achter te blijven in impact.
  4. Ongelijkheid: Zoals genoemd, kunnen alleen kapitaalkrachtige of technologisch vaardige partijen dit maximaal benutten. De socio-economische kloof kan zich vertalen naar een justitiekloof – iets wat het vertrouwen in rechtspraak ondermijnt.

Kortom, de geest is uit de fles met de Pelkey-case, en het is aan wetgevers en juristen om die er zo snel mogelijk weer in te krijgen voordat hij wild om zich heen gaat.


Praktische Richtlijnen: Hoe Het Niet Moet

Op basis van bovenstaande analyse dringen we aan op een aantal duidelijke grenzen en richtlijnen voor het gebruik van AI in de rechtszaal. Hieronder een lijst van wat niet moet worden toegestaan, en welke voorzorgsmaatregelen absoluut nodig zijn:

Absolute Verboden

1. Geen AI-Representatie van Personen in Rechtszaken
– Verbod op AI-avatars als sprekende partij: In geen geval mag een AI-gegenereerde avatar of video die een echt persoon simuleert, worden toegelaten als verklaring von getuigenis tijdens een rechtszitting. Overledenen laten “spreken”, of zelfs levende betrokkenen virtueel laten optreden, moet taboe zijn.
– Verbod op deepfakes als bewijs: Visuele of auditieve deepfakes die personen na-apen, dienen expliciet verboden te worden als bewijs of statement. Dit om te voorkomen dat gemanipuleerd beeldmateriaal emoties of oordelen oneigenlijk beïnvloedt.
– Verbod op AI-stemsynthese van echte individuen: Evenzo zouden rechtbanken geen audio-fragmenten mogen accepteren waarin AI iemands stem nabootst (bijv. om een bekentenis of verklaring te fabriceren).

2. Strikte Transparantie-eisen voor Elk AI-gebruik
Indien AI op enige wijze gebruikt wordt in toegestaan ondersteunend bewijs (bijvoorbeeld AI die helpt bij bewijsanalyse of forensisch onderzoek), moet dit volledig transparant gebeuren:
– Alle partijen en de rechter moeten vóóraf geïnformeerd worden over de inzet van AI.
– Er moet documentatie beschikbaar zijn van de gebruikte technologie: welk algoritme, welke versie, welke trainingsdata, foutmarges, etc.
– AI-uitkomsten moeten duidelijk gemarkeerd worden. Bijvoorbeeld: een forensisch rapport wygemaakt door AI moet dit kenbaar maken, zodat duidelijk is welke delen menselijk en welke door machine zijn verkregen.

3. Verificatie- en Authenticiteitprotocollen
– Detectie van AI-content: Rechtbanken zouden protocollen moeten hebben om AI-gegenereerde content op te sporen. Bijvoorbeeld software of expert-analyses die kunnen herkennen of een video gemanipuleerd is. Sommige rechtbanken zijn hier al mee begonnen: men vertrouwt op digitale forensische analyse en metadata-onderzoek om de echtheid van beelden te checkenvisionfactory.org.
– Digitale Watermerken: Overwogen moet worden om verplicht te stellen dat alle ingebrachte audiovisuele media een soort digitaal watermerk of authenticiteitscertificaat dragen, zodat tampering kan worden gedetecteerdvisionfactory.org. Fabrikanten van AI-systemen zouden kunnen worden verplicht zo’n watermark in hun output in te bakken.
– Expert-getuigen: Indien AI-bewijs toch wordt overwogen, zou de partij die het inbrengt een AI-deskundige moeten oproepen die onder ede toelicht hóe de content tot stand kwam en welke onzekerheidsfactoren er zijn. Dit geeft de tegenpartij en de rechter de kans kritische vragen te stellen – een vorm van kruisverhoor van het AI-proces als het ware.
– Mogelijkheid tot Tegenonderzoek: De tegenpartij moet in de gelegenheid zijn eigen experts te laten kijken naar AI-geproduceerd materiaal. Dit om onafhankelijk te verifiëren dat er geen bias of fouten in zit. Zo nodig moet de rechtbank middelen beschikbaar stellen (uit overweging van equality of arms) voor minder gefortuneerde partijen om AI-expertise in te huren.

Implementatie-richtlijnen

De volgende praktische stappen kunnen verschillende betrokkenen nemen om bovenstaande te waarborgen:

Voor Rechters:

  1. Training en bewustzijn: Rechters moeten geschoold worden in basiskennis van AI en deepfake-technologie. Alleen al herkennen wanneer iets AI-gegenereerd zou kunnen zijn, is cruciaal. Bovendien moeten ze bekend raken met de genoemde transparantie- en authenticiteitsvereisten, zodat ze weten waar ze op moeten letten.
  2. Sceptische houding: Hanteer een gezonde scepsis bij audiovisuele materialen. Als iets te perfect overkomt, stel vragen. Wees bereid om bewijs af te wijzen als er twijfel is over de authenticiteit.
  3. Precedentbewustzijn: Wees je als rechter bewust dat het toestaan van iets vandaag, morgen door anderen zal worden aangehaald. Denk in je beslissing niet alleen aan het directe effect op deze zaak, maar ook aan het signaal dat je afgeeft naar de toekomst.

Voor Advocaten:

  1. Ethische verantwoordelijkheid: Gebruik géén misleidende AI-technologie. Ook al zou iets tijdelijk een voorsprong geven, bedenk dat het ontdekt kan worden en je zaak ernstig kan schaden (naast je professionele reputatie). Advocaten in de VS zijn al in de problemen gekomen voor het indienen van stukken met fictieve AI-verzonnen jurisprudentiereuters.com; dit soort gedrag moet worden vermeden.
  2. Cliënt-educatie: Leg je cliënten uit waar de grenzen liggen. Misschien vraagt een slachtofferfamilie om “zo’n AI-video” te mogen maken; als advocaat hoor je hen te adviseren over de juridische en ethische bezwaren. Andersom, als een verdachte iets dergelijks verwacht ter verdediging, moet je dat eveneens afraden.
  3. Volledige Openheid: Mocht je toch AI-assistentie gebruiken voor legitieme doeleinden (bv. een doorzoeking van miljoenen documenten met AI), meld dit dan in je processtukken waar relevant. Bijvoorbeeld: “Bij de analyse van telefoondata is gebruikgemaakt van algoritme X, versie Y, ontwikkeld door Z, parameters …”. Zo voorkom je verrassingen en voldoe je aan mogelijke disclosure-plichten.

Voor Beleidsmakers / Regelgevers:

  1. Specifieke Wetgeving: Neem expliciete bepalingen op in wet- en regelgeving die AI-gebruik in de rechtszaal reguleren. Bijvoorbeeld in het Wetboek van Strafvordering of de Civil Procedural Rules een artikel dat zegt: “Het gebruik van door AI gegeneerd beeld- of geluidsmateriaal dat personen nabootst, is niet toegestaan tenzij…(specifieke uitzonderingen)”.
  2. Handhaving en Sancties: Zorg dat er mechanismen zijn om overtredingen op te sporen en te bestraffen. Als toch stiekem AI-content wordt ingediend als was het echt, moet dit kunnen leiden tot niet-ontvankelijkheid van dat bewijs en eventueel tuchtrechtelijke stappen tegen de indiener.
  3. Internationale samenwerking: Dit probleem stopt niet bij landsgrenzen. Werk samen met andere landen (via EU, VN, of bilateraal) om de aanpak van AI in justitie te harmoniseren. Uitwisselen van best practices en samen optrekken tegen big tech waar nodig (bijv. afspraken over die watermerk-verplichting) zal de effectiviteit vergroten.

Aanbevelingen voor Beleidsmakers

Gezien de ernstige implicaties die in deze whitepaper aan bod zijn gekomen, doen we de volgende dringende aanbevelingen aan beleidsmakers en juridische autoriteiten:

Urgente Maatregelen (Kortetermijn)

1. Moratorium op AI-Avatars in Rechtszaal
Aanbeveling: Stel per direct een moratorium (tijdelijk verbod) in op het gebruik van AI-gegenereerde avatars of vergelijkbare deepfake-technieken in rechtszittingen.

**Reden:*} De technologie en regelgeving zijn op dit moment niet toereikend ontwikkeld om misbruik of nadelige effecten te voorkomen. Een time-out is nodig om eerst kaders te scheppen (vergelijk het met hoe sommige landen experimentele opsporingstechnieken eerst bevriezen in afwachting van wetgeving).

2. Spoedwetgeving & Richtlijnen
Aanbeveling: Ontwikkel specifieke wetgeving dan wel bindende richtlijnen die het gebruik van AI in juridische procedures reguleren.

Kernpunten van zo’n kader:
– Verbodsregels: Veranker het hierboven genoemde verbod op AI-representaties van procespartijen.
– Disclosure-plichten: Leg vast dat elk gebruik van AI in enig processtuk of bewijsstuk expliciet vermeld moet worden, inclusief technische details (transparantieplicht).
– Procedurele Waarborgen: Stel eisen aan hoe een tegenpartij AI-analyse mag laten toetsen (desnoods met benoeming van neutrale court-appointed experts).
– Sancties: Definieer duidelijke sancties (nietigheid bewijs, geldboetes, tuchtrechtelijke maatregelen) bij overtreding van deze regels.

Zo’n wetgevingskader kan eventueel eerst in de vorm van een interim-richtlijn of gedragscode verschijnen, om later te worden omgezet in formele wetgeving.

3. Taskforce & Expertise-opbouw
Aanbeveling: Richt een multidisciplinaire taskforce op die zich buigt over AI en rechtspraak. Laat hierin juristen, technologen, ethici en psychologen plaatsnemen.

Taken:
– Het geven van kortetermijn-advies (binnen enkele maanden) voor de judiciary: hoe om te gaan met lopende zaken waar dit speelt?
– Het opzetten van trainingen voor rechters en advocaten (zie implementatiepunten eerder).
– Inventariseren welke AI-toepassingen mogelijk al in gebruik zijn en of daar risico’s aan kleven (denk aan decision support systems bij vonnissen).

Tevens moet er geïnvesteerd worden in het aantrekken en opleiden van AI-experts binnen de overheid die de juridische wereld kunnen adviseren (denk aan forensisch instituten die zich specialiseren in deepfake-detectie).

Langetermijn Strategie

1. Onderzoek en Monitoring
Aanbeveling: Investeer in onderzoek naar de effecten van AI op rechtspraak en ontwikkel meetinstrumenten om de impact te monitoren.

Onderzoeksgebieden:
– Bias in AI-systemen: Zijn er al voorbeelden dat AI-beslissingsondersteuning tot andere (vooringenomen) vonnissen leidt?
– Emotionele impact: Psychologisch onderzoek met mock-jury’s om te meten hoe AI-avatars hun beslissingen beïnvloeden, vergeleken met gewone verklaringen.
– Ontwikkeling detectietools: In samenwerking met universiteiten en techbedrijven: betere tools ontwikkelen om nep van echt te onderscheiden, specifiek voor juridische behoeften.

Monitoring: Stel een commissie in die jaarlijks rapporteert over AI-incidenten in de rechtsgang (vergelijkbaar met cybersecurity-rapportages). Zo kan men bijhouden of nieuwe vormen van digitale misleiding opkomen.

2. Internationale Harmonisatie
Aanbeveling: Zoek op internationaal niveau aansluiting om consistente standaarden te ontwikkelen.

Voordelen:
– Voorkomt forum shopping von regulatory arbitrage (waarbij partijen naar een rechtsgebied gaan met soepelere regels voor AI-gebruik).
– Verhoogt de druk op grote AI-aanbieders om wereldwijd verantwoorde tools te leveren (immers, als EU en VS een lijn trekken, volgen bedrijven sneller).
– Maakt het mogelijk om gezamenlijke research en enforcement te doen. (Bijv. Interpol-achtig samenwerkingsverband om deepfake-fraude in de kiem te smoren.)

Dit kan via bestaande gremia: binnen de EU (uitvoering van AI Act), via de VN (denk aan het Office on Drugs and Crime of de mensenrechtenraad voor principes), of via internationale rechters- en advocatenverenigingen die soft law kunnen formuleren.

3. Technologie-Governance in Justitie
Aanbeveling: Ontwikkel governance-structuren voor de inzet van nieuwe technologie in de rechtspraak.

Elementen:
– Ethiek-commissies: Stel bij gerechtshoven commissies in die ex ante nieuwe AI-tools evalueren op ethische aanvaardbaarheid (analoog aan medische ethische commissies bij nieuwe behandelmethoden).
– Audit en certificering: Vereis dat AI-software die in justitie wordt gebruikt (zij het voor bewijsbeheer, risico-taxatie, etc.) periodiek geauditeerd wordt op bias en betrouwbaarheid. Denk aan een keurmerk of certificaat voordat iets door rechters mag worden gebruikt.
– Burgerparticipatie: Betrek de samenleving in deze discussie. Dit kan via raadplegingen of een burgerforum dat meedenkt over de wenselijkheid van bepaalde toepassingen. De rechtspraak heeft immers gezag bij de gratie van publiek vertrouwen – als mensen het idee krijgen dat “robots” of “fake videos” de dienst uitmaken, daalt dat vertrouwen.

Implementatie-roadmap

Om het bovenstaande te realiseren, kan een gefaseerde aanpak gevolgd worden:

  • Fase 1 (0-6 maanden): Crisisrespons – Implementeer direct het moratorium. Communiceer helder naar alle rechtbanken en via de media dat dit onderwerp op de agenda staat en waarom het pauseren nodig is. Breng spoedrichtlijnen uit (desnoods van de Raad voor de Rechtspraak of Ministerie van Justitie) dat lopende zaken zonder AI-avatar moeten gebeuren. Start parallel daaraan de Taskforce en geef een mandaat om binnen 3 maanden met eerste aanbevelingen te komen.
  • Fase 2 (6-18 maanden): Structurele Maatregelen – Werk spoedwetgeving uit in definitieve vorm en dien die in (of pas bestaande procesreglementen aan). Rol verplichte trainingsprogramma’s uit voor juridische professionals. Zorg dat detectiesoftware en expertise beschikbaar zijn bij forensische instituten. Begin internationale overleggen – bijvoorbeeld agendeer het in EU-justitieel overleg of op een internationale conferentie.
  • Fase 3 (18+ maanden): Lange-termijn Governance – Evalueer periodiek (bv. jaarlijks) of de genomen maatregelen volstaan of moeten worden aangescherpt. Houdt de vinger aan de pols bij technologische ontwikkelingen (de AI van 2025 is primitief vergeleken bij wat 2030 zou kunnen brengen). Schaal waar nodig de governance op: wellicht uiteindelijk een gespecialiseerde toezichthouder voor AI in het juridische domein, mocht het gebruik toenemen in andere vormen (denk aan AI-rechters of dergelijke – iets wat nu hypothetisch lijkt, maar men wil niet verrast worden).

Schlussfolgerung

De zaak Christopher Pelkey markeert een kantelpunt in de geschiedenis van AI en rechtspraak. Voor het eerst werd een AI-avatar toegestaan om namens een overleden persoon te spreken in een Amerikaanse rechtszaal. Dit vooruitzicht – dat “de doden kunnen spreken” via technologie – mag misschien aan sciencefiction doen denken, maar is werkelijkheid geworden. En het dwingt ons fundamenteel na te denken over de integriteit van ons rechtssysteem.

Kernproblemen Samengevat

  1. Authenticiteitscrisis: AI-avatars kunnen nooit werkelijk authentiek zijn. Hoe levensecht ze ook ogen of klinken, hun woorden zijn constructies gebaseerd op menselijk input en machine-algoritmen. In de kern is het illusie. Een rechtssysteem dat waarheid en echtheid hoog in het vaandel heeft, komt in het gedrang als simulaties worden toegelaten alsof het realiteit is.
  2. Bias en Manipulatie: Door AI voortgebrachte content kan bestaande biases versterken en emoties manipuleren op manieren die we nog niet volledig doorzien. Een rechter of jury kan beïnvloed raken door een digitaal “optreden” en daarmee onbewust hun beslisproces laten sturen door iets dat geen bewijskracht heeft. Dit bedreigt de objectiviteit en gelijkheid waar rechtspraak op stoelt.
  3. Precedent-gevaar: Het toelaten van deze ene AI-verklaring creëert de mogelijkheid dat het vaker gaat gebeuren. Zoals we betoogd hebben, zou dit kunnen escaleren naar diverse vormen van AI-gebruik in rechtszaken, met potentieel desastreuze gevolgen voor het hele systeem. Voorkomen is hier vele malen beter dan genezen – het is uiterst lastig om een gegroeide praktijk terug te draaien.
  4. Ethische Schending: Los van juridische techniek is er een morele grens overschreden. Het gebruiken van een overleden persoon zijn identiteit om een punt te maken in de rechtbank kan gezien worden als schending van diens waardigheid en autonomie. Onze rechtspraak is gebouwd op menselijke waardigheid – denk aan het concept van de redelijke mens, of het respect voor slachtoffers en beklaagden als menselijk individu. AI dreigt mensen tot object te maken, zelfs voorbij de dood.

De Weg Vooruit

We bevinden ons op een kruispunt: de voordelen van AI lonken ook in de rechtspraak, maar deze zaak herinnert ons eraan dat een ongebreideld gebruik zonder stevige grenzen uiterst gevaarlijk is.

De rechtszaal moet een plaats blijven waar menselijke waarden en juridische principes leidend zijn, niet technologische noviteiten of emoties-op-commando. Technologie moet dienend blijven, niet sturend.

Daarom roepen wij op tot:

  • Onmiddellijke actie van wetgevers om AI-avatars in de rechtszaal expliciet te verbieden en om duidelijke kaders te scheppen voor ander AI-gebruik in juridische context. Wacht niet tot er meer dubieuze gevallen opduiken – anticipeer nu.
  • Internationale samenwerking om standaarden te ontwikkelen, zodat in alle rechtsstatelijke samenlevingen min of meer dezelfde waarborgen gelden. Dit voorkomt dat tech zich richt op mazen in bepaalde landen en ondermijnt elders de normen.
  • Bewustwording en educatie voor iedereen in de juridische keten – van politieonderzoekers tot advocaten, van rechters tot juryleden – over wat AI kan en (vooral) wat de beperkingen zijn. Een gezonde scepsis cultiveren is essentieel.
  • Bescherming van de kern van rechtvaardigheid: Laat het uitgangspunt zijn dat menselijke authenticiteiten waarheidsvinding nooit mogen worden weggeautomatiseerd. Wie voor de rechtbank verschijnt, moet erop kunnen vertrouwen dat wat daar gepresenteerd wordt echt en toetsbaar is.

De toekomst van rechtvaardigheid mag niet bepaald worden door wie toegang heeft tot de meest geavanceerde AI-technologie, maar door wie de waarheid spreekt en recht doet aan menselijke waardigheid. Het streven naar gerechtigheid is een diep menselijk proces – laten we dat niet uit handen geven aan digitale specters, hoe indrukwekkend die ook mogen zijn.

Christopher Pelkey verdiende gerechtigheid. Zijn nagedachtenis verdient beter dan een technologische illusie. Laten we ervoor zorgen dat AI in de rechtszaal niet de norm van de toekomst wordt, maar een gewaarschuwd voorbeeld uit het heden.


Bronnen en Literatuur

Primaire Bronnen – Zaak Christopher Pelkey

  1. NPR. (2025, 12 mei). “AI used to make video of deceased victim deliver impact statement in court.”NPR Newsreuters.comreuters.com
  2. CBS News. (2025, 8 mei). “Man murdered in 2021 ‘speaks’ at killer’s sentencing hearing thanks to AI video.” CBS Newscbsnews.comcbsnews.com
  3. Reuters. (2025, 9 mei). “Family creates AI video to depict Arizona man addressing his killer in court.”Reutersreuters.comreuters.com
  4. CNN Business. (2025, 9 mei). “He was killed in a road rage incident. His family used AI to bring him to the courtroom to address his killer.” CNN Business.
  5. 404 Media. (2025, 7 mei). “‘I Loved That AI:’ Judge Moved by AI-Generated Avatar of Man Killed in Road Rage Incident.” 404 Media404media.co404media.co
  6. The Washington Post. (2025, 8 mei). “AI video of slain man speaks to his killer during court sentencing.” The Washington Post.
  7. ABC News. (2025, 9 mei). “Murder victim ‘speaks’ beyond the grave in AI generated video at court hearing.” ABC News.
  8. PetaPixel. (2025, 8 mei). “Slain Man’s AI-Generated Avatar Delivered a First-of-its-Kind Victim Statement in Court.” PetaPixel.
  9. Associated Press. (2025, 10 mei). “Family uses AI video to give road rage victim a voice at his killer’s sentencing.” AP News/WWNYTVwwnytv.comwwnytv.com
  10. Dallas Express. (2025, 9 mei). “AI Avatar Of Murder Victim Speaks At Sentencing, Sparks Debate In Courtrooms.” Dallas Expressdallasexpress.comdallasexpress.com

Academische en Onderzoeksbronnen – AI Bias & Rechtspraak

  1. Javed, K. & Li, J. (2024). “Artificial intelligence in judicial adjudication: Semantic biasness classification and identification in legal judgement (SBCILJ).” Heliyon, 10(9): e30184. pubmed.ncbi.nlm.nih.govpubmed.ncbi.nlm.nih.gov
  2. Javed, K. & Li, J. (2024). “Artificial intelligence in judicial adjudication: Semantic biasness classification and identification in legal judgement.” Heliyon (PMC versie). pubmed.ncbi.nlm.nih.govpubmed.ncbi.nlm.nih.gov
  3. National Center for State Courts. (2024, mei). “AI and the Courts: Judicial and Legal Ethics Issues.”NCSC Reportpmc.ncbi.nlm.nih.gov
  4. Vision Factory. (2025, 20 mei). “AI-Generated Evidence in Court: Admissibility, Bias, and the Future of Legal Standards (2025 Update).” VisionFactory Blogvisionfactory.orgvisionfactory.org
  5. Javed, K. (2025). “Bias in adjudication: Investigating the impact of artificial intelligence, media, financial and legal institutions in pursuit of social justice.” PLoS One, 20(1): e0315270 (PMC). pmc.ncbi.nlm.nih.govpmc.ncbi.nlm.nih.gov
  6. Thomson Reuters Institute. (2024, 25 oktober). “Humanizing Justice: The transformational impact of AI in courts, from filing to sentencing.” Thomson Reuters – Legal Insights.
  7. Yale Journal of Law & Technology. (2024). “Bias and Ethics in AI-Enabled Legal Technology: Examining the Role and Impact of Human Inputs on AI-Rendered Results in Legal Matters.” Yale JOLT.
  8. Stansbury, J. (2024, oktober). “Artificial Justice: The Quandary of AI in the Courtroom.” Judicature (Duke Law).
  9. Ambrogi, B. (2024, 23 december). “AI, Ethics, Essays and Scandals – Among LawSites’ 40 Most Popular Legal Tech Stories of 2024.” LawSites Blog.
  10. American Bar Association. (2024, april). “Navigating the AI Employment Bias Maze: Legal Compliance Guidelines and Strategies.” ABA Business Law Today.

Aanvullende Literatuur en Beleidsdocumenten

  1. Europese Unie. (2024). “EU Artificial Intelligence Act.” Regulation (EU) 2024/1689digital-strategy.ec.europa.eudigital-strategy.ec.europa.eu
  2. Nederlandse Orde van Advocaten. (2023). “AI en rechtspraak: mogelijkheden en grenzen.” NOvA Rapport.
  3. Stanford HAI Institute. (2024). “The Risks of AI Bias in Legal Decision Making.” Stanford Human-Centered AI Blog.
  4. Harvard JOLT. (2024). “AI, Bias, and the Law: What Should Judges Do?” Harvard Journal of Law & Technology.
  5. Brookings Institution. (2024). “Artificial Intelligence and the Future of Justice.” Brookings Report.
  6. MIT Technology Review. (2024). “The Problem with AI in the Courtroom.” MIT Tech Review.
  7. Oxford Internet Institute. (2024). “Digital Ethics and AI Governance in Legal Systems.” OII Research.

Dit whitepaper is gebaseerd op berichtgeving, literatuuronderzoek en de hierboven genoemde bronnen. Het beoogt een aanzet te geven tot bewustwording en beleidsvorming rond AI in de rechtszaal.

Bronvermeldingen

Bronvermeldingen

Overzicht Tabel: AI-Avatar en Rechtspraak in het Nieuws

BronTitel/ArtikelThema/KernpuntDirecte Link
ReutersFamily creates AI video to depict Arizona man addressing his killer in courtAI-avatar slachtofferverklaring, precedent VSLink
CBS NewsMan murdered in 2021 “speaks” at killer’s sentencing hearing thanks to AI videoAI, slachtoffer aan het woord via videoLink
404 Media‘I Loved That AI:’ Judge Moved by AI-Generated Avatar of Man Killed in Road Rage IncidentEmotionele impact op rechter, ethische kantLink
Dallas ExpressAI Avatar Of Murder Victim Speaks At Sentencing, Sparks Debate In CourtroomsMaatschappelijk debat, risico’s, reactiesLink
WWNYTV/APFamily uses AI video to give road rage victim a voice at his killer’s sentencingFamilie perspectief, rouw, AI-gebruikLink
VisionFactoryAI-Generated Evidence in Court: Admissibility, Bias, and the Future of Legal Standards (2025 Update)Toelaatbaarheid, bias, AI-standaardenLink
PMC/PubMedBias in adjudication: Investigating the impact of artificial intelligence…Academisch: AI-bias in rechtspraakLink
PubMedArtificial intelligence in judicial adjudication: Semantic biasness…Wetenschappelijk: biasclassificatie en AI-ethiekLink
European Comm.AI ActShaping Europe’s digital futureEuropese wetgeving AI en recht
AdvocatieAI en Rechtspraak: geen robotrechter in de rechtzaalNL beleid: menselijke maat centraal, geen robotrechterLink
Reuters UKLawyers face sanctions for citing fake cases with AI, warns UK judgePraktijk: risico’s en sancties bij foutief AI-gebruikLink

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden..

Ähnliche Beiträge

Alles, was Sie über das neue GPT-4 wissen müssen, wie Google AI und Microsoft 365 AI die Zukunft prägen

Letzte Woche war eine historische Woche in der Welt der künstlichen Intelligenz und des maschinellen Lernens. Dies liegt an der Ankündigung des offiziellen Starts von GPT-4 durch Open AI. Obwohl wir bereits über Bing Zugang zu dieser KI hatten, ist der offizielle Start von GPT-4 etwas zu feiern. In diesem Blogbeitrag werden wir näher auf die Möglichkeiten von GPT-4 eingehen und was diese neue KI so besonders macht.

Weiterlesen

Autodiefstal met USB-kabels

In deze blog bespreken we de ontwikkelingen op het gebied van autodiefstal met USB-kabels. We leggen uit hoe autodieven met deze methode te werk gaan en hoe fabrikanten proberen dit probleem aan te pakken. We bespreken enkele mogelijke oplossingen, waaronder software-updates en fysieke beveiligingsmaatregelen, om deze vorm van autodiefstal te voorkomen.

Weiterlesen
Sie sind auf dem neuesten Stand, das war die letzte Nachricht.
  • Schlagwörter

  • Kategorien

  • Archive