Tekst Pieter Vermaas
Foto Loes van der Meer

Vier OM’ers volgden een leergang

Wees niet bang voor artificial intelligence, maar ga erin mee. Dat zeggen vier voorhoedespelers binnen het OM die bij de Universiteit van Leiden de leergang ‘A.I. en strafrecht’ volgden.  

Michiel Zwinkels

Michiel Zwinkels: "Verdiep je in nieuwe ontwikkelingens"

Digitalisering en artificial intelligence – je kunt het eng vinden wat er op ons afkomt. Maar het gaat hoe dan ook niet weg en het helpt ons ook. Dus laten we erin meegaan. Dat zegt Michiel Zwinkels, hoofdofficier van arrondissementsparket Den Haag en landelijk portefeuillehouder Cybercrime.

“Natuurlijk zie ik de risico’s van artificial intelligence. Zoals deepfakes – nepfilmpjes – die ongefilterd op socialmediaplatformen worden geplaatst. Traditionele media borgen een bepaalde standaard, opdat er zo min mogelijk onzin in de krant komt. Die filter kennen social media niet en dan kun je deepfakes gebruiken om bepaalde meningen te mobiliseren. In een gepolariseerde samenleving, gooi je daarmee olie op het vuur en kun je andere groepen heel boos maken. Dat zien we nu met name gebeuren in Amerika, en de ervaring leert dat dat vaak de oceaan oversteekt naar ons. Dat is een duistere kant waarop we ons moeten voorbereiden.

Maar heb niet te veel angst voor A.I. Verdiep je erin en gebruik het in je voordeel. Niet alleen consumenten kunnen voordeel hebben bij zelfsturende auto’s, stofzuigers en grasmaaiers, ook opsporing en vervolging kunnen profiteren van A.I.

Het helpt ons om veel sneller grote hoeveelheden data te ontsleutelen. In de bestrijding van kinderporno wordt het al gebruikt. ‘Webcrawlers’ die zelfstandig naar kinderporno zoeken, zodat wij de provider kunnen verzoeken dat van het internet te halen. Algoritmes loslaten op grote hoeveelheden data, kan ons zelfs helpen voorspellen waar gebeurtenissen gaan plaatsvinden: predictive policing, dat in Amerika al op grotere schaal gebeurt.

Dan kom ik meteen bij een keerzijde. Als je niet alert bent en op basis van vooroordelen een verkeerd algoritme bouwt en loslaat op de data, ga je de tunnel in. Je verengt je waarneming, legt verkeerde verbanden en wordt vervolgens in je vooroordelen bevestigd.

Hoe je dat voorkomt? Door heel goed en transparant te zijn in hoe je je algoritmes bouwt. Door op te letten dat je niet verbanden legt zonder goede onderbouwing. Als je dat doet, voorkom je dat je in de opsporing mensen stigmatiseert. Transparantie helpt je ook als je voor de rechter staat. Want voor de rechter en verdediging zal je helder moeten kunnen uitleggen hoe je nou bij een persoon bent gekomen en wat nu de basis van je verdenking is. Dan kun je niet aankomen met ‘ja, de computer zei het’.

Bij het discussiëren over de waarborgen bij de inzet van A.I. door de overheid staan we nog in het begin. Terecht kijkt de Kamer kritisch mee bij dit soort ontwikkelingen. Maar hoe eerder je die discussie voert, hoe beter. Zo bouw je kennis op over technische mogelijkheden én over ethische aspecten.

Uiteindelijk blijft vervolgen en rechtspreken mensenwerk. Ik geloof niet dat A.I. snel zal leiden tot de komst van een ‘robotrechter’: een computer waarin je allemaal gegevens stopt, en die met een druk op de knop ‘schuldig’ of ‘onschuldig’ zegt. Daarvoor is rechtspreken te veel maatwerk, en juist die menselijke maat is wat je computers niet zomaar kunt aanleren.

Mijn boodschap aan OM’ers? Verdiep je in nieuwe ontwikkelingen. A.I. geeft juridisch mooie vraagstukken. Denk aan A.I. in zelfrijdende auto’s – als met zo’n auto een ongeluk wordt veroorzaakt, wie is dan schuldig of aansprakelijk? De bouwer van de software? De autofabrikant, de bestuurder? Dat is juridisch spannend.

En wees niet bang, maar be prepared. Kijk, al die handige AI-lampen, -koelkasten, -auto’s en -stofzuigers worden aan het internet gehangen en vormen ‘the internet of things’. Die stofzuiger geeft de fabrikant van de software niet alleen een plaa tje van hoe jouw huis eruitziet. Die maakt je ook kwetsbaar voor cybercriminelen. De meeste mensen veranderen op zo’n smart-tv of koelkast niet de standaardbeveiligingscode van bijvoorbeeld ‘0000’. Dan is het voor de cybercrimineel makkelijk binnenkomen. Die krijgt zo toegang tot veel data, en kan de camera en microfoon van je apparaat overnemen. Er vinden gesprekken plaats met de industrie, die er bijvoorbeeld technisch voor kan zorgen dat het verplicht wordt om het wachtwoord binnen een paar dagen na koop te veranderen. Maar dat staat weer op gespannen voet met het gebruikersgemak. Dus zolang dat nog niet is geregeld: Verander zelf snel dat wachtwoord!”

Jacqueline Bonnes

Jacqueline Bonnes: “Diepe ellende en gouden bergen”

Artificial Intelligence geeft diepe ellende, maar ook gouden bergen, zegt Jacqueline Bonnes. Ze is officier ‘cybercrime en digitaal bewijs’ en kan zelf programmeren.

“Die deepfakes, daarover maak ik me zorgen. Het is beremakkelijk om die nepfilmpjes te maken, je trapt daar zo in. Ik ken een zaak in het buitenland waarin schooljongens achter hun computerscherm aan het chatten waren met een meisje. Zo’n jongen zei dat hij het meisje mooi vond; zij antwoordde dat zij hem ook knap vond. En je raadt al: op een gegeven moment vroeg zo’n knul of zij haar kleren wilde uittrekken. Haar antwoord: ‘Als jij het ook doet’.

Maar wat die jongens zagen, was nep. Het meisje was afkomstig uit een eerder gemaakt filmpje. En alles wat zij zei werd eigenlijk – wél live – gezegd door iemand anders, en dan zorgde de A.I.-software ervoor dat haar mond bewoog en de jongens die tekst hoorden. De jongens werden dus gemanipuleerd en vervolgens met de beelden afgeperst. Zo werd zo’n hele school bij wijze van spreken tot suïcide gedreven.

We zien nu veel die vriend-in-noodfraude. Dat gaat meestal via de app, waarin mensen lezen dat een vriend dringend geld nodig heeft: ‘Kun je snel wat overmaken?’

Dan zeggen we altijd: Check het. Bel eerst zelf diegene terug. Maar wat nou, als het nepbetaalverzoek geen appje is, maar zo’n deepfake filmpje met een gekloonde stem? Tja… Wie zou daar niet in trappen?

Toen ik in 2010 cybercrimeofficier werd waren de criminelen die wij zagen nog niet zo technisch. Er was minder afscherming. Je kon verdachten achterhalen via het IP-adres waarmee zij verbinding met het internet maakten. Tegenwoordig is dat afgeschermd met VPN-verbindingen (virtual private network). Afschermingsmiddelen zijn ook makkelijker verkrijgbaar.

En dan hélpt de techniek ons ook weer, want A.I. brengt behalve diepe ellende ook gouden bergen. Ik heb een zaak waarin een bedrijf voor twee miljoen is opgelicht. Het dacht dat het betaalde aan een ander bedrijf waarmee het een contract had. In werkelijkheid waren hackers in de mailboxen van beide bedrijven gekropen, en werd het geld uiteindelijk overgemaakt naar de bankrekening van criminelen. Weg geld.

Toen zijn we gaan analyseren: hoe zit dat nou in die mailboxen van die bedrijven? En dan moet je gaan zoeken en analyseren in 4 miljoen data-entries van die bedrijven: mails, maar ook andere manieren waarop hun beider websites waren bezocht. Dat is zoveel, daar moet je heel slim op programmeren, dus A.I. toepassen. En die A.I.-analyse zoekt in feite naar alles wat afwijkt: afwijkende boodschappen, afwijkende devices die gebruikt zijn. Uit alles wat niet normaal is, ontstaat een situatie waar de politie nader naar gaat kijken. In deze zaak loopt het onderzoek nog, maar wij denken dat we deze zaak misschien wel rond gaan krijgen.

Dat vraagt van het OM dat we dat voldoende snappen, want wij zijn verantwoordelijk voor de opsporing en moeten ook de rechter kunnen uitleggen hoe we ons bewijs verkregen hebben.

Daarom gaan we juist in de cyberwereld veel nieuwe maatschappelijke coalities aan. We praten met veel private partijen over wat zij aan informatie hebben, wat zij kunnen en niet kunnen, en hoe we elkaar kunnen helpen. Bij ransomware bijvoorbeeld hebben bedrijven een groot privaat belang om dat te voorkomen en verhelpen. Meestal schakelen grote bedrijven dan eigen beveiligingsbedrijven in, zoals Fox-it of Kaspersky. Die kunnen heel veel. Veel medewerkers van die bedrijven hebben ook een opsporingshart, en willen dat de boef wordt pakt. Dat is natuurlijk óók in het belang van hun opdrachtgever, want de meest effectieve strategie om deze criminaliteit te stoppen is om de verantwoordelijke aan te houden en te vervolgen. Dus daar is veel samenwerking. Bedenk dat bijvoorbeeld de fraudeafdelingen van de banken veel meer mensen dan de politie hebben op dit onderwerp. Het is zonde om elkaar daar dan niet te helpen, uiteraard altijd binnen de grenzen van de wet. Dat moeten we voorzichtig en zorgvuldig doen, en we moeten er nog hard aan werken, maar in ‘ polderland’ Nederland liggen wel kansen om daarop te investeren.

Met de Big Techs – Google, Twitter, etc. – moeten we ook samenwerken, want die willen de fakes die kwaad doen ook bannen. En tegelijkertijd beseffen we dat die hun eigen commerciële belangen hebben. Dat is dus een nieuwe, uitdagende wereld, waarin wij als klein landje niet kunnen bepalen wat die Big Techs doen. Maar dat publiek-privaat en wereldwijd samenwerken is heel belangrijk. We doen het ook: ik heb geen enkel onderzoek waarin we niet internationaal samenwerken.

De politie is al heel operationeel bezig. Het OM, als verantwoordelijke voor de inhoud en rechtmatigheid van opsporingsonderzoeken, moet ook investeren in meer capaciteit en kennis. Want dit is er nú al, en dit wórdt de toekomst. De leergang A.I. die ik heb mogen volgen, zette die gedachte duidelijk op scherp.” 

Jeltsje van der Ploeg

Jeltsje van der Ploeg: “We kunnen bákken informatie ordenen”

Jeltsje van der Ploeg ziet tal van mogelijkheden voor A.I. in de opsporing. De parketsecretaris ondermijning bij arrondissementsparket Noord-Nederland wijst ook op de ethiek.

“Bákken data krijgen we in de opsporing vaak. Zoals die telefoons en computers die we in beslag nemen. Met handmatig zoeken ben je daar lang mee bezig – ga zelf je foto’s van een jaar maar eens uitzoeken. Criminelen maken niet alleen foto’s van drugs of wapens, maar ook van hun eten, hun vrouw en kinderen, hun vakantiehuisje en de omgeving. Om dat forensisch goed te doorzoeken gebruiken we de techniek. Bijvoorbeeld ‘Hansken’ van het NFI. Die software is geleerd om steeds beter te herkennen hoe drugs, wapens of IS-vlaggen eruitzien. Zo kun je snel herkennen en categoriseren.

Neem phishingzaken. Die bevatten vaak veel data. De kunst is om daarin gestructureerd te doorzoeken: Als er veel sms’jes zijn gestuurd, met welk nummer en hoe is dat dan gegaan? Met welke bankrekeningen? En kunnen we bankrekeningen van katvangers koppelen aan onze verdachten? Het voordeel is dat ze van de bankrekeningnummers die ze gebruiken vaak foto’s maken – vinden ze mooi. Met al die info kunnen we veel herleiden en opsporen.

Zo zijn er tal van mogelijkheden om snel te zoeken. Denk aan al die ontsleutelde EncroChat-berichten. Ook hier: je kúnt niet alles gaan lezen, maar je kunt wel software laten zoeken naar woorden als ‘slapen’, ‘dood’ en ‘wapens’, en zo informatie krijgen over liquidaties.

Uiteindelijk moet je als mens de context duidelijk zien te krijgen. Wie bedoelt wat met ‘slapen’? En als A.I. foto’s van drugs of wapens selecteert, zijn dat dan echt de drugs en wapens van jouw verdachte, in jouw onderzoek? Die ‘slag’ zul je er altijd nog overheen moeten doen.

Maar A.I. geeft veel mogelijkheden. Denk aan gezichts- en stemherkenning. Het is heel handig als we dat kunnen gaan toepassen bij het bekijken van camerabeelden en het uitluisteren van tapgesprekken.

Criminelen kunnen hartstikke veel met A.I., denk ook aan deepfake en wie je daarmee allemaal kan ‘neppen’. Met de voortschrijdende techniek is het lastig om nep van echt te onderscheiden: wat is nog betrouwbaar. Of de politie dat ook kan? In theorie kan dat, denk ook aan ‘Sweetie’ en grooming. Onder grooming (248e Sr) is het ook strafbaar om aan een ‘virtuele creatie’ van een 16-minner een ontmoeting voor te stellen met het oogmerk om ontuchtige handelingen met die 16-minner te plegen. Maar bewijs maken met deepfake, dát is een absolute no go. We hebben bewijs volgens de regels, of geen bewijs. Betrouwbaarheid is ook in die zin een groot goed, waar we als politie en justitie héél zuinig op moeten zijn.

Je moet wel naar privacy kijken. Als je zomaar in alle digitale sporen gaat zoeken die mensen ooit hebben achtergelaten, vind je misschien altijd wel wat. Want inderdaad, wie is zonder zonde? Zeker met de mogelijkheid van een ‘netwerkzoeking’ waarbij de opsporing niet alleen een computer doorzoekt maar óók mag ‘doorstappen’ naar de Cloud of Gmail. Maar daarbij gaan we niet zomaar een groot ‘visnet’ uitgooien, iemands complete doopceel lichten en daarna van alles op de tenlastelegging gooien. Net als bij een gewone doorzoeking, zoeken we gericht. Op basis van de concrete verdenking die je kunt bevestigen of ontkrachten. Maar net als bij de rechercheur die, op zoek naar wapens, een lade opentrekt en stuit op drugs of kinderporno: dan is dat zo ernstig dat het ook weer raar zou zijn om daar helemaal niets mee te doen.” 

Gertieme Fahner

Gertieme Fahner: “A.I. benutten en baas blijven over ons werk”

Gertieme Fahner is beleidsmedewerker bij het Ressortparket en tijdelijk gedetacheerd bij parket Oost- Nederland als parketsecretaris voor onderzoeken van het ondermijningsteam. Ze filosofeert over de kansen van A.I.

“Het feilloos geheugen en de rekenkracht van de computer bereik je als mens nooit. Maar we kunnen met A.I. die rekenkracht wel benutten en de computer voor ons laten werken.

Bij voorbeeld bij het starten van mensenhandelonderzoeken. Veel mensenhandelaren maken gebruik van de reguliere internetfora om seksadvertenties te plaatsen. Politie en OM kennen al signalen die erop kunnen wijzen dat sprake is van gedwongen prostitutie in plaats van het normaal aanbieden van prostitutie. Met behulp van A.I. kunnen we vervolgens geautomatiseerd de inhoud van seksadvertenties doorzoeken op signalen van mensenhandel. Met zo’n ‘webcrawler’ kom je snel bij potentieel goede zaken. Uiteindelijk zijn het de rechercheur en OM’er die bepalen of het echt interessant is om een zaak op te pakken.

Gebruik van A.I. door een OM’er is niet hetzelfde als het vervangen van de OM’er door een robot. Delen van de taak van OM’ers kunnen vervangen worden door A.I. Als we A.I. benutten moeten we wel baas blijven over ons eigen werk. Dat gaat in organisaties weleens mis, zo kwam in de A.I.-leergang naar voren. Als A.I. een belangrijke taak gaat overnemen, sluipt weleens de gedachte binnen dat dan de normale verantwoordelijkheden in de organisatie niet meer zouden gelden. Dan wordt A.I. een excuus: We kunnen er niks aan doen, ‘de computer zegt het.’ Dat kan natuurlijk niet, zeker niet bij instituten als OM en Rechtspraak. We moeten zelf verantwoordelijk blijven voor wat de A.I.-toepassing produceert. Het zelf kunnen uitleggen.

A.I. vereist van het OM een transformatie. Dat officieren niet alleen worden opgeleid als goede juristen en leiders van het klassieke opsporingsonderzoek, maar in hun opleiding ook de moderne skills mee krijgen. Je zou officieren-in-opleiding misschien verplicht een periode naar team High Tech Crime van de Landelijke Eenheid moeten sturen, dat wereldwijd een goede naam heeft, of naar het High Tech Crime-team van het LP.

We kunnen technologie slim inzetten. Ik zou graag met een techneut willen overleggen of je in een lopend onderzoek met veel data A.I. kunt inzetten om suggesties voor vervolgstappen te laten doen. Normaal bedenk je dat zelf op basis van je ervaring. Kunnen we die ervaringsregels niet in software stoppen die dan de suggesties doet? Uiteindelijk blijf je zelf degene die beslist of het ook een goede stap is.

Ik moet ook denken aan alle tijd die je als secretaris besteedt aan het maken van bewijsoverzichten op basis van processen- verbaal van de politie. Dat is eigenlijk simpel werk: je weet op basis van de wettekst welke bestanddelen bewezenverklaard moeten worden. Dan ploeg je door dossiers van soms vijftienhonderdpagina’s, op zoek naar die match met de wettekst, en dan typ je handmatig die verwijzing naar het proces- verbaal in. Als een computer dat voor mij kan genereren, dan kan ik vervolgens op basis van het onderzoek dat ik heb gedaan controleren of hij alles eruit heeft gepikt. Dit zou het OM waanzinnig veel tijd schelen.

Je computer hoeft geen enge black box te zijn. Je kan zelf kiezen met welke data je het systeem laat werken. In een onderzoeksdossier bijvoorbeeld zitten de resultaten van je eigen onderzoek. Je hoeft alleen nog, samen met techneuten, te bespreken welk algoritme je de computer laat uitvoeren. En dat moet je voldoende begrijpen om de resultaten ook uit te kunnen leggen.

Omdat de technologie steeds geavanceerder wordt – denk aan de deepfakes – moet de rechtshandhaving mee. Ook om verweren als ‘Ja, maar die kinderporno is zonder mijn wetenschap als bijvangst op mijn pc gekomen’ te kunnen weerleggen. En daarbij moeten we ons laten ondersteunen door partners, net zoals we dat met het NFI doen op het gebied van DNA.

Dus, A.I. een risico? Ik draai het om: We moeten het gaan benutten en onze mensen daartoe in staat stellen.”