Transcript bijdrage rondetafelgesprek Tweede Kamer Client Side Scanning 11 oktober

Op 11 oktober was er een rondetafelgesprek in de Tweede Kamer over het EU ‘Chatcontrol’ voorstel. Hier is mijn position paper voor dat gesprek te vinden. Die pagina heeft ook links naar de artikelen in NRC, BNR, NOS en de uitzending van het NOS journaal.

Hieronder het transcript van mijn opmerkingen. Op de site van de Tweede Kamer is het origineel met beeld en geluid te vinden.

Tekst:

Dit onderwerp ben ik al zo’n jaar of 15 af en aan bij betrokken. Ik leverde ooit software aan de Nederlandse politie voor onderzoeken naar CSAM, toen het nog gewoon KP heette. En ook toen was het al vreselijk. En ik zit ook al heel lang in overleggen tussen industrie en overheid over hoe kinderporno bestreden kan worden of moeilijker gemaakt kan worden. Dus het onderwerp is me zeer bekend.

Het gaat ook over AI, want die moet het foute materiaal gaan herkennen. Daar heb ik ook een boekje over gemaakt en een cursus. Dus ik hoop dat ik een beetje weet waar ik het over heb.

En in tegenstelling tot mijn gewaardeerde, zeer hooggeleerde voorgangers ga ik het misschien wat lomp uitleggen allemaal.

Nog even voor de kijkers thuis [houdt QR-code omhoog], dan kunnen jullie mijn position paper hiermee vinden. Het werkte de vorige keer erg goed dit. En de QR-code is misschien wel even goed om in gedachte te houden hoeveel gevoelens dat bij mensen opwekte rond de coronacrisis.

Waar we er nu over hebben is dat wij dus in al onze WhatsApp groepjes en al onze Signal groepjes, onze Telegram groepjes, een nieuwe deelnemer in het gesprek krijgen, namelijk een EU-logo.

En alle foto’s die we daar plaatsen, alle filmpjes die we daar plaatsen, worden gescand door een computer. En die computer die heeft eerst een lijst met bekend slecht materiaal. Maar het voorstel zegt ook, we moeten ook met kunstmatige intelligentie werken en die moet gaan zeggen oei, die kinderfoto is de verkeerde kinderfoto.

En ook moeten chat-gesprekken geanalyseerd worden. De wet is daar vrij algemeen over, zegt dat het benaderen van kinderen gedetecteerd moet worden. Dat is wel een heel breed begrip.

Als het systeem een van de foute dingen ziet, dan gaat er een melding naar een EU-ambtenaar. En die komt hier vrij dicht in de buurt te zitten bij Europol. Niet in Europol, maar naast Europol. Dus een gewone ambtenaar en die krijgt dan de hele dag dus meldingen binnen van, is dit kinderporno of niet? Of CSAM, sorry. Ik val vaak terug in het oude woord.

En die drukt op een knop. En eigenlijk alleen als het evident onjuist is, zegt hij laat maar zitten. Dus als het een foto is van een broodrooster, dan was het klaar. Maar in bijna alle andere gevallen zegt hij, nee, zet maar door.

Dan gaat het naar twee plekken. Het gaat naar een lokale autoriteit, die daar onderzoek naar gaat doen. En de wet zegt eigenlijk niet zo veel over wat er dan gebeurt. Maar het is wel cruciaal. Want wij zeggen hier vaak, denk toch aan de kinderen. Nou laten we dat ook vooral doen.

Er komt dus een fantastische stroom meldingen uit dit systeem. Want het is nog heel moeilijk om te bepalen of een foto nou verkeerd is of niet. Bijvoorbeeld het Nederlands Forensisch Instituut heeft gezegd, wij gaan niet naar een foto kijken en zeggen of dit een minderjarige is of niet. Het NFI heeft gezegd, wij kunnen dat niet. Het lukt niet, we hebben roentgenfoto’s voor nodig. Kunnen we gewoon niet.

Maar de Europese Unie heeft gezegd, nou onze computer kan dat wel. Maar er komt dus een fantastische stroom materiaal binnen, en misschien is het fout, misschien is het niet fout. En dat wordt dan doorgezet naar een lokaal politiebureau of een instantie, die gaan er naar kijken, die beginnen dan misschien een onderzoek.

En het eerste wat een burger daarvan merkt, is dat er op de deurmat een brief ligt. Op moment zus en zo heeft de EU geconstateerd dat u een foto heeft gedeeld, die we helaas niet bij kunnen voegen. Want het is mogelijk CSAM, dus kunnen we u niet laten zien.

Maar om 17.34 uur hebben we een foto geconstateerd die niet goed was en we beginnen een onderzoek. Ik zei net, denk aan de kinderen. En dat moeten we ook echt doen. En we willen hun leven beter maken. Maar hun leven wordt niet bepaald beter als dit systeem een enorme stortvloed van onterechte onderzoeken begint.

En je zou dus heel goed moeten zeker weten, van joh, als wij vijf terechte meldingen hebben gevonden, hoeveel onterechte meldingen zouden daar tegenover staan en wanneer hebben we het erger gemaakt? Want een onterecht onderzoek naar iemand beginnen kan toch echt helemaal verkeerd aflopen. En met name als je de schijn al een beetje tegen had.

En veel mensen denken, joh, het is toch niet zo erg om onderzocht te worden, want dan ga ik naar het politiebureau en dan leg ik dat gewoon uit. Dan leg ik uit dat mijn eigen kind in bad was enzo. Die illusie kan je echt helemaal vergeten. Op het moment dat die molen met dat onderzoek begint, heb jij niks meer uit te leggen. Maar sta je wel in allerlei databases.

En daar wil ik nog even terugkomen. De mensen bij Europol hebben al gezegd, wij gaan die database gewoon bewaren. Inclusief alle dingen die achteraf onterechte meldingen bleken. Want men zei, wie weet? Misschien kunnen we er wat mee.

En dat komt een beetje mijn tweede thema hier. Dit is niet een wet die een klein beetje getuned moet worden en dan is die wel goed. Dit is nog nooit gebeurd. In mijn oude werk, toen ik de AIVD en de MIVD moest reguleren, kregen we individuele vragen. Mogen we deze tien mensen afluisteren of niet?

En er werd over vergaderd door twee wijze mensen en door mij. En nu zitten we voor 500 miljoen Europeanen in één keer te zeggen, nou laten we daar maar die scanners op gaan toepassen. Dat is heel heftig. Als wij dit goedkeuren als land, als wij als Nederland hierin mee gaan stemmen in Europa en zeggen, doe maar, dan gaan we een grens over die wij nog nooit overgegaan zijn.

Namelijk, iedere European moet gemonitord worden met een computerprogramma, met technologie. Met een technologie waarvan de overgrote, overweldigende meerderheid van wetenschappers heeft gezegd, hij is niet af. Ik noemde eerder het voorbeeld dat het NFI zegt, wij kunnen dit niet met de hand. De EU heeft nu gezegd, onze computer kan dat wel.

420 wetenschappers hebben een petitie ondertekend die zegt we kennen deze technologie (of hebben die zelfs uitgevonden), maar computers kunnen het gewoon niet. We kunnen niet eens een betrouwbare spamfilter maken. Het maken van een spamfilter is exact dezelfde technologie, voor de duidelijkheid. Maar dan veel makkelijker. En toch gaat dat gewoon niet goed. En als een spamfilter een foutje maakt is het zo erg niet.

Desondanks zijn er nu Kamerleden die zeggen, nou ja, ik voel dat dit goed zit. Ik heb hier vertrouwen in. Terwijl de wetenschappers die geraadpleegd zijn, ook de echte wetenschappers die hier vanavond gekomen zijn, die zeggen, wij denken dat het niet werkt.

En we zeggen hier nu als land, nou, laten we dit experiment met die 500 miljoen mensen maar beginnen.

Afsluitend. WhatsApp en Telegram, nou, Telegram gaat niet meedoen, maar WhatsApp gaat waarschijnlijk wel meedoen. Die zullen er niet voor terugdijnzen om dat met een groot EU-logo aan te kondigen aan al hun gebruikers. “Let op, de EU kijkt met u mee”.

En we hebben software geïnstalleerd op uw telefoon namens de overheid die u in de gaten gaat houden. En ik denk dat dat niet heel goed valt bij mensen.

En verder, als we hier willen leren hoe je dit moet doen, als we hier internationale ervaring mee willen uitwisselen, is er maar één land in de wereld dat ons kan helpen.

En dat is China. En ik weet niet of dat zo’n goed vooruitzicht is.

Dank voor uw aandacht.

[Voorzitter: daar was geen woord Spaans bij]