Eerlijke besluitvorming in het recht met AI

Thema:
Artificiële intelligentie

De 'Amazon Recruiting Tool' maakte het pijnlijk duidelijk: algoritmen in AI-systemen hebben de neiging om menselijke vooroordelen over te nemen. Dus als dergelijke tools ingezet worden binnen de strafrechtketen kan dat grote consequenties hebben. Dan staat het gelijkheidsbeginsel direct op de tocht. TNO onderzoekt daarom wat er nodig is om tot een eerlijke, transparante AI te komen.

Menselijke tussenkomst

Helaas weten we in Nederland maar al te goed hoe het mis kan gaan. Zo zorgde het blind volgen van de strikte regels van de belastingdienst er mede voor dat duizenden ouders jarenlang onrecht beschuldigd werden van fraude met de kinderopvangtoeslag. De betekenisvolle menselijke tussenkomst was daarmee dus niet zo betekenisvol meer.

Bij het opsporen, aanpakken en veroordelen van criminelen kan artificial intelligence en algoritmen daadwerkelijk van meerwaarde zijn. Maar je moet dan wel weten wat zo’n algoritme precies doet. AI-systemen die op basis van machine learning werken, krijgen namelijk niet alleen met objectieve data te maken. Het gevaar bestaat dus dat algoritmen menselijke vooroordelen overnemen en daardoor zelfs tot ronduit discriminerende conclusies komen, zoals bleek bij Amazon. Een betekenisvolle menselijke rol tussen algoritme en conclusie zou dat probleem moeten oplossen.

Een AI die zich makkelijk laat controleren

Grote vraag: wat kunnen we leren van Amazon en de toeslagenaffaire? En wat moet er nog gebeuren om AI-systemen op een veilige manier in te zetten binnen het strafrecht? Want die ontwikkeling zit er zo goed als zeker aan te komen.

Door de bezuinigingen binnen de strafrechtketen loopt de werkdruk van rechters, officiers van justitie en beoordelaars in het gevangeniswezen namelijk enorm op. Artificial intelligence kan helpen om die werkdruk wat te verlichten. Maar daar is dan wel een eerlijke, transparante AI voor nodig. Een die vrij is van bias, die transparant is en een betekenisvolle menselijke tussenkomst actief forceert. Kortom, een menswaardige AI.

AI-systemen onder de loep

Samen met het openbaar ministerie, de dienst justitiële inrichtingen en het centraal justitieel incassobureau heeft TNO de afgelopen jaren verschillende AI-systemen geanalyseerd.

Zo ook COMPAS, een geavanceerd computerprogramma dat Amerikaanse rechtbanken gebruiken om te beoordelen hoe waarschijnlijk het is dat een verdachte opnieuw de fout in gaat. Bij die analyses kwamen er verschillende vormen van oneerlijkheid aan het licht, die soms opvallend genoeg tot precies tegengestelde conclusies. Eerlijkheid laat zich niet makkelijk vangen in een simpele formule.

Drie uitdagingen

Hoe kunnen we AI-systemen leren om vooroordelen te herkennen en die op een juiste en eerlijke manier te corrigeren? Dat is momenteel de vraag waar TNO en de projectpartners zich mee bezighouden. Daarbij is het zaak om de werkwijze van een AI zo transparant mogelijk te maken. De laatste, en misschien wel belangrijkste uitdaging: ervoor zorgen dat gebruikers niet teveel op een AI-systeem gaan vertrouwen.

Laat je verder inspireren

56 resultaten, getoond 1 t/m 5

AI-systeem voor persoonlijk advies gezonde leefstijl

Informatietype:
Insight
7 november 2024
Je leefstijl verbeteren met gerichte persoonlijke adviezen. In het project F.A.T.E werken we aan een AI-systeem die dit mogelijk gaat maken.

Nieuw consortium ontwikkelt geavanceerde AI voor bewakingsrobots

Informatietype:
Nieuws
4 september 2024

Human-AI, want samen kunnen mens en machine grotere uitdagingen aan

Informatietype:
Insight
1 juli 2024

Steeds meer kunstmatige intelligentie ingezet door overheid

Informatietype:
Nieuws
25 juni 2024

AI in opleiding: FATE ontwikkelt digitale doktersassistent

Informatietype:
Insight
21 mei 2024