Verantwoorde besluitvorming mens-machine interactie
Vooroordelen in gezichtsherkenning en rekruteringssystemen. Ongevallen met zelfrijdende auto’s. Dit soort missers laat zien dat AI nog een flinke ontwikkeling moet doormaken. Die ontwikkeling gaat het snelst als dat in nauwe samenwerking met mensen gebeurt.
Ja, er zijn zeker al grote successen geboekt met kunstmatige intelligentie. Zo zijn er AI-systemen die dankzij deep learning tumoren kunnen herkennen of kunnen liplezen. Maar AI-systemen laten ook nog regelmatig steken vallen. En dat kan zeer ongewenste gevolgen hebben. Vooral bij ethisch gevoelige toepassingen of bij situaties waarin de veiligheid op het spel staat.
Het is daarom tijd voor de volgende stap: een nauwere samenwerking tussen AI en mensen. Zo kunnen we AI-systemen ontwikkelen die ons bij complexe beslissingen ondersteunen. En waar we op een prettige en veilige manier mee kunnen samenwerken.
AI heeft nog een flinke leercurve voor de boeg
Om te beginnen heeft AI de neiging om menselijke vooroordelen klakkeloos over te nemen. Dat is met name een probleem als het om maatschappelijke en ethisch gevoelige toepassingen gaat. Het rekruteren van nieuw personeel bijvoorbeeld. Of het voorspellen van de kans dat een delinquent opnieuw de fout in gaat.
Daar komt ondoorzichtige besluitvorming nog bij. AI-systemen moeten leren om transparanter te worden. Dit is helemaal het geval als ze voor gevoelige onderwerpen worden ingezet. Denk aan wetshandhaving of het opsporen van sociale zekerheidsfraude.
AI systemen moeten niet star zijn. Ze moeten zich aanpassen aan de gebruiker en aan de veranderende maatschappij zonder ethische en juridische voorwaarden uit het oog te verliezen.
Tot slot, kunnen de gegevens die de AI analyseert privacy gevoelig en vertrouwelijk zijn. Dit speelt vooral als bedrijven en organisaties samenwerken in een besluitvormingssysteem.
Wat kunstmatige intelligentie nog nodig heeft
TNO onderzoekt momenteel wat er nodig is voor een verantwoorde besluitvorming tussen mens en machine. Daarbij zijn er vier aandachtspunten:
- Verantwoorde AI: door AI systemen ethische en juridische voorwaarden bij te brengen.
- Verklaarbare AI: door verschillende gebruikerstypen in staat te stellen de adviezen van het systeem te begrijpen en te kunnen opvolgen.
- Co-learning: door met de hulp van mensen aan te passen aan een veranderende wereld. Op zo’n manier dat de ethische en juridische uitgangspunten in het systeem verankerd zijn.
- Secure learning: door te leren van gegevens zonder ze daadwerkelijk te delen met andere partijen.
Doel: een betrouwbare en eerlijke AI
TNO levert een bijdrage aan betrouwbare AI-systemen die aantoonbaar op een eerlijke manier te werk gaan. Altijd. Dus ook in een complexe omgeving die snel verandert. Daarbij willen we AI-systemen ontwikkelen die aan verschillende soorten gebruikers kunnen uitleggen waarom ze een bepaalde beslissing nemen.
De diepte in met use cases
Misschien nog goed om te weten: naast deze onderzoeksrichting werken we ook aan veilige autonome systemen in een open wereld. Zo werken we vanuit verschillende invalshoeken aan oplossingen voor de huidige uitdagingen met AI. Maar hier ligt de focus dus nadrukkelijk op een ‘verantwoorde besluitvorming tussen mens en machine’. Met onderstaande use cases werken we onze AI technologie uit in praktische situaties:
- Secure learning in witwasdetectie
- Eerlijke besluitvorming op de arbeidsmarkt
- Eerlijke besluitvorming in het recht
- Voorspellende AI maakt preventieve zorg mogelijk
- Secure learning in oncologie onderzoek
- Diagnose voor printeronderhoud
- Bodemdaling monitoren
- Augmented werknemer in smart industry
- Energiebalans voor smart homes
- Innovatie monitoring in beleid