‘Giant AI goes down the European road’
In 2017 riep het Future of Life Institute in een ‘Open Letter’ al op tot onderzoek om ‘AI systemen te laten doen wat wij willen dat ze doen’. Uit de nieuwste alarmerende ‘Open Letter’ van hetzelfde instituut blijkt dat het punt van controleerbaarheid inmiddels is gepasseerd. Er is door de Big Five 223 miljard geïnvesteerd1 in de ontwikkeling van AI, maar ze doen nog niet ‘wat we willen’. Er is urgent actie nodig.
De werking van recent gelanceerde chat toepassingen zoals chatGPT4 en Bard, gebaseerd op grote taalmodellen (Giant AI), blijkt grotendeels onbegrepen, vertoont onverwacht ‘intelligent’ gedrag en heeft inmiddels de maatschappij in haar greep.
Vanwege de potentiële disruptieve ‘economische en politieke’ effecten wordt in de brief een pauzering in de ontwikkeling van AI voorgesteld van 6 maanden om afdoende regulering tot stand te brengen en intensivering van ‘AI safety’ onderzoek naar onder andere transparantie, maatschappelijke waarden, menselijk toezicht en certificering.
TNO ondersteunt deze ‘noodkreet’ tot bezinning. In feite stellen de ondertekenaars met hun brief de ‘European way’ voor: het ontwikkelen van Responsible AI, zoals voorgesteld door de EU Highlevel Group on AI.
Het werkt, maar we weten niet waarom
Het is ondenkbaar dat medicijnen op de markt komen zonder dat die getest en gecertificeerd worden op hun (bij)werking. Met digitale technologie, zoals AI gaat dat vaak net even anders.
Anne Fleur van Veenstra (Science Director TNO ICT, Strategy & Policy): “Digitale technologieën worden meestal eerst geïntroduceerd en vaak wordt pas daarna duidelijk wat de maatschappelijke gevolgen van de toepassing ervan zijn. Dit maakt dat er vooraf nauwelijks bijsturing mogelijk is en dat er weinig democratische controle is op deze ontwikkelingen.”
Giant AI werd vrij plots publiek beschikbaar, met een ongekende opschaling in gebruik, zonder zicht op werking en maatschappelijke consequenties.
Stephan Raaijmakers (TNO en hoogleraar taalmodellen en boekauteur ‘Deep Learning for Natural Language Processing’) zegt over de werking: “We snappen weliswaar de architectuur van deze modellen, maar niet de complexe relatie tussen hoeveelheden data, parameters en rekenkracht en emergentie aan de andere kant.
Dat maakt dit alles onoverzichtelijk en niet direct betrouwbaar voor een hoop toepassingen (zoals decision support). Klassieke uitlegbaarheid schiet hier vooralsnog tekort en het is zeer de vraag of we deze modellen ooit zullen doorgronden.”
"AI verstoort nu al onze wetenschappelijke en educatieve systemen en onze democratische processen"
Verleidelijk maar risicovol
De (potentiële) gebruikswaarde van Giant AI is groot. Big AI biedt op interactieve, toegankelijke, en welbespraakte wijze toegang tot een ongekende hoeveel kennis en informatie, anders dan zoekmachines, gepersonaliseerd samengevat en uitgelegd.
Het genereert content en dient als een inspiratiebron voor creatieve processen. Maar wie Big AI ervaart, merkt dat het nog geen zelfkennis heeft, nog veelvuldig inconsistent redeneert en ‘hallucineert’ omdat het niet weet wat het niet weet en geprogrammeerd is om altijd een antwoord te geven.
Het gebruik is tevens kwetsbaar voor bewust misleidende kennis en informatie. Verantwoord gebruik vereist het beheersen van ‘kritisch denken’ en het toepassen van meerdere methoden en bronnen.
Leon Kester (TNO onderzoeker ‘AI safety’) zegt over de maatschappelijke effecten: “AI wordt evenzeer overschat als onderschat. Het wordt overschat dat Artificial General Intelligence (het niveau van menselijke intelligentie in morele en wetenschappelijke betekenis) om de hoek zou liggen. Het wordt onderschat hoezeer AI de integriteit van kennis en de werking van wetenschap in gevaar brengt. AI verstoort nu al onze wetenschappelijke en educatieve systemen en onze democratische processen."
Maatschappelijke systeemtransitie
Giant AI kan zich ontwikkelen tot een publieke kennisinfrastructuur, maar dan moet die wel publiek en controleerbaar zijn. Als zodanig kan het geen ongecontroleerde ‘wapenwedloop’ van internationale technologiebedrijven zijn. Een kennisinfrastructuur is een voor de samenleving kritische infrastructuur die raakt aan de Nederlandse en Europese soevereiniteit.
De in de Open Letter voorgestelde pauze in de ontwikkeling van Giant AI lijkt het geopolitieke karakter van een wapenwedloop te negeren. Juist nu moet de kennis daarover aan de frontlinie blijven. En die kennis is niet alleen technologisch van aard, maar betreft ook sociale, economische, ethische en juridische kennis.
Het is voor onze samenleving een transdisciplinaire uitdaging! Jasper van der Waa (AI-onderzoeker, bij TNO en TU Delft, prijswinnaar YER 2022) zegt hierover “Giant AI betreft een systeemtransitie waarin technologische, sociale en institutionele innovatie hand in hand moet gaan.
Zelfregulering van de industrie is zelden effectief. Dat vraagt om een maatschappelijk transparante dialoog tussen overheden en bedrijven, ondersteund door de juiste expertise, gebaseerd op wetenschappelijke inzichten.”
Hoogste prioriteit AI safety research
De Open Letter roept op tot ‘robuuste’ financiering en daarmee intensivering en versnelling van AI-safety research. TNO ondersteunt zeer de existentiële noodzaak hiervan, voelt hier verantwoordelijkheid en prioriteert.
Tjark Tjin-A-Tsoi (CEO TNO) zegt hierover: “De noodkreet in de Open Letter van het Future for Life Institute neem ik zeer serieus. AI safety zit in het hart van onze missie om te innoveren voor een veilige en digitale samenleving. Wij roepen daarom niet alleen onze partners en overheid op om hier snel en intensief in te investeren, maar prioriteren het ook zelf.”
Eerder ontwikkelde TNO voor de uitrol van AI producten en diensten een praktische vertaling van voorgestelde ethische raamwerken naar concrete maatregelen en afspraken over verantwoordelijkheden.
Manieren om dergelijke responsible AI te realiseren zijn onder andere het mogelijk maken van democratische controle, een goed systeem van toezicht, afdwingen van transparantie en afrekenbaarheid van technische systemen, ontwikkelen van mechanismen waarbij burgers zich kunnen beroepen op hun rechten, en het opzetten van testfaciliteiten om technologie te beproeven voordat deze wordt toegepast buiten het lab.
In het TNO AI Oversight Lab wordt de inbedding van AI in overheidsorganisaties vorm gegeven, zoals de betrokkenheid en verantwoordelijkheden van management en uitvoerders bij de ontwikkeling, de invoering en het gebruik van AI. Het loopt hiermee vooruit op European AI Act en de aanbeveling daarin om tot landelijke ‘regulatory sandboxes’ te komen.
Voor high risk toepassingen van AI is een methode ontwikkeld (socio-technologische feedback loop) om te komen tot een verantwoord toezicht, ontwerp en werking van ‘autonome’ AI-systemen in het veiligheidsdomein.
Er is dus een basis, maar concrete operationalisering van ethische raamwerken en reguleringsconcepten is met de komst van Giant AI aan een versnelling toe. Gegeven het disruptieve karakter van de snel verwachte komende generaties Giant AI, is het is van groot belang dat bedrijfsleven en de overheid hierin meedoen.
In conclusie: Het alarmsignaal van de Open letter moet heel serieus genomen worden. Big AI heeft een ongekend maar ook onbegrepen maatschappelijk potentieel. Regulering is urgent en kan niet worden overgelaten aan de markt zelf. De overheid is in staat om hier richting aan te geven en de noodzakelijke investeringen te doen, ondersteund door publieke kennisinstellingen.
1: The Economist, 26 March, Big Tech and the Pursuit of AI Dominance).