David Deutsch over de ontwikkeling en toepassing van AI
Peter Werkhoven, Chief Scientific Officer bij TNO, schuift digitaal aan bij David Deutsch: fysicus, hoogleraar in Oxford en één van de pioniers op het gebied van quantum computing. Zijn visie zette hij in 1997 uiteen in het boek The Fabric of Reality. Samen praten ze over de betekenis van quantum computing voor de ontwikkeling en toepassing van AI. Zal AI ooit in staat zijn ‘verklaarde kennis’ te genereren’ of ethiek van mensen te kunnen leren?
In gesprek met David Deutsch
Wat gaat de kwantumcomputer betekenen voor AI?
Er wordt momenteel veel gepraat over de steeds verdergaande digitalisering, en dan met name over AI en de rol van die technologie in de samenleving. Daarbij gaat het ook regelmatig over kwantumcomputers en kwantumalgoritmen. Wat gaat de kwantumcomputer betekenen voor AI?
‘Er zijn bepaalde functies die kwantumalgoritmen verbazingwekkend efficiënter kunnen uitvoeren dan welk klassiek algoritme dan ook. Maar op dit moment denk ik dat de inzet daarvan zal worden beperkt tot speciale doeleinden. Het ontwikkelen van medicijnen of games bijvoorbeeld. Dat kan belangrijk zijn, maar ik verwacht niet dat kwantumalgoritmen een centrale rol gaan spelen bij AI of artificial general intelligence, AGI.’
‘AI moet gehoorzaam zijn, het moet doen waarvoor het is geprogrammeerd. Terwijl een mens fundamenteel ongehoorzaam is.’<
Waarom niet?
‘Om dat uit te kunnen leggen, is het om te beginnen goed om te weten dat AI en AGI niet alleen van elkaar verschillen, maar dat ze bijna het tegenovergestelde zijn van elkaar. De AI’s die we kennen, zijn AI’s die bijvoorbeeld ziekten diagnosticeren, schaken of enorme fabrieken besturen. Dat zijn objectieve functies die zijn ontworpen om processen te maximaliseren. De AI moet daarvoor gehoorzaam zijn. Het moet de dingen doen waarvoor het is geprogrammeerd. Dat kunnen ze beter dan mensen, want mensen zijn fundamenteel ongehoorzaam. En mensen die creatief zijn ingesteld al helemaal. Wanneer een mens schaakt, berekent hij of zij de zetten compleet anders dan een schaakcomputer. Waar de computer in staat is om naar miljarden mogelijkheden te kijken, blijft dat bij de mens beperkt tot enkele honderden mogelijkheden. Een ander verschil is dat de mens in staat is om iets uit te leggen. Hij of zij kan naderhand een boek schrijven, bijvoorbeeld over hoe hij of zij wereldkampioen is geworden. Maar een computerprogramma dat die wereldkampioen verslaat, kan zo’n boek niet schrijven, omdat het niet weet wat het heeft gedaan. Het volgde gewoon een reeks van programmaregels.’
'Het AGI-programma moet onverwachte antwoorden kunnen geven’
En een AGI? Waarin verschilt die van AI?
‘Van een AGI verwachten we dat die zich gedraagt op een manier die niet vooraf gespecificeerd kan worden. Want als je het zou kunnen specificeren, dan had je het antwoord al. Het AGI-programma moet dus onverwachte antwoorden kunnen geven. Antwoorden op vragen die we niet eens wisten te stellen.’
Denken mensen snel genoeg?
Er is onderzoek gedaan waaruit blijkt dat mensen op cognitief niveau informatie verwerken met een bit rate van 50 bits per seconde. Dat is niet veel. Is dat een beperking van het menselijk denken? Is dat de reden waarom we totaal anders schaken dan computers? En ook totaal anders problemen oplossen?
‘Processen in de menselijke hersenen lopen enigszins parallel, dus ik denk niet dat het zo langzaam is als 50 bits per seconde. Maar inderdaad: het is veel minder dan een miljard bits per seconde. Wij mensen zijn dus niet in staat om alle mogelijkheden te bekijken en af te vinken. Maar dat hoeft ook niet, want wij zijn in staat om vanuit begrip tot de juiste inzichten te komen. Een schaker kijkt naar het schaakbord, probeert de situatie te begrijpen en gaat vervolgens speculeren. Ik ben een aanhanger van de filosoof Karl Popper. Hij leerde ons dat wetenschap en denken in het algemeen een kwestie is van speculatie en kritiek. Maar geen enkel computerprogramma kan dat op dit moment.’
Denkt u dat we een verklaarbare AI kunnen krijgen op een niveau waarop mensen die verklaring kunnen begrijpen?
Dat sluit aan bij de discussie over ‘verklaarbare AI’ die momenteel speelt. Veel mensen denken dat als we AI voor serieuze toepassingen met een hoog risico ontwikkelen, dat die AI zichzelf dan moet kunnen verklaren. Denkt u dat we een verklaarbare AI kunnen krijgen op een niveau waarop mensen die verklaring kunnen begrijpen?
‘Ja, maar ik denk niet dat dit een stap in de richting van AGI is. Integendeel. Het is juist weer een stap de andere kant op. Want stel dat een computerprogramma zou kunnen zeggen dat het kanker heeft gediagnosticeerd en daarbij aangeeft welke röntgenfoto het daarvoor heeft gebruikt en wat het op die foto heeft ontdekt. Dat kan zeker op een manier die wij als mens kunnen begrijpen. Maar tot dusver kan een AI niet aangeven dat hij denkt dat er sprake is van een nieuwe ziekte en daarbij ook nog eens de ontwikkeling van die ziekte kan uitleggen zoals een menselijke dokter dat zou doen. AI kan niet iets nieuws creëren. Hij kan wel tot nieuwe implicaties komen, maar dat doet hij op basis van bestaande kennis die is ingevoerd.’
Als je het hebt over het creëren van nieuwe kennis: we hebben voorbeelden waar AI nieuwe antibiotica heeft ontdekt.
‘Ik denk dat dit wordt gedaan door chemische eigenschappen te matchen met de eigenschappen van cellen of bacteriën. Dat is niet echt verklarende kennis.’
En er zijn meer voorbeelden van hoe AI in staat is om complexe patronen terug te brengen tot wetmatigheden. Zouden we dat verklarende kennis kunnen noemen?
‘Nee. Hoewel het daar wel naar uitziet, zul je er bij nadere beschouwing achter komen dat er bij die situaties ook sprake is van kennis die is voorgeprogrammeerd. Misschien niet bewust. Zo is het heel gemakkelijk om als programmeur kennis in te voeren. Bijvoorbeeld over welke gegevens relevant zijn en welke niet. Op die manier vertel je het programma al om een antwoord te vinden. Maar dat doen natuurkundigen niet als ze een nieuwe wet ontdekken. Zij ontdekken de concepten achter het onbekende.’
Veel mensen zeggen dat AI moreel gedrag moet vertonen. Denk je dat AI door interactie met mensen kan leren?
‘Hiervoor geldt hetzelfde: de echte inhoud van het morele gedrag dat AI uitvoert, zal door de programmeur zijn ingevoerd. Het is een beetje zoals het trainen van een hond. Een hond kan ook geen verklarende kennis creëren. Een hond wordt getraind om bepaalde morele patronen te volgen. En het is eigenlijk verbazingwekkend dat honden op die manier getraind kunnen worden. Machines kunnen dat ongetwijfeld nog beter dan honden. Maar dat is geen moreel gedrag, maar gewoon gehoorzaam zijn aan regels. Het kan zelf geen morele oordelen vellen, maar alleen de morele oordelen van anderen uitvoeren. Als een slaaf.’
Wilt u dat deze systemen slaven zijn? Of wilt u dat ze ongehoorzaam zijn en doen wat ze willen in die rollen?
En als we bijvoorbeeld naar zelfrijdende auto’s kijken. Of naar autonome reacties op cyberaanvallen, wat ook intelligentie software is. Wilt u dan dat deze systemen slaven zijn? Of wilt u dat ze ongehoorzaam zijn en doen wat ze willen in die rollen?
‘In het geval van zelfrijdende auto’s zouden we naar blindengeleidehonden kunnen kijken. Zij moeten ook het verkeer en mensen beoordelen. Zij moeten bepaalde bedreigingen inschatten en andere signalen juist negeren. En zo’n blindengeleidehond doet dat alles beter dan een mens. Een mens is namelijk veel minder toegewijd aan zo’n taak, waardoor hij of zij vroeg of laat een fout zal maken. Het is verbazingwekkend wat blindengeleidehonden kunnen doen. Bij zelfrijdende auto’s is het weliswaar een lastiger probleem, maar voor een groot deel hetzelfde probleem.’
'De mogelijkheden zijn oneindig. Elk jaar sta ik versteld van de kracht van AI’s'
Welk advies heeft u voor mensen die op een verantwoorde manier AI-toepassingen willen maken?
‘De mogelijkheden zijn oneindig. Elk jaar sta ik versteld van de kracht van AI’s. En ik denk niet dat de risico’s apocalyptisch zijn. De risico’s zijn vergelijkbaar met het risico van elke nieuwe technologie. De eerste keer dat er een stoomlocomotief aan het publiek werd gedemonstreerd, kwam er een aanwezig parlementslid om het leven. Mensen waren het niet gewend, zo’n locomotief die snel andere objecten kan passeren. En snel betekende destijds 24 kilometer per uur. Dus ja, we moeten met AI op onze hoede zijn. Het is belangrijk om te beseffen dat AI’s niet volmaakt zijn. En te beseffen dat ze niet volledig gecontroleerd worden door regels, simpelweg omdat we niet weten welke regels we ze moeten geven. Daarbij moeten we er bewust van zijn dat het om toepassingen gaat die eruitzien alsof ze geen toezicht nodig hebben, terwijl het vooral in het begin heel belangrijk is om juist wel goed toezicht te houden en bij fouten meteen in te grijpen. De eerste versie van een AI zal niet zo goed zijn als de tiende. Maar eenmaal volwassen, maakt zo’n AI minder fouten dan mensen en kunnen we erop gaan vertrouwen.’
Download visiepaper
Download visiepaper ‘Towards Digital Life: een toekomstvisie op AI anno 2032’
Meer over 'Towards Digital Life: Een toekomstvisie op AI anno 2032'
- Georgette Fijneman over de belofte van AI voor zorgverzekeraars
- Rob de Wijk over de opkomst van AI in geopolitieke context
- Bram Schot over de invloed van AI op mobiliteit
- Eppo Bruins over AI in verschillende overheidsdomeinen
- Bas Haring over AI, wetenschap en filosofie
- Arnon Grunberg over AI, creativiteit en moreel handelen