Gaat Artificial Intelligence ons haten? Liefhebben? Of ons gewoon beschouwen als atomen die het kan gebruiken voor iets anders?

Pieter
De Petter

Wat een tiental jaren geleden nog pure sciencefiction was lijkt vandaag de dag vaak helemaal niet meer zo gek. De mensheid heeft dan ook in een waanzinnig tempo de transformatie ingezet van een analoge wereld naar een digitale wereld, gestuwd door de eindeloze technologische vooruitgang. En niets lijkt hier tegen opgewassen: arbeid, communicatie, defensie, mobiliteit, zelfs kunst, overal winnen de nullen en enen aan terrein. De grote vraag is dan ook hoe dit zal eindigen voor de mens?  

The Singularity

Niemand minder dan John von Neumann suggereerde in de jaren 1950 dat de mensheid een essential singularity aan het naderen is. Dit idee heeft langzamerhand aan populariteit gewonnen en begin jaren 90 was The Singularity geboren. The Singularity refereert naar een punt in de toekomst waarop Artificial Intelligence (AI) veel intelligenter zal zijn dan de mens. De gevolgen hiervan zijn onmogelijk in te schatten maar de weg naar dit punt is duidelijk: indien de technologische vooruitgang blijft versnellen zal AI op een gegeven moment intelligenter worden dan de mens. Deze vorm van AI, Superintelligence, zal zich na verloop van tijd zelf kunnen herprogrammeren en verbeteren waardoor er een Intelligence Explosion kan ontstaan. Hierna is niets nog zeker, zelfs het voortbestaan van de mens.

Het probleem van inductie

Dit idee heeft lange tijd de wind van voren gekregen omdat de argumentatie gebaseerd is op inductie: generaliseren op basis van een aantal specifieke waarnemingen. Deze methode kan nooit een waterdichte conclusie opleveren. Binnen de wetenschapsfilosofie staat dit bekend als het probleem van inductie: het is niet omdat alle zwanen die je hebt gezien wit zijn, dat de volgende ook met 100% zekerheid wit zal zijn. Vanuit dit perspectief is er geen justificatie mogelijk voor ideeën zoals The Singularity en moet men bereid zijn om een aantal inductieve sprongen te maken. Gelukkig zijn er vandaag de dag voldoende argumenten om met voldoende vertrouwen zo’n ‘sprong in het donker’ te maken. 

Technologische vooruitgang

Eén van de essentiële voorwaarden voor Superintelligence is technologische vooruitgang zodat de nodige hardware en software kan ontwikkeld worden. Initieel lag de focus op hardware, de rekenkracht van een computer. Vandaag de dag kan er echter probleemloos geargumenteerd worden dat supercomputers reeds krachtig genoeg zijn. Daarnaast is de rekenkracht de laatste decennia jaarlijks met ongeveer 50% toegenomen en er lijkt niet direct een kentering van deze trend in de maak. Op software vlak zitten we iets minder ver, al is er de laatste jaren onwaarschijnlijk veel vooruitgang geboekt. AI-onderzoek is aan het boomen en successen volgen elkaar in snel tempo op. Vaak met prestaties die in de buurt komen van de mens of reeds overtreffen: objectherkenning, zelfrijdende wagens, spraakherkenning, de overwinning van Google’s Alphago in het Chinese spel GO, etc. .

Superintelligence

 Het is natuurlijk geen garantie dat succes in deze beperkte deelgebieden zomaar zal leiden tot Superintelligence die bijvoorbeeld ook abstract kan redeneren. Dergelijk argument lijkt momenteel de laatste strohalm waaraan non-believers zich vastklampen. Een interessant tegenargument is de Moravec Paradox: in tegenstelling tot traditionele ideeën vereisen complexe cognitieve taken zoals abstract denken relatief weinig rekenkracht van de mens. Basis taken zoals zicht en motoriek verbruiken daarentegen enorm veel kracht. Een mogelijke verklaring is het gegeven dat redeneren relatief nieuw is in de natuur, minder dan 100.000 jaar oud. In de delen van onze hersenen die verantwoordelijk zijn voor onze zintuigen en motoriek zit echter miljarden jaren ervaring gecodeerd waardoor we deze taken vanzelfsprekend vinden.

Wanneer?

Met andere woorden, abstract denken is helemaal niet zo moeilijk, het zijn de basis taken die potentieel een struikelblok vormen om Superintelligence te bereiken. En dit lijkt voornamelijk een probleem op korte termijn want er wordt reeds hard gewerkt aan de volgende stap(pen): de eerste mathematisch optimale blueprints voor Superintelligence zoals AIXI zijn recent bewezen; talloze organisaties zijn bezig met de concrete ontwikkeling en er worden miljarden in geïnvesteerd; er lopen grote gesubsidieerde projecten zoals het Human Brain Project met als doel het menselijk brein te emuleren, een alternatief pad om superintelligence te bereiken; etc. . Op basis van al deze elementen is het geen verrassing dat de AI toponderzoekers Superintelligence verwachten rond 2100.

Impact

Alles wijst erop dat de komst van Superintelligence de grootste disruptie in de menselijke geschiedenis wordt. De mens zal niet langer het meest intelligente systeem zijn op de aarde. En laat dit nu net de eigenschap zijn die ervoor heeft gezorgd dat we zijn geworden wie we zijn, bovenaan de voedselpiramide staan en deze planeet regeren. Ook de impact van AI in de meer nabije toekomst lijkt niet enkel rozengeur en maneschijn. Talloze jobs gaan onder druk komen te staan en in tegenstelling tot vroegere technologische (r)evoluties lijkt niemand nog safe: van chirurgen over chauffeurs tot zelfs rechters, AI zal respectievelijk nauwkeuriger, veiliger en eerlijker zijn. Daarbij komen nog eens autonome wapens, het Internet-of-Things dat alles aan mekaar zal linken, etc. . Ondanks de enorme opportuniteiten die AI met zich meebrengt is het niet verwonderlijk dat er meer en meer ongerustheid begint te sluimeren.

De controle paradox

Het lijkt vooral van essentieel belang dat we onze grip niet verliezen in een wereld die door AI gedomineerd zal worden. Gelukkig zijn een aantal domeinen zoals AI Safety & Machine Ethics zich aan het ontwikkelen. Eén van de grote vraagstukken die men hierbinnen tracht op te lossen is het controle probleem: hoe kunnen we AI systemen bouwen die ten dienste (blijven) staan van de mens en zich niet ongewenst tegen ons zullen keren? Op het eerste zicht lijkt dit de juiste vraag om onze toekomst te vrijwaren. Vanuit een filosofisch perspectief stoten we echter al snel op een controle paradox: kunnen we überhaupt wel een systeem controleren dat intelligenter is dan we zelf zijn? En in dit licht veranderen we misschien beter de vraag hoe het zal eindigen in de vraag of we eigenlijk wel echte Artificial Intelligence willen?

Download scriptie (2.22 MB)
Universiteit of Hogeschool
KU Leuven
Thesis jaar
2018
Promotor(en)
Roger Vergauwen