Moordrobot is nog lang geen realistische dreiging

06 jan 2020

Vernuftige moordmachines die de mensheid te slim af zijn en uiteindelijk de wereld zullen overheersen, het is een doembeeld dat telkens weer opduikt. Hoe realistisch is dat scenario?

Een hyperintelligente robot schakel je niet zo maar definitief uit, weet iedereen die ooit een Terminator-film heeft gezien. Deze scifireeks – met Arnold Schwarzenegger als killerrobot – gaat over de bloedige strijd tussen mens en machine.

Waar het misgaat? Kunstmatige intelligentie. In de eerste film ontwikkelt het Amerikaanse leger een zelflerend computersysteem, Skynet. Binnen een maand bereikt Skynet een staat van ‘bewustzijn’ en probeert – heel verrassend – de volledige mensheid uit te roeien.

‘AI heeft de mens bij sommige taken al ingehaald’

Maar The Terminator is meer dan een filmfranchise met een cultstatus. De reeks kleurt al sinds de jaren tachtig hoe wij naar artificiële intelligentie (AI) kijken. Voor de leek is de term onlosmakelijk verbonden met de moordrobot, wereldheerschappij door computers en een post-human era. Sommige wetenschappers voeden dat beeld. In een essay uit 1993 stelt de Amerikaanse wiskundige en informaticus Vernor Vinge dat de exponentiële ontwikkeling van kunstmatige intelligentie nog vóór 2030 zal leiden tot systemen die intelligenter zijn dan de mens. Hoe reëel is dat idee? Gaat AI ons brein – of het nu over tien of honderd jaar is – uiteindelijk verslaan?

Garry Kasparov schaakt tegen de Deep Blue computer.

Deep Blue

‘Ik zeg altijd dat AI gaat over computersystemen die dingen kunnen, waarvan we dachten dat alleen mensen ze konden’, zegt Tom Heskes, hoogleraar Kunstmatige intelligentie aan het iCIS (Institute for Computing and Information Sciences) van de bètafaculteit. Eigenlijk bestaat AI niet, want zodra we een computersysteem zoiets ‘menselijks’ kunnen aanleren, noemen we het technologie. Heskes: ‘Deep Blue, een schaakcomputer die zo’n twintig jaar geleden ontwikkeld is, beschouwen we niet meer als AI. En ik wed dat de huidige AI over twintig jaar gewoon statistiek heet.’

Waar Heskes de technische kant van AI vertegenwoordigt, onderzoekt cognitiewetenschapper Iris van Rooij aan de AI-afdeling van de faculteit sociale wetenschappen hoe je menselijke cognitie in algoritmes ‘vangt’. ‘Het idee van kunstmatige intelligentie is dat je intelligentie beschrijft in formules, of eigenlijk instructies, die je vervolgens in een fysieke vorm giet’, zegt ze. In de vorm van computers bijvoorbeeld. Of van een moordrobot.

Heskes: ‘AI heeft de mens bij sommige taken al ingehaald.’ De radioloog in het ziekenhuis krijgt bij de beoordeling van scans hulp van kunstmatige intelligentie via deep learning (zie kader). Soms herkent AI uitzaaiingen minstens zo goed als medisch specialisten, bleek uit een publicatie van onder anderen de Nijmeegse hoogleraar Functionele beeldanalyse Bram van Ginneken, twee jaar geleden in vakblad JAMA.

Heilige graal

Leidt de ontwikkeling van kunstmatige intelligentie onherroepelijk tot de bouw van een moordrobot? Absoluut niet. Alles wat nu mogelijk is met AI, valt onder zwakke kunstmatige intelligentie (narrow AI). Het systeem focust op één taak. Echte intelligentie omvat veel meer. Hoe slim een computer ook is in, zeg, het spelen van het spel Go, het blijft één enkel kunstje. ‘Het punt is: bewustzijn ontbreekt’, zegt hoogleraar Marcel van Gerven, hoofd van de AI-afdeling bij sociale wetenschappen. ‘AI-systemen blijven gewoon statistische modellen, die slim informatie verwerken.’

Cognitiewetenschapper Van Rooij licht het begrip intelligentie toe. ‘Stel, je wilt een huis kopen’, zegt ze. ‘Zo’n beslissing kun je vertalen naar een wiskundig probleem dat plussen en minnen afweegt. Maar welke factoren relevant zijn – locatie, aantal kamers of een kindvriendelijke buurt –, bepalen wij, niet het computersysteem. Het algoritme zelf denkt niet: hoe ga ik dit beslissen? Het afbakenen van het probleem is onderdeel van menselijke intelligentie. Dat is moeilijk te vatten in algoritmes.’

Juist dát deel van intelligentie, bewustzijn, is nodig om een hyperintelligente moordrobot te bouwen. Of, iets minder kwaadaardig: een systeem dat denkt zoals wij, waarmee we contact kunnen leggen. Dat heet algemene AI (general AI). ‘Deze AI-systemen kunnen – in de juiste omgeving – op een zinnige manier omgaan met informatie’, legt Van Gerven uit. ‘De heilige graal in het AI-onderzoek’, aldus Van Rooij.

Nieuwsgierigheid

Kunnen we dat al? Het antwoord is nee. ‘Onderzoekers doen hun best, maar hebben geen idee hoe general AI te realiseren’, zegt AI-hoogleraar Heskes. Zowel Van Gerven, Van Rooij als Heskes denken echter dat algemene AI niet principieel onmogelijk is. Onderzoekers kunnen bepaalde aspecten van onze cognitie nu nog moeilijk vatten in formules, maar er is voorzichtige vooruitgang.

Neem nieuwsgierigheid. Van Gerven toont een video waarin een robot met zijn ‘ogen’ een mensenhand volgt die een blauw blokje vasthoudt. ‘Dat is nieuwsgierigheid’, zegt Van Gerven. Iets nieuws registreren en willen weten wat het is. ‘Sommige wetenschappers vinden het idee van algemene AI een brug te ver’, zegt hij. Maar alleen al het streven ernaar is interessant. ‘Het leert ons hoe ons brein werkt. En het leidt tot robuustere en adaptievere AI-systemen.’

Foto: Pixabay (bewerkt)

Humanoïde

Hoe zit het dan met de vergevorderde AI-systemen die de media ons voorschotelen? Denk aan Sofia, een robot in de vorm van een vrouwenhoofd, die op tv in gesprek ging met enthousiaste presentatoren. Dat is gewoon een spraakbesturingssysteem als Siri, maar dan met een gezicht, legt Van Rooij uit. En dan de robotarm die razendsnel een Rubik’s Cube oplost – ze laat een video zien. ‘Dit is misleidend. De robot lost niets op, de oplossing is voorgeprogrammeerd.’ Het zijn, vat Van Rooij samen, gewoon technologische sprongetjes, die er voor een lekenpubliek uitzien als AI.

Hoe lang duurt het nog voordat algemene AI wordt uitgevonden? Dat wil geen van de experts zeggen. Voorspellingen doen kan niet, er is eerst een revolutionair idee nodig om bewustzijn in computersystemen te creëren.

‘Men denkt dat algoritmes objectief zijn, dat is riskant’

Intussen bestaat in de maatschappij wel al angst voor mogelijke uitwassen van algemene AI. Denk aan computers die zichzelf programmeren. Heskes schetst zo’n AI-ramp: ‘Stel, we vragen computers de hongersnood in de wereld op te lossen, zonder beperkingen te geven. De ‘slimme’ computers bedenken vervolgens een logische manier om dat te doen – de mensheid uitroeien – en zetten wapenrobots aan het werk in automatische fabrieken, waarop de mens geen invloed heeft.’

Racisme

Het is een schrikbeeld waar de drie onderzoekers soms van balen. ‘Die gevaren zijn veel kleiner dan de risico’s die de reeds bestaande AI met zich meebrengt’, zegt Heskes. ‘Zo kunnen we al zwermen drones maken die automatisch schieten. Dat gevaar is veel reëler dan de mogelijkheid dat computers de wereldheerschappij overnemen.’

Of bedenk dat data bevooroordeeld kunnen zijn, zegt Van Rooij: ‘Amazon trainde systemen voor werving van medewerkers op basis van eerdere selecties van kandidaten. Dat leverde racistische en seksistische algoritmes op. Riskant, want mensen denken dat algoritmes objectief zijn.’ De Nijmeegse AI-afdeling doet daarom onderzoek naar dergelijke maatschappelijke implicaties.

De angst voor moordrobots is op korte termijn in ieder geval totaal ongegrond, plaatst Heskes de zaken in perspectief. ‘De kans is veel groter dat de mensheid door andere oorzaken te gronde gaat dan door kwaadaardige computers. Denk aan klimaatverandering, atoombommen, of meteorieten.’

Leuk dat je Vox leest! Wil je op de hoogte blijven van al het universiteitsnieuws?

Bedankt voor het toevoegen van de vox-app!

1 reactie

  1. E.A. schreef op 9 januari 2020 om 15:37

    “Thou shalt not make a machine in the likeness of a human mind.”

    Frank Herbert, Dune.

Geef een reactie

Vox Magazine

Het onafhankelijke magazine van de Radboud Universiteit

lees de laatste Vox online!

Vox Update

Een directe, dagelijkse of wekelijkse update met onze artikelen in je mailbox!

Wekelijks
Nederlands
Verzonden!