Skynet, HAL 9000, V.I.K.I., the Matrix, misschien ken je er zelf ook nog wel een paar: kwaadaardige kunstmatige intelligentie en robots. Het is al tijden een populair thema in science fiction boeken en films. Natuurlijk zijn de situaties in deze films allemaal verzonnen, maar er zijn wetenschappers die echt vrezen dat denkende computers zich ooit tegen de mensheid zullen keren. Allereerst kun je je afvragen of computers wel intelligenter kunnen worden dan mensen, of dat computers überhaupt intelligent kunnen zijn (daarover later meer). Toch blijft het een interessant onderwerp van debat en houden mensen zich ermee bezig. Het moment dat computers slimmer worden dan de mens noemt men de technologische singulariteit.
Is het eigenlijk wel logisch om bang te zijn voor super slimme computers? Misschien dat hyperintelligente computers in hun wijsheid wel juist voor vrede en harmonie zorgen. We weten het niet en misschien komen we er nooit achter.
Maar ook minder intelligente vormen van AI zouden kunnen worden ingezet om de mensheid te benadelen. Wat zal een AI robot besluiten als je deze slechts één taak geeft en wel de volgende: zorg dat er geen overbodig CO₂ wordt uitgestoten? De robot zou kunnen concluderen dat de gehele mensheid moet worden uitgeroeid.
Misbruik van computers
Wat in elk geval wél een realistisch puntje van zorg is, is misbruik van kunstmatige intelligentie. Eigenlijk gebeurt dit nu al best vaak. Denk bijvoorbeeld aan deep fakes. Zo heeft iemand een audio deep fake ingezet om een bank voor $243.000 op te lichten. Het is niet zozeer het computerprogramma zelf, maar de mens erachter die het gevaar vormt. Een ander voorbeeld van misbruik van kunstmatige intelligentie is misschien wel het gebruik van drones. Door drones volautomatisch te laten vliegen en bommen te laten werpen, kun je een smerige manier van oorlogvoering krijgen. Kunstmatige intelligentie kan in de verkeerde handen als een extreem gevaarlijk wapen werken, iets dat we niet moeten willen!
Computers die foutjes maken
“Computers maken geen fouten, het zijn mensen die computers programmeren die fouten maken.” Je kent deze uitspraak misschien wel, en grotendeels klopt hij ook. Computerprogramma’s doen altijd precies waarvoor ze geprogrammeerd zijn. Maar met kunstmatige intelligentie ligt dit toch net iets anders. Bij kunstmatige intelligentie worden de acties van de software niet van te voren geprogrammeerd, maar komt de software tot acties die het zichzelf aanleert. In dit leerproces kunnen ongewenste fouten optreden. Het gevaar is hier dat mensen te veel gaan vertrouwen op kunstmatige intelligentie.
Een leuke anekdote is een groep aan AI-robots op wieltjes die elkaar zo min mogelijk moeten proberen te raken in een speelveld. De robots leren op een gegeven moment dat stilstaan de beste oplossing is. Geweldig bedacht maar niet wat de ontwikkelaars in gedachten hadden. Een ander verrassend resultaat was de studie die OpenAI heeft gedaan naar AI in een "hide and seek" game wereld. Na een tijd kwam de AI achter bugs in de software van de geprogrammeerde wereld waardoor ze verder en hoger konden komen dan bedoeld.
In dit artikel over een dodelijk ongeval door een ‘zelfrijdende’ auto: In het artikel staat een goed voorbeeld van een foutje van kunstmatige intelligentie met een treurig gevolg. Nu gaat het in dit voorbeeld over één slachtoffer, maar wat te denken als de straten straks overspoeld worden met zelfrijdende auto’s? Zelfs al zou een zelfrijdende auto minder fouten maken dan een mens dan rest er de vervelende vraag na een dergelijk ongeluk: wie is er verantwoordelijk voor de schade bij een ongeval? Is dat de eigenaar van de kunstmatig intelligente auto? Of is dat de programmeur van de software in de auto? Of misschien de kunstmatige intelligentie zelf?
Robots reguleren
We hebben net stilgestaan bij mogelijke gevaren uit de hoek van kunstmatige intelligentie. Als slimme computers echt deel uit gaan maken van onze samenleving, dan zullen er dingen moeten veranderen. Er zullen nieuwe afspraken gemaakt moeten worden. Bijvoorbeeld over wie wanneer verantwoordelijk is bij een ongeluk met een robot. Of wat een slimme computer wel of niet mag doen.
Er wordt hierbij vaak verwezen naar Isaac Asimov en zijn drie wetten van de robotica. Hoewel Asimov deze wetten in een science fiction boek (*I, Robot*) publiceerde, is er vaak serieus over nagedacht. De wetten zijn bedoeld om mensen te beschermen tegen intelligente computers. Hieronder staan ze:
- Een robot mag een mens geen kwaad doen of door niet te handelen toestaan dat een mens kwaad gedaan wordt.
- Een robot moet de bevelen van mensen opvolgen, behalve als deze in strijd zijn met de eerste wet.
- Een robot moet zijn eigen bestaan beschermen, zolang dit niet in conflict is met de eerste en de tweede wet.
Asimov voegde later een ‘nulde’ wet toe die in feite gelijk is aan de eerste wet, maar waarin “mens” is vervangen door “mensheid”.
Tekortkomingen van Asimovs wetten
Als er echt zoiets komt als de technologische singulariteit, dan is het goed om alvast na te denken over hoe hiermee om te gaan. De bovengenoemde wetten zijn dan aardig om mee te beginnen. Er zijn echter ook tekortkomingen: problemen waar deze wetten geen rekening mee houden.
Als een robot bijvoorbeeld een eigen definitie van ‘kwaad doen’ verzint, kan de eerste wet een hele andere betekenis krijgen. Of misschien dat sommige robots niet eens weten of iets goed of kwaad is en daarmee de wetten overtreden. En wanneer is eigenlijk iets een robot? Geldt een mens met mechanische lichaamsdelen (zoals een robotarm) ook als een robot?
Rechten voor robots
We hebben het zojuist over regels gehad waaraan kunstmatige intelligentie en robots zich zouden moeten houden. Je kunt je vast goed voorstellen dat het belangrijk is dat er zulke regels komen. Wat misschien minder voor de hand ligt, is dat robots misschien ook wel rechten zouden moeten krijgen. Net zoals er voor dieren ook dierenrechten zijn. Zou het niet raar zijn als er straks ultra-intelligente robots rondlopen met minder rechten dan een kat?
Denk eens na of discussieer eens met een klasgenoot over de volgende vragen.
Denk eens na over het volgende verhaal. Probeer dit zonder vooroordelen te lezen.
Je zit in een les informatica. Het is buiten mooi weer. De docent is bezig om iets uit te leggen over computerarchitectuur en je gedachten dwalen af, naar buiten. Langzaam maar zeker dagdroom je weg terwijl je uit het raam staart. Plotseling word je uit je dromerigheid getrokken als de docent roept: “Hey daar, wel op blijven letten.” Je doet meteen wat hij zegt. Natuurlijk, hij is de docent en jij de leerling, dus luister je.
Je bent aandachtig aan het luisteren, als er ineens iets heel vreemds gebeurt. De docent valt midden in een zin stil en blijft compleet bewegingloos staan. De hele klas is in rep en roer en niemand merkt op dat de conciërge ondertussen het lokaal is binnengewandeld. Hij loopt rustig naar de nog altijd bewegingloze docent en draait wat aan zijn hoofd. Tot ieders verbazing draait hij de bovenkant van het hoofd van de docent als een soort deksel open. In het hoofd zitten allerlei radertjes en schroefjes: je docent blijkt een robot te zijn!
De conciërge sleutelt wat en draait het hoofd vervolgens weer dicht. Langzaam komt de docent weer op gang en gaat verder met zijn verhaal alsof er niets gebeurd is. De conciërge klopt de docent vriendelijk op de schouder en loopt rustig het lokaal uit. Iedereen is stomverbaasd.
Het mooie van filosofie is dat je overal over kunt en mag denken, hoe bizar iets ook is. Probeer bovenstaand verhaal je eens voor te stellen. Beantwoord daarna de volgende vragen.
De engheidsmatrix
Wanneer techneuten of social-media influencers praten over AI, dan hebben ze het vaak over de ‘coole’, leuke en nuttige toepassingen daarvan. Vaak gaat het dan om de razend knappe nieuwe technieken die worden gebruikt of het allerlaatste, supersnelle neural network algoritme. Maar wanneer je luistert naar sommige andere mensen dan noemen die AI juist vaak ‘eng’.
“Ik heb geen idee hoe het allemaal werkt, maar het is ons vast aan het bespioneren. Hartstikke eng vind ik…”
En eigenlijk hebben ze allemaal een beetje gelijk. Want AI kan gaaf en leuk zijn, maar het kan ook eng en fout zijn. In dit deel van de lessenserie ga je zélf aan de gang om te ontdekken wat voorbeelden zijn van goede, nuttige en leuke AI-toepassingen, en wat voorbeelden zijn van ‘enge AI’.
Maar waarom vinden mensen de ene AI-toepassing nou ontzettend nuttig en ethisch verantwoord, en een andere juist super eng en totaal overbodig? In de paragraaf In de praktijk heb je een aantal voorbeelden gekregen waarin je hebt kennisgemaakt met de ethische aspecten van AI. Maar nu is het tijd te gaan bedenken wat jij zélf vindt van AI.
Een handige manier om zélf te beginnen met kritisch nadenken over AI is het maken van een engheidsmatrix. In zo'n matrix plot je verschillende AI-toepassingen om te ontdekken wat nou duidelijke voorbeelden van goede, nuttige en leuke AI-toepassingen zijn, en wat typisch voorbeelden zijn van ‘enge AI’. Start met het tekenen van een matrix, zoals het voorbeeld hieronder; het is handig om de matrix bijvoorbeeld groot op een muur of op een whiteboard te tekenen, en een geeltje te gebruiken om een AI-toepassing te beschrijven en in de matrix te plaatsen, zodat je er met anderen over kunt discussiëren:
Wil je meer weten over de engheidsmatrix en hoe je die kunt gebruiken om het nut en de ethische aspecten van een AI-toepassing in kaart te brengen? In het keuzedeel Ethiek en AI gaan we verder op de matrix in.