Met de alsmaar groeiende mogelijkheden waar kunstmatige intelligentie in wordt gebruikt is het soms de vraag of het goed gaat. Zo is er bijvoorbeeld de organisatie OpenAI dat wordt gesteund door Microsoft, Amazon, Elon Musk en nog vele anderen, om ervoor te zorgen dat we veilig omgaan met kunstmatige intelligentie. Daarnaast blijven de geschreven algoritmes (of algoritmes die andere algoritmes schrijven) input krijgen op basis van menselijke overtuigingen (die niet altijd juist hoeven te zijn). Dit kan er bijvoorbeeld toe leiden dat er een chatbot ontstaat die zeer racistisch is. Het kan echter ook tot onveilige of schadelijke situaties leiden. Gelukkig is over het algemeen duidelijk dat kunstmatige intelligentie zeker voordelen biedt. Maar wat zouden we kunnen doen om algoritmes en ons eigen oordeel beter te kunnen maken? We maken hiervoor gebruik van het werk van een Nobelprijswinnaar in economie en een test waarbij 80% van de respondenten tot nu toe slechter scoort dan een aap.
Voor de gek gehouden
We denken dat we vaak de best mogelijke beslissing nemen, omdat we rationele wezens zijn en daarbij gebruik maken van logica. Toch zien we steeds meer voorbeelden in de maatschappij waaruit blijkt dat onze hersenen niet altijd even rationeel denken. Amos Tversky en Daniel Kahneman (Nobelprijswinnaar in economie in 2002) hebben met diverse onderzoeken aangetoond dat je brein je soms voor de gek houdt en daardoor mogelijk ook je gecreëerde algoritme. De termen die zij hiervoor gebruiken zijn heuristiek en vooringenomenheid.
Een voorbeeld hiervan is framing. Voor een populatie maakt het aanzienlijk uit op welke manier je vraagt of iemand een operatie wil uitvoeren als de kans op overleven 90% is. Door te vragen of iemand een operatie wil uitvoeren waarbij de kans op complicaties 10% is, dan neemt de keuze voor de operatie af, ook al is de situatie gelijk.
Een ander voorbeeld is overmoedigheid. Wanneer beslissingen worden genomen, dan wordt er voornamelijk rekening gehouden met zaken die je al weet en fenomenen die al geobserveerd zijn. Wie kijkt naar de meeste risico analyses binnen een bedrijf ziet bijvoorbeeld zelden hoe je om moet gaan met risico’s waarvan je weet dat ze bestaan, maar niet de benodigde informatie over hebt. Wat al helemaal zelden voorkomt is een toevoeging maken voor risico’s waarvan je niet weet dat ze bestaan of wat de impact kan zijn. Het meest bekende voorbeeld hiervan is beschreven door Nassim Nicholas Taleb over zwarte zwanen.
“Eeuwen lang dachten mensen in Europa dat er alleen witte zwanen waren. Zwarte zwanen waren nooit gesignaleerd en er was geen bewijs dat deze dieren er waren. Bestaan de dieren dan niet? Veel mensen dachten inderdaad dat de dieren niet bestonden. Totdat er zwarte zwanen werden gevonden in Australië.”
Algoritmes hebben vaak last van hetzelfde zwarte zwanen probleem en het vraagt dan ook bijzondere aandacht om hiermee om te kunnen gaan. De mens kan zichzelf dus voor de gek houden, maar dat valt nog op te lossen. Maar wat nu als de informatie en overtuigingen die je hebt nou compleet fout zijn?
Onjuiste Kennis
Voor veel informatie in de wereld zijn algemene uitgangspunten en is er vaak maar 1 werkelijkheid. In de algemene regels voor wiskunde is 1+1=2 en is dat een uniform uitgangspunt. Mocht je deze uniforme uitgangspunten niet weten, dan kun je de informatie opzoeken of krijg je het gedeeld door de mensen om je heen. Toch zijn er diverse gevallen waaruit blijkt dat deze werkelijkheid niet door iedereen wordt gevolgd of begrepen. Om bijvoorbeeld te laten zien hoe het gaat met de wereld heeft Gapminder allerlei informatie verzameld uit datasets over allerlei sociale onderwerpen. Deze data is ook te vinden op deze site in een makkelijke tool. Waar ze bij Gapminder achter kwamen is dat als het bijvoorbeeld gaat om de status van de huidige samenleving, dat mensen hier slechter op scoren dan een aap. Op een toets van 12 vragen met elk drie antwoordmogelijkheden scoort meer dan 80% van de respondenten minder dan drie goede antwoorden. Wie een aap de test zou laten maken zou op basis van gokken gemiddeld 4 goede antwoorden hebben. Een mogelijke verklaring is dat de wereld is veranderd over tijd (of abrupt) en mensen nog met gedateerde informatie redeneren. Dit is vergelijkbaar met de zwarte zwanen en ook iets wat een keer bij de Pollinator Group is overkomen bij het schrijven van een algoritme.
Het is dus niet dat we de antwoorden niet weten (anders zou er gegokt worden en zouden we hetzelfde scoren als een aap). Het is onjuiste kennis. En het is ook die onjuiste kennis die ervoor kan zorgen dat programma’s kunnen ontsporen of niet doen waarvoor je de intentie had om het te gebruiken. Door deze twee punten in acht te nemen worden algoritmes niet alleen beter. Je eigen analyses worden verbeterd en de beslissingen die daaruit voortkomen ook. Zo kun je op die manier iedere dag helpen om de wereld een stukje beter te maken. Wij dagen dan ook iedereen uit om aan te tonen dat ze wel slimmer zijn dan een aap door de factfulness test uit te voeren die wij hier hebben opgenomen. Je steunt hiermee gelijk het onderoek van de Gapminder stichting.