De algoritmes zijn dommer dan we denken
Beeld je even in dat er een overheersende kracht in de wereld bestaat die er alles aan doet om je te bedriegen zodat je nooit zeker bent van je kennis, hoe kunnen we dan ooit de waarheid kennen? Dat gedachte-experiment over le malin génie (het bedrieglijke genius) van René Descartes is actueler dan ooit tevoren. Sinds ChatGPT de debatten beheerst, zit de schrik er goed in dat artificiële intelligentie (AI) daadwerkelijk in staat is ons een valse werkelijkheid voor te spiegelen. Die angst is niet nieuw. Bij zowat elk technologisch transitieproces duikt het idee op dat de techniek - in welke gedaante ook: robots, algoritmes, camera's - het van ons zal overnemen. Apocalyptische voorspellingen bij de vleet dus, maar zijn ze realistisch?
Uiteraard is waakzaamheid geboden. Er zijn nu eenmaal risico's en die moeten we goed inschatten. Zoals met deepfakevideo's staat bij AI onze verhouding tot de waarheid op het spel. Juist daarom is het van belang voorspellingen over onze technologische toekomst kritisch te bevragen. Nu lijden die vaak aan een omgekeerd cassandracomplex: we hebben de neiging om onheilstijdingen over onze toekomst te snel voor waar aan te nemen en gemakshalve alle voorspellingen te geloven.
De mythe van Cassandra is welbekend, maar even ter opfrissing: Cassandra is de beeldige dochter van Priamus, die zich laat verleiden door Apollo. Ze gaat aanvankelijk in op zijn huwelijksaanzoek, maar komt even later op die belofte terug. Apollo neemt wraak door Cassandra's woorden te vervloeken, waardoor voortaan niemand nog gelooft wat ze zegt.
Ons verliezen in angstscenario's
In het verlengde daarvan betekent een cassandracomplex dat we voorspellingen over naderend onheil lichtzinnig wegwuiven. Met de dooddoener 'het zal wel zo'n vaart niet lopen' doen we dan aan zelfverblinding en komen we te laat in actie. Denk aan de aanpak van de coronapandemie of de klimaatcrisis. Een omgekeerd cassandracomplex impliceert dan weer dat we onheilsvoorspellingen kritiekloos geloven, waardoor we elke zin voor realisme kwijtraken en ons verliezen in angstscenario's.
Ik verwijs naar het debat over woke. Door het schrikbeeld voor te houden dat we in de toekomst massaal gecanceld zullen worden, zien we het onderliggende probleem niet meer, met name dat vandaag nog heel wat mensen het slachtoffer zijn van discriminatie. In die zin is een omgekeerd cassandracomplex problematisch, omdat het onze aandacht afleidt van actuele problemen. Dan praten we de hele tijd over grote bedreigingen in de toekomst, maar zeggen we niets zinnigs over het heden.
Zoals gezegd moeten we alert blijven voor alle risico's die met AI verbonden zijn, maar door die vooral in een apocalyptisch kader te plaatsen helpen we onszelf niet vooruit. Kijk naar de debatten over technologische doorbraken, van zelfrijdende auto's over crispr-cas (de nieuwste geneticatechniek) tot AI. Ze verlopen vrijwel analoog en de blijkbaar altijd onzekere toekomst is telkens een interessante afleiding om niet met het heden bezig te zijn. We kunnen beter vertrekken van de vraag hoe we nieuwe technologie integreren in het dagelijkse leven en de toepassingen ervan in de gewenste richting sturen. Door uit te gaan van apocalyptische bespiegelingen jaag je mensen angst aan, waardoor ze geneigd zijn interessante innovaties af te wijzen. Denk aan de weigering om een digitale energiemeter te plaatsen. Velen hebben argwaan omdat ze vrezen dat die technologie andere dingen doet dan hun is voorgehouden. Als we bij AI die fouten overdoen, raken we in hetzelfde sukkelstraatje.
Culturele vertraging
De Amerikaanse socioloog William Ogburn wist al dat je technologische innovaties of snelle veranderingen in het algemeen nooit zomaar kunt doorvoeren. Hij gebruikte daarvoor de term culturele aanpassing of vertraging, een periode waarin de zogeheten immateriële cultuur - normen, gewoontes, wetgeving - achterophinkt op de materiële cultuur - veelal technologie. Herinner u de discussies over de coronavaccins: dat ging voor veel mensen letterlijk te snel, met blijvend wantrouwen tot gevolg. We moeten innovaties daarom inbedden in menselijke waarden en ze niet zien als autonoom opererende instrumenten waaraan geen sturing te geven is. Technologie grijpt steeds meer in op ons gedrag en dan is het cruciaal ons vooraf af te vragen welke ingrepen we wenselijk vinden.
Zoals afgelopen weekend in de krant te lezen viel: 'AI kan maar leren uit de gegevens die ze krijgt'. Daarom is het onze blijvende taak er slim mee om te gaan. De inzet is al bij al helder: technologie helpt de mens om (routineuze) taken en processen sneller te laten verlopen. Niet de mogelijkheden van AI moeten ons schrik aanjagen, wel de beperkingen ervan. Onze eigen domheid inzien is daarom een eerste stap, want als AI één gevaar kent, dan wel dat het onze fouten overneemt.