ChatGPT en AI: elke organisatie heeft het gevoel daar ‘iets’ mee te moeten. Maar hoe neem je een afgewogen besluit over zoiets onvoorspelbaars? Door te experimenteren en fouten te maken. Alleen zijn veel leiders daar bijzonder slecht in.

Terwijl een oud-Google topman moord en brand schreeuwt over de ontwikkelingen rondom AI-toepassingen en een andere AI-pionier van Google het bedrijf verlaat omdat hij vreest dat zijn werkgever een monster creëert, ontstaat er in Silicon Valley een ware goudkoorts rondom kunstmatige intelligente.

Het contrast tussen de waarschuwingen en de zucht naar rijkdom kan bijna niet groter. Toch is de wens om het positieve van de techontwikkeling te zien sterker dan de dreigingen.

Zo gaat het vaker. We wuiven de gevaren weg en worden overmoedig, ook wel de overconfidence trap genoemd. Zo zagen we ook vooral de goede kanten van sociale media.  De verslaving, de eenzaamheid onder jongeren, het complotdenken, ze deden er minder toe.

Vakantieverhuurdersite Airbnb werd als grote verbinder gezien tussen verschillende nationaliteiten. Dat sommige wijken in grote steden hun ziel verloren, omdat bewoners niet uit waren op contact, maar op geld verdienen, was niet voorzien.

Speelveld overzien

Hetzelfde dreigt nu voor AI te gebeuren. Elke organisatie wil mee in de ontwikkeling, ‘anders lopen we achter’. Maar de top van het bedrijfsleven is eenvoudigweg niet in staat een besluit te nemen waarbij alle gevolgen van de ontwikkeling worden meegenomen, ondanks alle waarschuwingen.

Al is het alleen al omdat bij complexe scenario’s zogeheten trade-offs ontstaan. Dat zijn conflicterend uitkomsten waarbij aan de ene kant iets wordt verloren en aan de andere kant iets wordt gewonnen. Zie dan maar eens de juiste beslissing in te nemen.

Dan wordt er nog vanuit gegaan dat de leiders het volledige speelveld kunnen overzien. Ook dat is vrijwel onmogelijk. What you see is all there is, schrijft Daniel Kahneman in zijn boek Thinking Fast and Slowomdat verder kijken dan het eigen gezichtsveld lastig is. Vooral als het gaat om nieuwe ontwikkelingen. Dan ontbreekt het aan historische data.

De kennis die er wel is, wordt vaak niet meegenomen, omdat daarvoor geen tijd is. Leiders hebben vaak maar een krappe tien minuten om een besluit te nemen, blijkt uit onderzoek.

Gedrag voorspellen is lastig

Ondanks al dit gebrek aan kennis geloven we maar wat graag dat we rationele en objectieve besluiten nemen, staat te lezen in het Harvard Business Review-artikel The Hidden traps of Decision MakingDat geloof komt vanuit het vertrouwen in dat wat we wel weten: alles wat we in het verleden hebben geleerd.

Vanuit deze blik op het verleden nemen we een besluit voor de toekomst. Nieuwe producten kunnen we dan wel bedenken, maar wel met de blik op vandaag. Zo kwam het dat de eerste auto paardloze wagen werd genoemd en dat de eerste digitale krant een kopie was van de papieren variant.

Het gaat dan ook vooral mis bij de voorspelling van ons gedrag. Wie tekeningen uit de jaren zeventig erbij pakt waarop onze huidige jaren worden uitgebeeld, ziet dat de technologische ontwikkelingen wel nauwgezet zijn voorspeld. Koken met een iPad, beeldbellen, zelfrijdende auto’s, het is allemaal uitgekomen. Technisch kunnen we de ontwikkeling relatief gemakkelijk voorspellen.

Wat niet op de tekening terugkomt zijn de maatschappelijke ontwikkelingen. We zien nog altijd de vrouw die (met schort) kookt, de man rookt en werkt, en de kinderen kijken niet naar een beeldscherm, maar spelen.

Samen leren is de oplossing

Vraag is hoe senior managers ondanks hun gebrek aan kennis toch flexibel kunnen reageren op de onvoorziene impact van technologie. Peter Senge, wetenschapper aan de Amerikaanse MIT Sloan School of Management, heeft daarop een eenvoudig antwoord: door te leren.

Wie bovendien samen leert, ziet op een gegeven moment de verbanden tussen ontwikkelingen, in plaats van dat ze worden gezien als een lineaire aaneenschakeling van oorzaak en gevolg. Nu worden besluiten nog vaak genomen vanuit een momentopname, terwijl alles met elkaar in verbinding staat.

Dat leren gebeurt de laatste tijd vaker bij de overheid. Om die reden wordt er in Brussel al gewerkt aan wetgeving om AI in goede banen te leiden. En ook de fietskoeriers kregen niet zomaar vrij spel in de grote steden; gemeenten waren door de problemen met Airbnb al enigszins voorbereid en grepen in.

Reeds gemaakte fouten uit het verleden zorgen ervoor dat de beleidsmakers goed zijn voorbereid, ze hebben geleerd. Enige nadeel is dat de ongelukken erg groot zijn geweest voor die les.

Experimenteren en fouten maken

Minder schadelijk is het leren in kleine stappen, oftewel experimenteren. Wie vanuit het systeem denkt, zoals Senge stelt, ziet dat kleine, gerichte acties effect kunnen hebben. Het voordeel van dit experimenteren is dat het risico laag blijft en de leiders in alle drukte niet worden overvallen door de complexiteit van het probleem, maar tijdig kunnen bijsturen.

De kleine winsten, oftewel de small wins, zoals organisatiekundige Karl Weick ze noemt, kunnen als blokken op elkaar worden gezet om een stevig fundament te vormen en op termijn een groot effect te hebben.

Voor veel leiders betekent deze aanpak dat ze moeten loslaten. Loslaten van een werkwijze waarin ze vertrouwen op hun kennis en ervaring uit het verleden. Dat wat ze al weten telt minder zwaar, ze zullen open moeten staan voor nieuwe kennis en het maken van fouten. Fouten tellen alleen zwaarder mee dan winsten.

Elke keer een kleine fout kan onzekerheid veroorzaken, en stress, waardoor we terugvallen in onze oude gewoonte en toch weer willen vasthouden aan ons idee, gebaseerd op kennis uit het verleden. Deze rationaliteit geeft gevoelsmatig houvast, maar leidt niet tot een toekomstbestendig bestaan.