AI in Control: strategische overweging boardroom - KPMG Nederland
close
Share with your friends

AI in Control vraagt om strategische overweging boardroom

AI in Control: strategische overweging boardroom

Het gebruik van algoritmes levert ons veel gemak en plezier op. Maar er zitten ook risico’s aan als er onder de motorkap dingen mis gaan. Bestuurders bezinnen zich op die risico’s. Die soms in onverwachte hoeken schuilen.

Gerelateerde content

Op 1 augustus 2018 laten agenten een groepje Amerikaanse toeristen stoppen die zojuist door de Piet Hein tunnel zijn gefietst. Het gaat om een tunnel zonder fietspad waar de auto’s je met snelheden van rond de 100 km voorbijrazen. In het bewuste filmpje van AT5 vallen drie dingen op. Ten eerste dat de toeristen de tunnel in gestuurd werden door hun navigatie-appje: het onderliggende algoritme dirigeerde hen een tunnel in waar ze met de fiets niets te zoeken hadden. Ten tweede dat ze een grenzeloos vertrouwen hebben in technologie en de aanwijzingen slaafs opvolgden zonder zelf na te denken. Want de agent die erop wees dat de Amerikanen toch zelf ook konden zien dat deze tunnel off limits was voor fietsers kon alleen maar rekenen op onbegrip. Ten derde dat het altijd de schuld van iemand anders. Want een van de toeristen kondigde op hoge toon aan Apple juridisch te gaan vervolgen als de politie hen op de bon slingert. Hem treft geen blaam. 

Big brother is guiding you

Precies deze drie zaken zijn exemplarisch voor de invloed van technologie op de maatschappij in bredere zin. 1:  Onze beslissingen worden meer en meer gestuurd op basis van data en de algoritmes die deze data gebruiken. Lang geleden waren we bang voor het scenario Big brother is watching you. De realiteit is nu heel anders: Big brother is guiding you. De wereld is vol algoritmes (al dan niet op basis van Artificial Intelligence) die je activiteiten en je beslissingen sturen. 2: We gebruiken de technologie op slaafse wijze en vertrouwen het blindelings. Dit fenomeen heet automation bias en is bijvoorbeeld ook te zien in hoe we zonder al teveel vragen de suggesties van een spellingchecker overnemen in een word document of na aanvankelijk even onwennig in een zelfsturende auto plaats te nemen na een half uurtje juist totaal het heft uit handen geven. 3: En als het mis gaat moeten we met de vinger kunnen wijzen .

Ook risicobeheersing op algoritmes

De vraag komt dan ook steeds vaker op of de algoritmes onder motorkap wel deugen. Onder andere vanwege de reactie van de Amerikaanse toerist – ‘het is de schuld van Apple’ – zou elke bestuurder of commissaris daar eens goed over na moeten denken en inventariseren welke risico’s de organisatie op dit vlak loopt. Tien tegen een dat dan ook blijkt dat een organisatie heel veel geld uitgeeft aan het beheersen en controleren van financiële processen (al dan niet om te voldoen aan  wet- en regelgeving) en dat er nauwelijks middelen worden vrijgemaakt om in control te zijn en blijven over de algoritmes. De risico’s daarvan zijn echt niet alleen maar relevant  voor wie een zelfrijdende auto op de markt brengt, maar ook voor banken, verzekeraars, vliegmaatschappijen en tal van andere organisaties.

Het is dan ook tijd voor een strategische herbezinning over hoe om te gaan met deze risico’s. Een oud mantra uit het veiligheidsdomein is daarbij een prima waarschuwing. If you think safety is expensive, try an accident.

Meer weten?

Wilt u weten hoe u grip kunt houden op algoritmes in uw organisatie. En hoe u de kansen van AI kunt benutten. Download dan de whitepaper ‘hoe betrouwbaar zijn algoritmes?’ Heeft u vragen? Dan kunt u contact opnemen met Sander Klous of Frank van Praat.

Neem contact met ons op

 

Wilt u een offerte van ons ontvangen?

 

Offerteaanvraag (RFP)