KPMG heeft in Q2 2021 een onderzoek uitgevoerd naar de bekendheid van algoritmes bij de gemiddelde Nederlandse burger, en het vertrouwen die deze stelt te hebben.

Vertrouwen in algoritmes

Wat helpt het vertrouwen in algoritmes te verbeteren?

Transparantie over het gebruik van algoritmes door organisaties wordt door het merendeel van Nederlanders als randvoorwaarde voor vertrouwen gezien. Daarnaast draagt een maatschappelijke inzet van algoritmes ook bij aan het vertrouwen in algoritmes. Juist richten op het verbeteren van de samenleving in plaats van het opsporen van incidenten. Dat linkt met de reputatie en afwezigheid van incidenten. De manier waarop de organisatie bekend staat in de perceptie van de maatschappij is daarin belangrijk. Tot slot geven de respondenten aan dat de goedkeuring door een accountant bij kan dragen aan het vertrouwen in het gebruik van algoritmes. Dit laatste heeft een groot snijvlak met het bieden van transparantie over het gebruik, wat op zichzelf inzichten biedt in het noodzaak tot toezicht. 

ranking ai
ai

Noodzaak tot toezicht

Een overgrote meerderheid van 80% vindt toezicht op algoritmes wenselijk. Deze taak moet volgens een groot deel van deze meerderheid in handen worden gelegd bij de combinatie van onafhankelijke derde partijen, zoals accountants, toezichthouders, zoals de AP, en tenslotte de overheid, al dan niet middels een nieuw op te richten ministerie van digitalisering.

ai

Algoritmes en de overheid

De respondenten staan positief tegenover het gebruik van algoritmes indien dit een maatschappelijk doel heeft. Zo geeft 61% aan dat het opsporen van criminelen door middel van gezichtsherkenning geaccepteerd is. Wel laten de cijfers zien dat hoe meer de besluiten de persoon direct kunnen raken, hoe minder positief de toepassing van algoritmes wordt ervaren. Zo geeft nog geen kwart van de respondenten een algoritme te vertrouwen bij de toewijzing van een kind aan een school, bepaling van vervolgonderwijs of de hoogte van een toeslag.

Dit laatste komt tevens terug in het toezichtsvraagstuk. 78% van de respondenten aan dat geautomatiseerde processen bij de overheid altijd onder toezicht moeten staan. Dit toezicht dient dan ook strenger te zijn dan voor bedrijven. 

ai

Associaties algoritmes en de overheid

Dat het toezicht strenger moet zijn op algoritmegebruik door de overheid, heeft mede te maken met de associaties die de respondenten hebben. Meer dan de helft van de respondenten associeert algoritmegebruik door de overheid met beangstigend en een gebrek aan privacy. Minder dan de helft ervaart algoritmegebruik door de overheid als eerlijk en veilig. Wel geeft 44% aan het nut van algoritmegebruik door de overheid in te zien, echter zoals eerder aangegeven, is het bieden van transparantie en toezicht daarin cruciaal.

ai

Vertrouwen in het gebruik van algoritmes

De respondenten hebben overwegend het meest vertrouwen in het gebruik van algoritmes door techbedrijven. Echter, is dit ruim minder dan de helft. Overheidsinstellingen scoren overwegend slecht op het vlak van vertrouwen, alsmede financiële instellingen. Financiële instellingen, zoals banken en verzekeraars kunnen tezamen met overheidsinstellingen op het minste vertrouwen rekenen als het gaat om het gebruik van algoritmes.

ai staafdiagram

Algemeen onderzoek naar vertrouwen

Het onderzoek is in samenwerking met Motivaction tot stand gekomen en uitgevoerd in de periode april-mei onder 1010 Nederlanders met de volgende kenmerken:

tabel

Contact

Wilt u meer informatie over dit onderwerp of over onze AI-services? Neem dan contact op met Frank van Praat, senior manager Trusted Analytics.

Frank van Praat

Senior manager Trusted Analytics
KPMG Nederland
+31 (0) 30 658 2470
VanPraat.Frank@kpmg.nl

Mourad Fakirou

Senior consultant Trusted Analytics
KPMG Nederland
+31 (0)20 656 8869
Fakirou.Mourad@kpmg.nl