Kunstmatige intelligentie (AI) belooft ons leven te veranderen en ons efficiënter, productiever, gezonder en innovatiever te maken. Deze technologie wordt al gebruikt in de private en publieke sector, waarbij de kracht van gegevens wordt ingezet om voorspellingen te verbeteren, betere producten en diensten te maken, kosten te verlagen en werknemers te bevrijden van routinematig administratief werk.

Volgens het KPMG Global Tech Report 2023 zien technologieleiders AI en machine learning als de belangrijkste technologie voor het realiseren van ambities op de korte termijn. Daarnaast gelooft 85 procent van de 17.000 ondervraagden in het wereldwijde onderzoek 2023 Trust in artificial intelligence dat AI een scala aan voordelen met zich mee kan brengen. Zo kunnen in de gezondheidszorg bijvoorbeeld artsen gezondheidsrisico's nauwkeuriger en sneller voorspellen en complexe behandelingen effectiever uitvoeren. En helpt AI in de consumenten- en detailhandel bij het voorspellen en analyseren van trends, het creëren van virtuele modellen die outfits kunnen tonen, het anticiperen op klantbehoeften en het helpen van klanten bij een meer gepersonaliseerde winkelervaring.

Maar zoals bij elke opkomende technologie, zijn er ook risico's. Uit hetzelfde onderzoek blijkt dat 61 procent van de mensen op zijn hoede is voor het vertrouwen in AI-systemen en slechts de helft gelooft dat de voordelen van AI opwegen tegen de risico's. Ook zegt 55 procent van de technologieleiders dat hun vooruitgang op het gebied van automatisering wordt vertraagd door zorgen over de manier waarop AI-systemen beslissingen nemen. Het wijdverspreide en ongereguleerde gebruik van deze technologie roept zorgen op over de impact ervan op mensenrechten en persoonlijke privacy. Dit geldt met name voor generatieve AI (GenAI), waarbij gebruik wordt gemaakt van dieplerende algoritmen en krachtige basismodellen die trainen op enorme hoeveelheden ongelabelde gegevens om te komen tot output van kunstmatige intelligentie.

Dit artikel onderzoekt de gevolgen voor de privacy van de wijdverspreide toepassing van AI. Het doel is om te ontdekken wat dit betekent voor bedrijven en om de belangrijkste stappen te schetsen die organisaties kunnen nemen om AI op een verantwoorde manier te gebruiken. Door op de hoogte te blijven van de privacygevolgen van de toepassing van AI en proactieve stappen te ondernemen om de risico's te beperken, kunnen bedrijven de kracht van deze technologie benutten en tegelijkertijd de privacy van individuen waarborgen.

Download PDF

Privacy in the new world of AI

How to build trust in AI through privacy.



Download PDF (1.9 MB) ⤓



Ontdek de vijf belangrijkste stappen die bedrijven helpen vertrouwen op te bouwen in AI

Wetgevers, beleidsmakers en toezichthouders benadrukken consequent dat AI-systemen moeten voldoen aan erkende normen. Het is dus essentieel om vast te stellen welke regelgevingskaders van toepassing zijn op jouw bedrijf, te bepalen welke je wilt naleven en te plannen hoe jouw AI zal worden ingezet. Creëer een basislijn voor AI-gebruik die voldoet aan verschillende regimes en stroomlijn jouw AI-ontwikkeling of AI-gerelateerde bedrijfsactiviteiten dienovereenkomstig.

Beoordeel de impact op privacy en pak nalevingskwesties aan in de ideefase - en gedurende de gehele AI-levenscyclus - door middel van een systematische privacyeffectbeoordeling (PIA) of gegevensbeschermingseffectbeoordeling (DPIA). Privacy by Design, zoals beschreven in de ISO 31700 Privacy by Design Standard en het KPMG Privacy by Design Assessment Framework, kan organisaties helpen om privacy in te bouwen in AI-systemen.

Zelfs als je denkt dat je systeem alleen geanonimiseerde of niet-persoonlijke gegevens gebruikt, kunnen er privacyrisico's ontstaan, waaronder heridentificatie uit trainingsdatasets en zelfs AI-modellen en downstreamgevolgen van niet-persoonlijke gegevens die worden gebruikt om modellen te trainen die gevolgen hebben voor individuen en gemeenschappen. Een robuuste beoordeling omvat ook modellering van beveiligings- en privacyrisico's gedurende de gehele AI-levenscyclus en waar nodig raadpleging van belanghebbenden. Houd rekening met bredere privacykwesties zoals gegevensrechtvaardigheid (hoe eerlijk worden mensen behandeld in de manier waarop je hun gegevens gebruikt) en inheemse gegevenssoevereiniteit (de rechten van inheemse volken om gegevens over hun gemeenschappen, volken, land en bronnen te beheren).

 

Beoordeel privacyrisico's in verband met het ontwikkelen van interne AI-oplossingen of het gebruik van openbare modellen die trainen op openbare gegevens. Zorg ervoor dat deze modellen voldoen aan nieuw ontwikkelde AI- en ethische standaarden, regelgeving, best practices en gedragscodes om de vereisten te operationaliseren (bijv. NIST, ISO, regelgevingsrichtlijnen). Dit geldt zowel voor ontwikkelaars als voor klanten die een AI-systeem ontwikkelen of aanschaffen en integreren.

Als je een klant bent, vraag de ontwikkelaar dan om documentatie ter ondersteuning van hun PIA en gerelateerde AI privacyrisicobeoordelingen en voer ook jouw eigen privémodellen uit. Als ze deze documentatie niet kunnen leveren, overweeg dan een andere leverancier. In veel rechtsgebieden, waaronder het Verenigd Koninkrijk en de EU, is een PIA/DPIA al een wettelijke vereiste en een basisvereiste waarin AI-overwegingen moeten worden opgenomen. De PIA/DPIA moet ingaan op het initiële gebruik van AI en ontwerpoverwegingen (bijv. probleemstelling, no-go zones, enz.). Focus op de noodzaak en proportionaliteit van de gegevensverzameling en op toestemming.

Als je een ontwikkelaar van AI-systemen of een derde partij/leverancier van AI bent, moet je klanten en toezichthouders verzekeren dat je de nodige zorg hebt besteed aan het bouwen van betrouwbare AI. Een manier om dit te doen is door een audit uit te voeren aan de hand van erkende standaarden, regelgevende kaders en best practices, inclusief een algoritmische effectbeoordeling.

Ter illustratie, het testen van het AI-systeem met behulp van testscripts die realistische scenario's kunnen weergeven om feedback van gebruikers te krijgen en de effectiviteit, betrouwbaarheid, eerlijkheid en algehele acceptatie te helpen waarborgen voordat het systeem wordt ingezet. Dit omvat uitleg over welke gegevens zijn gebruikt, hoe deze zijn toegepast op de eindgebruiker en hoe de eindgebruiker het gebruik van AI voor geautomatiseerde besluitvorming kan betwisten of aanvechten om bevooroordeelde uitkomsten te voorkomen.

Wees voorbereid op het beantwoorden van vragen en het beheren van de voorkeuren van individuen die beïnvloed worden door jouw ontwikkeling of gebruik van AI-systemen. Organisaties die AI willen gebruiken voor geautomatiseerde besluitvorming moeten in heldere taal kunnen uitleggen hoe AI van invloed kan zijn op hun eindgebruikers.

Uitlegbaarheid is het vermogen om uit te leggen waarom een AI-systeem tot een bepaalde beslissing, aanbeveling of voorspelling is gekomen. Wees voorbereid op het beantwoorden van vragen en het beheren van de voorkeuren van individuen die beïnvloed worden door jouw ontwikkeling of gebruik van AI-systemen. Overweeg om gedocumenteerde workflows te ontwikkelen om te identificeren en uit te leggen welke gegevens zijn gebruikt, hoe deze zijn toegepast op de eindgebruiker en hoe de eindgebruiker het gebruik van AI voor besluitvormingsdoeleinden kan aanvechten of betwisten.