– Det står og faller på dataene - KPMG Norge
close
Share with your friends

– Det står og faller på dataene

– Det står og faller på dataene

Ingen algoritme eller modell kan bli bedre enn dataene de tar utgangspunkt i. – Det hele står og faller på dataene, som dermed blir en ytterst verdifull ressurs, sier KPMGs Jo Sigurd Pedersen.

1000

Kontaktperson

Jo Sigurd Pedersen

Partner

KPMG i Norge

Kontakt

Relatert innhold

Det snakkes mye om hvordan data er den nye oljen – sannsynligvis for at folk flest skal klare å forstå hvor store verdier som ligger i data.

– Det er ingen tvil om at data kan skjule store verdier, men ikke alle data er skapt likt, sier Jo Sigurd Pedersen, partner og leder for KPMG Lighthouse.

Tre viktige attributter

Han nevner tre attributter ved data som KPMG vurderer: Mengde, variasjon og hastighet.

– Den første av disse er den enkleste; har vi data i tilstrekkelige mengder? Noen varianter av kunstig intelligens, som for eksempel såkalt «deep learning», krever svært store mengder data som er systematisert og merket med hva de ulike datapunktene betyr. Uten slike datamengder, vil enkelte typer AI være ubrukelige for virksomheten, sier han.

Dessuten er det et spørsmål om virksomheten har de nødvendige tillatelsene til å bruke dataene, og her er GDPR og ulike personvernhensyn bare ett av mange aspekter virksomheten må ta hensyn til. Et annet spørsmål som må adresseres, er hvilken variasjon dataene foreligger i.

– Det kan være nyttig med data som kommer fra et stort antall ulike, men like fullt relevante, kilder. Algoritmer eller datamodeller som kan ta utgangspunkt i et bredt utvalg kilder kan i noen sammenhenger være mindre eksponert for systematiske feil i én av kildene. Et bredere utvalg kan rett og slett gi bedre og mer solide resultater, poengterer Jo Sigurd Pedersen.

Begge disse faktorene kan være greie å forstå, men hva betyr det at data må ha hastighet?

Passer de til formålet?

– Det handler om to ting: For det første er det et spørsmål om hvor lang tid det går fra dataene blir registrert eller skapt, til de er tilgjengelige for modellen eller algoritmen. Tenk på en lege som går visittrunden og noterer informasjon på papirjournaler, som deretter samles inn for punching, i forhold til en lege som noterer på en online terminal. For det andre handler det om hvor ofte dataene blir oppdatert – er det månedlige salgsrapporter eller aggregerte sanntidsdata direkte fra kassaapparatene?

– For å oppsummere, handler hastighet om hvor gamle dataene er når de dukker opp, og hvor ofte nye data kommer inn, sier han.

Det er også andre hensyn som spiller inn – kommer dataene i et format som gjør dem egnet for formålet, eller krever de mye manuell behandling? Er kildene pålitelige, og leverer de data av jevn kvalitet? Er dette data virksomheten er alene om å bruke, eller er de tilgjengelige for alle? Er dataene vi har tilgang til nok i seg selv, eller vil de bli bedre dersom vi styrker dem med informasjon fra eksterne kilder?

– Det står og faller på dataene, og derfor er det ikke så rart at arbeidet med å sikre tilgang til gode, pålitelige data ofte utgjør mer enn halvparten av jobben. Men så sant man har den rette kompetansen, er det heldigvis ganske enkelt å finne ut hvorvidt dataene man sitter på passer til formålet de er tiltenkt, avslutter Jo Sigurd Pedersen.

Fakta: KPMG Lighthouse

Lighthouse er KPMGs store globale satsing på datadrevne prosesser, teknologi og innovasjon.

I norske Lighthouse jobber fageksperter og teknologer på tvers av revisjon, rådgivning, regnskap og forretningsjus for å løse konkrete forretningsutfordringer for KPMGs kunder ved hjelp av moderne teknologi. Lighthouse-miljøet identifiserer og realiserer virksomheters potensial innen bruk av data og analyse, intelligent automasjon og kunstig intelligens, slik at virksomhetene kan bringe innovative løsninger til markedet og skape nye verdier.

Ta kontakt

 

Ønsker du tjenester fra KPMG?

 

Be om tilbud