close
Share with your friends

Im Rahmen von Digitalisierung, Künstlicher Intelligenz oder Predictive Analytics gewinnen Daten zunehmend an Bedeutung. Hauptsächlich geht es darum, die immer größeren Datenmengen für Unternehmen nutzbar zu machen. Diese sollten sich deshalb die Frage stellen: Wird unsere Datenqualität und -verfügbarkeit den Anforderungen seitens Kunden und Regulatorik gerecht?

Erfahrungen aus den verschiedensten Branchen haben gezeigt, dass die gewünschte Datenqualität und -verfügbarkeit in vielen Fällen nur bedingt vorhanden ist. Dateninkonsistenzen wie etwa Mehrfacheinträge oder fehlende bzw falsche Verknüpfungen – zum Beispiel zwischen Kunden- und Produktdaten – können dazu führen, dass falsche Zielgruppen gebildet werden oder wichtige Zielgruppen gar nicht erst erfasst und angesprochen werden. Dies betrifft regulatorische Anforderungen im Finance- und Risk-Bereich ebenso wie Predictive Analytics in Marketing und Sales. Data Scientists können Daten nur so gut analysieren, interpretieren und strategische Voraussagen treffen, wie sie valide und vollständig vorhanden sind.

Auf dem Weg

In der Finanzbranche zwingt ein dichtes Netz an regulatorischen Anforderungen wie etwa IFRS 17 bei Versicherungsunternehmen oder auch IFRS 9 im Bankbereich zu einer kontinuierlichen Beschäftigung mit Daten und deren Verfügbarkeit sowie Konsistenz. Nun reicht es aber nicht mehr, sich mit jeder regulatorischen Anforderung getrennt zu beschäftigen, ein Reporting dafür aufzubauen und dieses erfolgreich in die Datenlandschaft zu integrieren. Die Anforderungen der Aufsichtsbehörden erfordern eine intern abgestimmte Sicht auf Datendefinitionen sowie einen Datenabgleich zwischen Risk und Finance – am besten gleich aus den Quellsystemen kommend, um die Anzahl nachträglich schwer nachvollziehbarer Anpassungen zu verringern.

Diese abgestimmte Sicht spiegelt sich auch im Projekt „EUCLID“ der European Banking Authority (EBA) wider, die einen Anstieg der Datentransparenz europäischer Banken verfolgen. Abgezielt wird hier „auf eine EU-weite Datenzentrale im Dienste der zuständigen Behörden und der Öffentlichkeit, die die Datensammlung, Datenvalidierung, Datenintegration und Berichtsüberwachung unterstützt“ (Quelle: Arbeitsprogramm der EBA 2020, S 4).

Fokus auf Data Governance

Effizientes Datenmanagement und einheitliche Datendefinitionen – die Kerngebiete von Data Governance – werden demnach durch regulatorische Anforderungen von außen, aber auch von innen durch Marketingstrategien (Personas etc) und Sales-Initiativen getriggert. Data Governance wurde zudem kürzlich zu einem der wichtigsten Business Intelligence-Trends des Jahres 2020 gewählt. Diesen Trend verfolgt auch die WU Wien mit ihrem neu geschaffenen MBA-Programm.

Große Unternehmen beschäftigen sich schon seit längerem mit dem Aufbau von Data Offices mit Data Stewards für den einheitlichen Datenabgleich und Data Analytics für Dokumentation sowie Reportings. Hierbei stellt sich für Unternehmen immer die Kosten-Nutzen-Frage einer Data Governance-Einführung. Dieser Frage kann im Rahmen eines Impact Assessments – unterstützt durch Stakeholder-Interviews mit Business und IT – strukturiert und dokumentiert nachgegangen werden. Als Ergebnis erhalten Unternehmen auf Basis eines Data Governance-Reifegradmodells eine erste Einschätzung, wo sie in Bezug auf Prozesse, Qualität und Dokumentation der Daten sowie Reports stehen. Ausgehend vom Ist- wird ein Zielbild entwickelt und üblicherweise im Rahmen eines Master Data Management inklusive Toolevaluierung umgesetzt.

KPMG erarbeitet im Data Governance-Prozess gemeinsam mit Unternehmen ein Reifegrad- und ein Domänenmodell sowie in Abhängigkeit von der Unternehmensgröße ein Data Office und baut mit Toolexperten wie etwa Collibra oder Talend ein Master Data Management auf.

Autoren

Andrea Pramböck

Renjith Maniyanipurathu

Weitere Artikel der Ausgabe "IT ist alles"

Verwandte Themen