Aus dem Blickwinkel des Datennutzers analysieren

Management

IT - Geringe Datenqualität kann bei komplexen Abrechnungsprozessen oder der Entwicklung neuer Angebote zum Problem werden. Eine Analyse sollte die verschiedenen Prozesse unter die Lupe nehmen.

12. November 2012

EVU kommen durch die vielen zur Verfügung stehenden Daten zunehmend in die Situation, ein genaueres Bild über die Kunden zu erhalten. »Bisher war es für die Abrechnung des Verbrauchs ausreichend, eine valide Bankverbindung zu hinterlegen«, so Christian Holtz, Director Professional Services von Uniserv. »Mittlerweile wird es für Versorger im Zuge des entstandenen Wettbewerbs aber immer wichtiger, den einzelnen Kunden im Detail zu kennen«.

Dabei helfen eindeutige Stammdaten, die für Kommunikation, für Auswertungen und Entwicklung neuer Tarife genutzt werden können. Neue Angebote wie Energie- und Mobilitätskonzepte seien nur mit genauer Kenntnis der Kundenbasis entwickelbar und umzusetzen.

Stammdaten anpassen

»Auch automatisierte Prozesse und Prozesse mit hohen Volumina verlangen bei Energieversorgern eine hohe Datenqualität. Genannt seien hier Abrechnungs- oder Anbieterwechselprozesse, die durch die Vielzahl an Prozessbeteiligten eine hohe Komplexität haben und daher eine hohe Datenqualität erfordern«, so Holtz weiter.

Denn der Ärger ist groß, wenn durch hohe Rückläuferquoten Mailing-Aktionen versanden. Wenn Kunden Rechnungen nicht erhalten. Oder wenn Forecast-Analysen des Vertriebs ins Leere gehen, weil potenzielle Interessenten doppelt verbucht wurden.

Damit es nicht bei einer immer wiederkehrenden Symptom-Behandlung und Kosten bleibt, muss der Blick auf die Daten zudem tiefer gehen. Anbieter und Kunden von Datenqualitätslösungen sollten sich über die jeweiligen Anforderungen, die an die Unternehmensstammdaten gestellt werden, im Klaren sein.

»Konkret bedeutet das, zu wissen, in welchen Prozessen welche Anforderungen an die Stammdaten gestellt werden. Vertriebs- und Marketingprozesse stellen andere Anforderungen an die Aktualität und Vollständigkeit der Stammdaten als beispielsweise Prozesse im Bereich der Abrechnung und des Service«, erläutert Holtz.

»Im einen Fall ist die Kommunikation mit dem Kunden entscheidend, im anderen Fall möglicherweise der technische Standort. Gleichzeitig werden womöglich unterschiedliche Inhalte und Felder für die Prozesse benötigt – alles Faktoren, die bestimmen, wie die Stammdaten für die jeweiligen Prozesse aussehen müssen.«

Die Anforderungen wechseln also mit dem Datennutzer. Die Rolle des Datennutzers definiert, welche Daten in welcher Form benötigt werden. Marketing-Abteilungen beispielsweise legen Wert auf korrekte Anschriften für Mailing-Aktionen, während Support-Mitarbeiter vor allem auf die Aktualität und Vollständigkeit der Daten in den CRM-Systemen angewiesen sind. Ob die Qualität der Daten gut oder schlecht ist, lässt sich nur mit Hilfe der Datennutzer und nur für ihren speziellen Anwendungsfall feststellen.

Analyse in drei Stufen

Für die Implementierung von Datenqualitätslösungen heißt das, dass der erste Schritt eine Untersuchung und Darstellung des Status quo der vorhandenen Daten und der an sie gestellten Anforderungen sein sollte, so die Experten von Uniserv.

Ein Datenqualitäts-Check ermöglicht einen ersten Überblick über die Stammdaten in einem Unternehmen. Dabei wird ein repräsentativer Ausschnitt der Daten primär unter Datenqualitäts-Dimensionen wie Vollständigkeit, Fehlerfreiheit und Eindeutigkeit untersucht. Der fest-gestellte Verschmutzungsgrad zeigt die Notwendigkeit einer Datenbereinigung – und legt das weitere Vorgehen fest.

Der nächste Schritt sollte eine fundierte Analyse der Gesamtheit der Stammdaten sein – von Datensätzen bis zu Datenfeldern wie Telefonnummern, Kundenumsatz oder weiterer anhängender Daten. Auch die Business-Regeln gilt es zu prüfen – sind sie noch aktuell und relevant, werden sie korrekt umgesetzt? Business-Regeln beschreiben die Ausprägung und Nut-zung von Feldinhalten wie etwa Adressfelder.

Für eine zielführende Analyse, gerade bei einer sehr heterogenen IT-Landschaft, kann es sinnvoll sein, noch eine Stufe tiefer in die Datensätze und Systeme einzudringen. Ziel einer solchen Analyse ist es, die Entstehungsbedingungen und -prozesse von Daten aufzuzeigen, um eventuelle Schwachstellen, die zu einer Verschlechterung der Datenqualität führen, zu erkennen.

Hier rücken die einzelnen Datennutzer und deren Bedürfnisse in den Mittelpunkt. Daher werden Fragestellungen wie Verständlichkeit, Übersichtlichkeit und Zugänglichkeit untersucht, aber auch die Einschätzung der Fachabteilungen und einzelner Datennutzer über die Glaubwürdigkeit und Belastbarkeit ihrer Daten dokumentiert. Dieser Ist-Zustand kann gegen die vorher ausgearbeiteten idealen Anforderungen an die Datenqualität abgeglichen werden.

Außerdem sollte man den Nutzer bei der Arbeit über die Schulter schauen. Im konkreten Anwendungsfall lässt sich etwa feststellen, ob die Daten inhaltlich und formal so präsentiert werden, dass die täglichen Aufgaben effektiv durchgeführt werden können. »Im Marketing kann es für einige Prozesse wichtig sein, eine eindeutige Unterscheidung zwischen Unternehmen und Privatpersonen durchzuführen«, so Holtz.

Diese Unterscheidung könne Einfluss auf Fragen haben wie: Welche Daten dürfen bei diesem Datensatz automatisiert ergänzt und geändert werden? Welche Felder werden zwingend für eine Kampagnenselektion benötigt? »Durch geschickte Definition von Business-Regeln und effektiven Tooleinsatz kann man die Basis für die Antwort auf diese Fragen weitgehend automatisieren und so massive Optimierungspotenziale heben.«

Kosten verringern

Auf Basis solcher Analysen lasse sich eine langfristige Strategie entwickeln, die die Qualität dauerhaft und unternehmensweit sichern könne. »Der Nutzen einer hohen Datenqualität ist indirekt über die Prozesskosten und -risiken, die entstehen, wenn Prozesse Daten von geringer Qualität verwenden, bewertbar«, führt Holtz weiter aus.

»Falsche, unvollständige und dubiose Daten schaffen monetär messbare Prozesszusatzkosten – beispielsweise im Callcenter.« Und das koste Geld und Nerven. »Werden etwa zehn Prozent der Dubletten aufgespürt und eliminiert, führt dies schon zu spürbaren Einspareffekten im Datenmanagement und bei Werbekampagnen.«

Erschienen in Ausgabe: 09/2012