This article has been translated. You can find the original in English here.
Daten werden oft mit Gold oder Öl verglichen, aber sie sind eher dem Wasser auf unserem Planeten ähnlich. Wasser ist zwar im Überfluss vorhanden, aber fast nie so, wie man es sich wünschen würde. Es ist meist sehr salzig oder trüb, oft stark verschmutzt und alles in allem nicht zum Trinken geeignet. In diesem Sinne hat der Besitz von Daten an sich nicht unbedingt einen Wert. Um echten Wert aus Daten zu generieren, sind eine ganze Menge Verarbeitungsschritte erforderlich. Dies gilt insbesondere für das Marketing, wo Datenquellen reichlich vorhanden und atomistisch sind.
"Die Möglichkeit, datengesteuerte Entscheidungen zu treffen, d.h. aus Daten handlungsrelevante Erkenntnisse zu gewinnen, ist ein wesentlicher Treiber für das Wachstum im digitalen Marketing."
Darian Heede
Senior Developer Data Technologies, MMT
Bei der Entwicklung neuer Kampagnenstrategien, für Reportingzwecke oder um zu verstehen, in welche Richtung sich ein Markt bewegt, nahezu jeder Bereich im digitalen Marketing wird zu einem bestimmten Zeitpunkt mit Daten in Berührung kommen. Die Möglichkeit, datengesteuerte Entscheidungen zu treffen, d.h. aus Daten handlungsrelevante Erkenntnisse zu gewinnen, ist ein wesentlicher Treiber für das Wachstum im digitalen Marketing. Daher ist die Fähigkeit, zum effizienten Datenmanagement von entscheidender Bedeutung.
Lassen Sie uns in einige Kernprinzipien eintauchen, wie Sie Ihre Daten für Ihre Werbekampagnen verwalten können:
Bevor mit Daten gearbeitet wird, müssen wir die Erwartungen bezüglich der Erkenntnisse, die wir generieren wollen, spezifizieren. Dies hilft, die benötigten Daten sowie die Transformationen, die mit den Daten durchgeführt werden müssen, zu definieren. Die Ziele können allgemeiner Natur sein, wie z.B. die Senkung der internen Kosten für Reporting-Aufgaben, oder eher präzise, wie z.B. herauszufinden, ob eine Zielgruppe eine bestimmte Vorliebe für Social Media-Formate hat.
Ein guter Ansatz ist es, einen bestimmten Entscheidungsprozess zu betrachten und zu analysieren, wann und warum Entscheidungen getroffen werden, ohne dass sie auf Daten basieren und ob Daten helfen könnten, diese Entscheidungen fundierter zu treffen. Alle Stakeholder, die für den Entscheidungsfindungsprozess relevant sind, müssen einbezogen werden. Dies schließt insbesondere alle Beteiligten ein, die die Daten verarbeiten und analysieren werden. Dies ermöglicht einen ganzheitlichen Ansatz bei der Festlegung der Ziele.
Da es sich bei der Werbung um ein dynamisches Umfeld handelt, ist es unerlässlich, die gesetzten Ziele regelmäßig zu überprüfen und bei Bedarf zu anzupassen.
Basierend auf den festgelegten Zielen ist der nächste Schritt die Definition der Datenanforderungen: die Haves, Wants und Needs. Es ist möglich, dass einige Datenanforderungen bereits erfüllt werden können und nur aufgrund von Silos in der Unternehmensstruktur nicht zugänglich sind. Dies ist die beste Gelegenheit, diese Silos aufzubrechen, Datenquellen mit allen Beteiligten zu teilen und alle einzubeziehen - zum Beispiel IT, Vertrieb, Marketing und Key Accounts.
Bei der Definition der Anforderungen an eine Datenquelle müssen die folgenden Fragen beantwortet werden:
Wie die letzte Frage andeutet, ist es sinnvoll, die definierten Ziele auf der Grundlage der Antworten auf diese Fragen zu wiederholen. Es ist immer möglich, dass externe Faktoren gut gemeinte Ziele durchkreuzen, wenn zum Beispiel eine notwendige Kennzahl in den Daten Dritter einfach nicht vorhanden ist.
Datenhaltung ist teuer. Sie kann ohne Zielsetzung im Unternehmen schnell zu einer finanziellen Belastung werden, wenn sie nicht mit einer allgemeinen Strategie verknüpft ist.
Die detaillierte Umsetzung eines Data Warehouses hängt von der gegebenen Infrastruktur und der eingesetzten Technologie ab. Dennoch gibt es einige allgemeine Richtlinien:
Bei komplexen Datentransformationen kann viel schief gehen, besonders wenn es um Aktualisierungen, Zusammenführungen oder Aggregationen geht. Oftmals bleiben Datenprobleme eine Zeit lang verborgen, bis ein Datenkonsument Unregelmäßigkeiten bemerkt, die er sich nicht erklären kann. Die Suche nach der Quelle solcher Probleme kann sehr mühsam und zeitaufwendig sein. Daher ist es ratsam, proaktiv zu handeln. Die Sicherstellung der Datenqualität ist vielschichtig und kein einmaliges Projekt, sondern ein kontinuierlicher Prozess, der regelmäßig verbessert werden muss.
Die wichtigste Maßnahme, die umgesetzt werden muss, ist das rigorose Testen. Dies klingt offensichtlich, kann aber schwer effizient umgesetzt werden.
Es kann hilfreich sein, das Testen von Datenquellen in zwei Teile zu unterteilen:
Allgemeine Tests:Tests, die auf jede Datenquelle angewendet werden können und auf die Eindeutigkeit eines Feldes, Testen, ob Felder nicht null sind, Testen der Struktur einer Tabelle testen... |
Datenquellenspezifische Tests:Testen, ob eine Zeitreihe Daten für das aktuelle Quartal enthält, Prüfen, ob IDs vorhanden sind, die als gemeinsame IDs für nachfolgende Joins verwendet werden. |
Das Testen kann durch den Einsatz der richtigen Tools für diese Aufgabe erheblich vereinfacht werden. Zum Beispiel sind die Schema- und Datentestfunktionen in DBT einen Blick wert. Auch die zeitlichen Aspekte des Testens können entscheidend sein: automatisches Testen auf regelmäßiger Basis sowie bei Änderungen an den Datenquellen oder Transformationen. Testen ist der wichtigste Faktor, um das Vertrauen in die Daten zu erhöhen.
Eine prägnante und standardisierte Namenskonvention kann die strapazierten Nerven eines Datenbankmanagers schonen. Sie spart Zeit bei der Suche nach Objekten und macht das Datenmodell klarer, übersichtlicher und verständlicher.
Außerdem ist es hilfreich, einen standardisierten Workflow für alle ETL-Prozesse zu haben und diesen regelmäßig zu überprüfen. Dies hilft bei der Suche nach der Quelle eines Problems. Wenn der Workflow deterministisch ist, ist die Identifizierung von Fehlern viel einfacher.
Das Dokumentieren wird oft als lästig empfunden. Nämlich dann, wenn es darum geht, ein langes und detailliertes Dokument zu schreiben, das wahrscheinlich niemand jemals lesen wird. Das muss aber nicht der Fall sein. Dokumentation kann ein nützlicher Nebeneffekt eines gut implementierten Workflows sein. Der Schlüssel dazu ist die Versionskontrolle.
Die Verwendung moderner Versionskontrollsoftware wird, wenn sie richtig eingesetzt wird, die Dokumentation als Teil des Datenverwaltungsprozesses implementieren. Wenn beispielsweise Änderungen an einer Datenbank vorgenommen werden, führt dies zu einem merge request, die von jemand anderem als der Person, die den merge request erstellt hat, überprüft und genehmigt werden muss. Damit der Prüfer versteht, was der merge request beinhaltet, wird der Ersteller eine kurze Erklärung zu den implementierten Änderungen schreiben. Dies hat zwei Hauptvorteile:
An dieser Stelle kommen die umsetzbaren Erkenntnisse ins Spiel und alle vorherigen Abschnitte kommen zum Tragen. Ein sauberes und übersichtliches Datenmodell ermöglicht eine einfachere Darstellung des Geschehens und zuverlässigere Analyseergebnisse. Es ist nicht die Aufgabe von Datenanalysten und Visualisierungsexperten, zu qualifizieren und auszuwählen, sonst wäre ihre Kreativität schnell aufgebraucht oder sie müssten sich um die Datenqualität sorgen.
Beim Datenmanagement geht es um Effektivität und die Optimierung von Prozessen bis zu einem Punkt, an dem man das meiste für sein Geld bekommt. Einen deterministischen und übersichtlichen Workflow zu haben, neue Technologien zu nutzen, nicht stehen zu bleiben und die neuesten Tools und Ideen zu integrieren, wird die Effizienz steigern und es Unternehmen ermöglichen, sich auf ihre wichtigsten Geschäftsziele zu konzentrieren und ihre Datenkapazitäten voll auszuschöpfen.
Wie beim Wasser besteht auch das Verwalten von Daten aus einer Reihe von Elementen, die ihre effiziente Nutzung ermöglichen: