Wollen Unternehmen Daten nutzen, um weitsichtige Geschäftsentscheidungen zu treffen, kommen sie oft zum gleichen Schluss: Eigentlich haben sie eine riesige Menge an Daten, aber sie liegen in völlig unterschiedlicher Form vor.
Da gibt es strukturierte Daten wie Transaktions- oder Stammdaten und IoT-Daten aus Maschinensensoren und Consumer-Geräten. Hinzu kommen sekündlich neue Daten in unstrukturierter Form - etwa aus E-Mails, Word-Dokumenten oder Social-Media-Kanälen.
Aus dieser Vielfalt konkretes Wissen zu generieren, ist so, als säße man vor einem riesigen Haufen von Legosteinen und müsste aus den Bausteinen, die unterschiedliche Größen, Formen und Farben haben, das Brandenburger Tor samt Quadriga erschaffen.
Das ist noch nicht alles. Die Legosteine befinden sich auch noch in vielen verschiedenen Kisten. Die Daten liegen auf Datei-Servern, in relationalen sowie NoSQL-Datenbanken, auf Cloud-Speichern, auf Hadoop-Systemen und an vielen weiteren Orten. In fast allen Unternehmen existiert ein Sammelsurium an Datensilos.
Foto: Microsoft
In dieser Situation analysieren viele Unternehmen ihre Daten und begründen eine Datenstrategie. Darin beschreiben sie, welche Geschäftsziele sie erreichen wollen, welche Erkenntnisse dazu nötig sind und welche Fachabteilungen mit an Bord müssen.
Aber welche Ziele auch erreicht werden sollen, es zeigt sich fast immer: Diese sind nur zu erreichen mit einer Plattform, die alle Daten, Systeme, Prozesse und beteiligten Personen zusammenführt. Gleichzeitig müssen gerade in Europa die datenschutzrechtlichen Vorgaben berücksichtigt werden. Im November 2020 hat der bitkom noch festgestellt, dass bei mehr als jedem zweiten Unternehmen Datenprojekte scheitern, weil die datenschutzrechtlichen Anforderungen (DSGVO) zu komplex sind. Mit anderen Worten: Der Bauplan für das Brandenburger Tor steht, aber es fehlt die Fähigkeit, mit diesem richtig umzugehen.
Um all die verschiedenen Anforderungen, Technologien und Player zu orchestrieren, hat Microsoft eine Plattform-Strategie entwickelt, mit der Unternehmen iterativ eine Data Governance aufbauen und parallel schon erste Erkenntnisse aus ihren Daten nutzen können. Diese Strategie bildet das Fundament für einen modernen Data Estate.
Data-Services erfordern Zugang zu allen Quellen
Noch im Jahr 2019 sind laut Harvard Business Review 55 Prozent der Datenprojekte an Datensilos und unzureichendem Datenmanagement gescheitert. Das klassische Modell des Data Warehousing - sich vorher zu überlegen, wer wann später was analysieren möchte - wird den Anforderungen der Fachabteilungen heute kaum noch gerecht.
Dabei ist es entscheidend, dass man Datensilos aufbrechen und Datenquellen bei Bedarf flexibel hinzuziehen kann. Gleichzeitig muss es viel mehr Menschen in der Organisation möglich sein, Erkenntnisse aus Daten zu nutzen. Das gilt vor allem für Experten, die aus den verfügbaren Informationen eine neue Erkenntnis und damit einen Wettbewerbsvorteil ableiten können.
Als Basis für Auswertungen bietet Microsoft eine Reihe von Werkzeugen wie etwa Azure Purview, welche den Zugriff auf verschiedene Datenquellen - auch und insbesondere von Drittanbietern - im Unternehmen sicherstellen. Alle Anwendungen zur Auswertung von Daten wie Power BI oder Machine-Learning-Dienste lassen den Zugriff auf diese unterschiedlichen Datenquellen ebenfalls zu. "Diese Data Services formen eine Plattform - mit einer wichtigen Eigenschaft: Die Daten bleiben in ihren Silos und müssen nicht auf Vorrat kopiert werden. Dennoch stehen sie für Analyse-Aufgaben zur Verfügung", erläutert Patrick Schidler, Head of Azure Cloud Marketing bei Microsoft Deutschland.
Von großem Vorteil ist, dass alle involvierten Systeme eine einheitliche Sprache sprechen. Dafür sorgt unter anderem Microsofts Common Data Model. So arbeitet Microsoft - etwa im Rahmen der Open Data Initiative - mit Software-Anbietern wie SAP oder Adobe zusammen, um Datenmodelle zu vereinheitlichen. Das stellt sicher, dass in der Auswertung zum Beispiel unter dem Wert "Lieferant" das Gleiche verstanden wird - auch wenn die Daten aus Systemen verschiedener Hersteller stammen.
Daten in die Cloud integrieren
Remote Work erfordert Datenzugriff. Erfahren Sie, wie die Infrastrukturdienste von Azure helfen, Workloads rund um Daten in die Cloud zu migrieren.
Plattform als Grundlage für ein Ökosystem
Die Plattform ist angebunden an ein ganzes Ökosystem. Nutzer profitieren somit vom Industrie- sowie vom Workload-spezifischen Know-how von Partnern wie SAP, Qlik oder Informatica. Die Plattform ist hybrid, läuft sowohl "On Premise" im eigenen Rechenzentrum, auf "Edge-Geräten" - etwa Drohnen - und natürlich in der Public Cloud. Unterstützt werden außerdem Multi-Cloud-Szenarien - also auch Instanzen auf AWS oder der Google Cloud Platform. "Wir kennen diesbezüglich keine Grenzen", so Schidler.
Zusammengehalten wird alles von einheitlichen Security-Technologien, durchgängiger Compliance und Datenschutz auf Basis von Microsoft Azure. "Der Anwender erhält eine One-Trusted-Plattform, auf der alle Daten verarbeitet werden", sagt Schidler.
Er weiß aber auch, dass nicht nur die Technik entscheidend ist. "Menschen machen den Unterschied - erst ihre Expertise macht aus Daten einen Wettbewerbsvorteil. Insbesondere vor dem Hintergrund des Fachkräftemangels ist es wichtig, dass wir es möglichst vielen Menschen in der Organisation auf sichere Art und Weise ermöglichen, mehr mit Daten zu erreichen."
Teil der Plattformstrategie ist es daher, die Mitarbeiter in den Unternehmen mit den nötigen Werkzeugen und Fähigkeiten auszustatten. Professionelle Data Scientists sollen bestehende und neue Tools genauso nutzen können wie Fachexperten ohne Data-Science-Erfahrung - die sogenannten "Citizen Data Scientists". So bietet Microsoft kostenlose Schulungen, Zertifizierungen und Trainingsmaterial, um Data-Grundlagen zu erwerben.
Zudem hat der IT-Anbieter die Erfahrungen aus der Vielzahl von Datenprojekten in ein Vorgehensmodell gepackt - dem Cloud Adoption Framework. "Dieses beschreibt unter anderem, wie ein Unternehmen vorgehen sollte, welche Rollen benötigt werden und wie sich eine erfolgreiche Data Governance etablieren lässt", erklärt Schidler.
Klein starten - schnell Erfolge erzielen
Auf dieser einheitlichen Basis sollten Unternehmen zunächst mit kleinen Vorhaben in ihre Data-Strategie starten. "Viele Projekte scheitern, weil sie zu groß angelegt sind", berichtet Schidler. Der Trick sei, möglichst schnell zu Erfolgen zu kommen.
Ein geeignetes Tool dafür ist zum Beispiel Azure Synapse Analytics, das auch über die Microsoft-Plattform verfügbar ist. Der Analysedienst führt Datenintegration, Enterprise Data Warehousing und Big-Data-Analysen in einem Service zusammen. "Damit lässt sich schon innerhalb von sechs bis acht Wochen ein Minimum Viable Product für ein spezifisches Anwendungsszenario umsetzen, das einen echten Mehrwert liefert", so Schidler.
Die wichtigsten Funktionen zeigt folgendes Video "Azure Synapse Analytics - Next-gen Azure SQL Data Warehouse":
Die Vorteile von Synapse nutzt zum Beispiel der Lieferdienst FedEx. Er kombiniert unter anderem seine Logistikdaten mit Verkehrs- und Wetterinformationen. Dank der Analyse mithilfe von Synapse lässt sich nun erkennen, ob es bei einer Lieferung zu Verzögerungen kommen könnte und eine andere Route gewählt werden sollte.
Mit solch einem modernen Data Estate sind Unternehmen in der Lage, schneller auf Ereignisse zu reagieren und sich damit einen Wettbewerbsvorteil verschaffen. Das zeigt ein weiteres Beispiel. Der IT-Dienstleister Correct Power Institute aus Bochum überwacht mithilfe von Sensoren die Vitaldaten in den Serverräumen seiner Kunden.
Das Unternehmen nutzt dafür in der Azure Cloud mehrere Microsoft-Tools wie etwa Stream Analytics und Machine-Learning-Technologie. Ziel war es, nicht nur auf Basis von historischen Daten zu handeln, sondern Ausfallwahrscheinlichkeiten zu berechnen. "Mit Microsoft Azure konnten wir auf einmal Vorhersagen für Serverausfälle treffen und damit Predictive Maintenance als Service anbieten", sagt Geschäftsführer Bernd Steinkühler in dieser Kundenreferenz.
So lässt sich mit einer einheitlichen Plattform quasi nicht nur das Brandenburger Tor, sondern Haus für Haus auch die ganze Stadt drumherum bauen.
Erfahren Sie hier, wie DevSecOps Ihnen hilft, die Entwicklung mit Open-Source-Komponenten zu sichern. |