banner

Blog

Oct 21, 2023

Analyse: SAP beginnt mit dem Aufbau einer eigenen Datenstruktur

AKTUALISIERT 11:00 EDT / 8. MÄRZ 2023

ANALYSE von Tony Baer

Fast jedes Unternehmen, ob groß oder klein, das Technologie einsetzt, hat typischerweise einen strategischen Lieferanten, der praktisch der Erste unter Gleichen ist. Es wird zur Plattform, die die Auswahl für Anwendungen, Tools oder Datenbanken von Drittanbietern beeinflusst. In kleinen Unternehmen ist dieser strategische Plattformlieferant wahrscheinlich Microsoft Corp. oder Apple Inc., wobei auf der mobilen Seite die Wahl zwischen Android von Google LLC oder iOS von Apple besteht. In mittelgroßen bis großen Unternehmen sind die Plattformen eher multipolar, was die Tatsache widerspiegelt, dass wahrscheinlich nur wenige von ihnen, wenn überhaupt, auf einen einzigen Kernlieferanten standardisieren.

Als herausragender Anbieter von Unternehmensanwendungen wird SAP SE häufig in die Rolle eines strategischen Lieferanten gedrängt. Dafür gibt es viele interessante Fakten. Eine der häufigsten ist, dass 77 % der weltweiten Transaktionseinnahmen ein SAP-System betreffen. Der Einsatz von SAP beeinflusst maßgeblich die Entscheidungen, die sie für Datenbanken, Analysen und unterstützende Anwendungen treffen.

Aber in denselben Organisationen gibt es wahrscheinlich auch Gruppen, die außerhalb der SAP-Umgebung arbeiten. Möglicherweise nutzen Teile des Unternehmens die E-Business Suite oder Microsoft Dynamics von Oracle Corp., oder es sind Gruppen von Geschäftsanalysten, die mit Analysen arbeiten, oder es sind Datenwissenschaftler, die Modelle aus Data Lakes erstellen. In den meisten Fällen hängen die Ansichten der Daten davon ab, ob Sie innerhalb oder außerhalb des Walled Garden der Unternehmensanwendung arbeiten.

Behalte diesen Gedanken.

Was das Datenmanagement angeht, bestehen die dringendsten Probleme, die wir sehen, darin, dass Unternehmen ihre riesigen und wachsenden Datenmengen besser in den Griff bekommen. Daten werden nicht nur vielfältiger, sondern auch zunehmend verteilter. Der perfekte Sturm aus Cloud Computing, Konnektivität und der Reichweite von 5G hat die Reichweite von Daten erweitert. Und mit der allgegenwärtigen Konnektivität gehen Bedenken hinsichtlich des Datenschutzes und der Datensouveränität einher, die im wahrsten Sinne des Wortes die Grenzen dafür festlegen, welche Daten von wem, in welcher Form und wo konsumiert werden können. Für SAP-Kunden ist die Welt der Daten außerhalb ihrer SAP-Anwendungen explodiert.

Ein Nebenprodukt davon war das Interesse an Datennetzen, bei denen Eigentums- und Lebenszyklusmanagement klar auf die Geschäftseinheiten, Fachexperten oder Domänen abgegrenzt sind, die über das meiste Wissen über die Daten und den größten Anteil daran verfügen. Am anderen Ende des Spektrums steht der Aufbau einer logischen Infrastruktur, um sicherzustellen, dass die richtigen Daten erkannt und bereitgestellt werden. Daraus ergibt sich ein steigendes Interesse an Datenstrukturen. Aus unserer Sicht sollten sich beide ergänzen und nicht gegenseitig aufheben.

Die Herausforderung besteht darin, zu definieren, was eine Datenstruktur ist. Wie wir in einigen Berichten von Analystenfirmen gesehen haben, bezeichneten wir als Data Fabric ein Datenintegrationsportfolio, das Katalog-, Datentransformations- und Orchestrierungstools, Datenqualität, Datenherkunft usw. umfasst. Diese funktionale Definition ist für uns etwas zu vage.

Für uns muss eine Datenstruktur mit einer gemeinsamen Metadaten-Backplane beginnen. Zumindest werden Datenquellen gecrawlt und Metadaten erfasst. Fortgeschrittenere Datenstrukturen nutzen maschinelles Lernen, um Metadaten auf der Grundlage von Rückschlüssen anzureichern, die aus Aktivitätsmustern von Quell- und Zielsystemen erkannt werden, z. B. auf welche Datensätze oder Entitäten häufig gemeinsam zugegriffen wird. Die Struktur sollte die Komplexität des Erkennens, Zugreifens, Transformierens, Verwaltens und Sicherns von Daten unter der Haube begraben.

Die Datenstruktur führt diese Aufgaben nicht unbedingt aus, stellt aber den logischen Überbau zur Orchestrierung der Toolchain bereit, die die Daten offenlegt, den Zugriff reguliert, Daten bereinigt, transformiert, sie zur Laufzeit maskiert und bestimmt, wie auf Daten zugegriffen wird: Werden Daten bereitgestellt? an die Abfrage-Engine (über Replikation) oder umgekehrt (durch Virtualisierung)? Eine Datenstruktur ist nicht erforderlich, wenn Sie Daten nur aus einem einzelnen Transaktionssystem beziehen, sondern aus einer Vielzahl von Quellen.

SAP ist kein Neuling im Bereich der Datenintegration, da das Unternehmen eine Reihe von Tools und Cloud-Diensten für die Datenvirtualisierung und -replikation anbietet. Für einen Großteil der installierten Basis könnte die Idee, den von SAP umschlossenen Datengarten zu verlassen, jedoch neu sein. Heute gibt SAP den Schlussstrich unter das, was wir als Reise zum Aufbau einer Datenstruktur betrachten: den neuen Cloud-Service SAP Datasphere.

Datasphere kombiniert und baut auf zwei bestehenden SAP-Angeboten auf, darunter Data Warehouse Cloud, das für Analysen verwendet wurde, und Data Intelligence Cloud, ein Datenintegrations-Hub. Es nutzt die geschäftssemantische Ebene, die SAP Data Warehouse Cloud ursprünglich von anderen Cloud-Data-Warehousing-Diensten unterschied. Auf dem bestehenden kombinierten Technologie-Stack fügt Datasphere einen Datenkatalog für die Datenerkennung sowie neue Datenqualitäts-, Datenpipeline-Orchestrierungs- und Datenmodellierungsfunktionen hinzu. Das Ergebnis ist eine einheitliche Erfahrung für Datenintegration, Datenkatalogisierung, semantische Modellierung, Data Warehousing, Datenföderation und Datenvirtualisierung.

Das Ziel von SAP besteht nicht einfach darin, eine Datentransformationsfabrik mit einem Data Warehouse zu koppeln, sondern stattdessen einen Service bereitzustellen, der den Kontext der Quelldaten bewahrt. Wie Sie sich vorstellen können, hängt die Aufrechterhaltung des Kontexts von Metadaten ab. Die Herausforderung besteht darin, dass bei der Verwendung bestehender Tools zum Replizieren, Verschieben und Transformieren von Daten die Metadaten normalerweise nicht mithalten.

Zugegebenermaßen ist das Schema zwar möglicherweise implizit in verschobenen Daten enthalten, Metadaten oder Semantik auf Unternehmensebene sind jedoch wahrscheinlich nicht offensichtlich. Hinzu kommt, dass die Anwendungen von SAP ein reichhaltiger Schatzspeicher für Geschäftsdaten und die damit verbundene Prozesssemantik sind. Daher ist es logisch, dass SAP die geschäftssemantische Ebene seiner DW-Cloud erweitert hat, um eine Datenstruktur bereitzustellen, die die Metadaten in geschäftlicher Hinsicht darstellt.

Ein weiteres wichtiges Designziel ist eine Engine, die eine geführte Erfahrung oder Leitplanken für den besten Weg zum Zugriff auf Daten bieten soll, beispielsweise ob es am besten ist, Daten zu verschieben oder zu virtualisieren. Hier kommt die in die Struktur integrierte Intelligenz ins Spiel, wo die Prioritäten für Kosten und Servicelevel ins Spiel kommen, zusammen mit den Berechtigungen, ob die Daten verschoben werden können. Herkömmliche Datenintegrationstools erfordern, dass die Entscheidung im Kopf des Unternehmens liegt Benutzer oder Dateningenieur.

Zwar kann SAP innerhalb seines eigenen Portfolios die Kontrolle über den Metadatenfluss ausüben. Beispielsweise haben moderne Suiten wie S/4HANA die Metadaten bereits vereinheitlicht. Im gesamten SAP-Unternehmensanwendungsportfolio ist die Vereinheitlichung der Metadaten angesichts der langen Reihe von Übernahmen des Unternehmens, von Ariba bis Qualtrics und anderen, in Arbeit. Interessant ist der Blick auf die NextGen-Apps, die einige dieser Silos überbrücken, wie etwa Buying 360, das überlappende Arbeitsabläufe einiger dieser Legacy-Apps vereinheitlicht. Wenn beispielsweise ein neuer Mitarbeiter in SuccessFactors eingestellt wird, könnte ein Workflow für Büroausstattung über Ariba oder Geschäftsreisen über Concur aktiviert werden.

Beim Umgang mit externen Systemen wird es schwieriger, den Kontext beizubehalten. Hier ist man auf die Freundlichkeit fremder Menschen angewiesen und hier beginnt für SAP ein neuer Schub für Partnerschaften. SAP startet Partnerschaften mit vier bekannten Namen aus den Bereichen Analytik, Data Governance und Data Science: Databricks Inc., das SAP-Daten in sein Delta Lake Lakehouse integrieren wird; Collibra NV für Datenverwaltung; DataRobot Inc. für die Verwaltung des Lebenszyklus von Datenwissenschafts- und KI-Projekten; und Confluent Inc. für die Integration mit Streaming-Daten.

Der Hauptvorteil liegt in der Beibehaltung des Metadatenkontexts bei der Arbeit in Partnerumgebungen. Beispielsweise wird Collibra, das sich als Katalog von Datenkatalogen positioniert, Governance- und Herkunftsmetadaten in Datasphere sichtbar machen und sicherstellen, dass Fragen wie die Sorgerechtskette für Daten sorgfältig verfolgt und durchgesetzt werden. Oder mit DataRobot: Ein Datenwissenschaftler, der ein Modell erstellt und es dann in SAP ausführen lässt, sollte über eine bidirektionale Verbindung verfügen, die die Modellleistung und Datenmerkmale zurück an das Data Science-Tool weiterleitet.

Zum jetzigen Zeitpunkt wissen wir noch nicht genau, was SAP am ersten Tag mit Datasphere bereitstellt, aber Sie können sicher sein, dass Datenstrukturen nicht über Nacht aufgebaut werden. Dies wird eine Reise sein, die eine erhebliche Entwicklung einer intelligenten Orchestrierungs-Engine erfordert, die beispielsweise basierend auf Parametern wie Kosten, Leistung und Antwortzeit sowie Datensouveränität empfiehlt, wie und wo die Abfrage ausgeführt werden soll und ob sie ausgeführt wird Zeit müssen die Daten dynamisch maskiert werden.

Der Erfolg von SAP Datasphere wird, wie bei jeder anderen Datenstruktur, von der Tiefe und Breite der Unterstützung des Partnerökosystems abhängen. Und im Kampf um Mindshare wird es darum gehen, Nicht-SAP-Benutzer davon zu überzeugen, dass die Arbeit in Datasphere ihre Fähigkeit, Daten zu erkunden und zu modellieren, wo auch immer sie sich befinden, nicht einschränkt.

Aber kehren wir zur Frage der Komplexität zurück. Als Datasphere vor einer Gruppe von Analysten vorgestellt wurde, fragte einer unserer Kollegen von der Anwendungsseite, ob diese neue Datenschicht das Leben für ERP-Benutzer erschweren würde. Wir dachten scherzhaft an die Metapher, dass Anwendungsleute von der Venus und Datenleute vom Mars kommen.

Für Anwendungsbenutzer ist dies ein echtes Problem. Für den Head-Down-Enterprise-Resource-Planning- oder Business-Warehouse-Benutzer ist der Datenkatalog eine zusätzliche Ebene. Idealerweise möchten Sie, dass Analysen in Ihre Umgebung eingebettet sind, sodass Sie nicht den Bildschirm auf einen Datenkatalog umstellen müssen. SAP BW wurde genau für diese Anliegen entwickelt, da es als Data Warehouse für Benutzer von SAP-Unternehmensanwendungen konzipiert war. Die ursprüngliche SAP Data Warehouse Cloud war als Analyseschicht von S/4HANA konzipiert und ermöglichte S/4-Benutzern mit ihrer Business-Semantik-Schicht das Arbeiten in ihrer Muttersprache.

Aber hier geht es um die Verbindung von SAP mit dem Rest der Datenwelt. Während der Großteil der weltweiten Transaktionseinnahmen ein SAP-System berührt, bedeutet das nicht, dass ein Großteil der weltweiten Daten damit in Berührung kommt. Die Herausforderung für SAP mit seiner neuen Datenstruktur ist dreifach. Der erste Schritt besteht darin, die logische Infrastruktur aufzubauen, die die Verbindung von Benutzern mit Daten vereinfacht. Beim zweiten geht es darum, ein Partner-Ökosystem zu rekrutieren, um nicht nur Sichtbarkeit der Daten zu erhalten, sondern auch einen wechselseitigen Austausch von Metadaten, um die Daten in Verbindung zu halten. Und drittens wird es darum gehen, dafür zu sorgen, dass Daten für SAPs umfangreichen Anwendungs-Endbenutzer-Fall nicht wie ein fremdes Terrain aussehen.

Tony Baer ist Principal bei dbInsight LLC, das einen unabhängigen Blick auf das Datenbank- und Analysetechnologie-Ökosystem bietet. Baer ist ein Branchenexperte für die Erweiterung von Datenmanagementpraktiken, Governance und erweiterten Analysen, um dem Wunsch von Unternehmen gerecht zu werden, aus der datengesteuerten Transformation einen sinnvollen Mehrwert zu generieren. Er hat diesen Artikel für SiliconANGLE geschrieben.

DANKE

Showdown zwischen Cloud und On-Premises: Das zukünftige Schlachtfeld um die Dominanz der generativen KI

Wie Sie die Herausforderungen des heutigen Fachkräftemangels im Bereich Cybersicherheit meistern können

Diese Woche im Unternehmen: Die Cyber-Konsolidierung beschleunigt sich, KI verändert die Programmierung und die Gräben im Open-Source-Bereich werden größer

Bericht von Black Hat: Viele Fragen, wenige Antworten, während die Welt der Cybersicherheit mit KI-Bedrohungen konfrontiert ist

Cisco erwirbt das Telekommunikationssoftware-Startup Working Group Two für 150 Millionen US-Dollar

Entpacken des Status von Cloud-nativen Anwendungen

Showdown zwischen Cloud und On-Premises: Das zukünftige Schlachtfeld um die Dominanz der generativen KI

KI – VON DAVE VELLANTE. VOR 17 STUNDEN

Wie Sie die Herausforderungen des heutigen Fachkräftemangels im Bereich Cybersicherheit meistern können

SICHERHEIT – VOM GASTAUTOR. VOR 20 STUNDEN

Diese Woche im Unternehmen: Die Cyber-Konsolidierung beschleunigt sich, KI verändert die Programmierung und die Gräben im Open-Source-Bereich werden größer

KI – VON ROBERT HOF. VOR 1 TAG

Bericht von Black Hat: Viele Fragen, wenige Antworten, während die Welt der Cybersicherheit mit KI-Bedrohungen konfrontiert ist

SICHERHEIT – VON MARK ALBERTSON. VOR 1 TAG

Cisco erwirbt das Telekommunikationssoftware-Startup Working Group Two für 150 Millionen US-Dollar

INFRA – VON MARIA DEUTSCHER. VOR 2 TAGEN

Entpacken des Status von Cloud-nativen Anwendungen

CLOUD – VON GASTAUTOR. VOR 2 TAGEN

„TheCUBE ist ein wichtiger Partner der Branche. Ihr seid wirklich ein Teil unserer Veranstaltungen und wir wissen es wirklich zu schätzen, dass ihr kommt, und ich weiß, dass die Leute auch die von euch erstellten Inhalte schätzen“ – Andy JassyDANKE
AKTIE