Die Korrektheit, Vollständigkeit, Konsistenz und Nutzbarkeit der Daten im Unternehmen stellen u. a. die Grundlage für effiziente und qualitative Geschäftsprozesse dar. Die Einhaltung der Datenintegrität im Zeitalter exponentiell wachsender Datenmengen und -quellen kann sich für Unternehmen als eine große Herausforderung darstellen. Für die Etablierung einer Grundlage für die Integration und Datenqualität von Unternehmensdaten stellt SAP das ETL-Tool SAP Data Services bereit.

 

Das Tool hilft, Daten aus einer Vielzahl von Quellsystemen zu untersuchen, integrieren, reinigen, verwalten und zu erweitern und diese an ein beliebiges Zielsystem zu schicken. Die Quell- oder Zielsysteme können u. a. SAP-Systeme, Webservices, relationale Datenbanken, NoSQL-Datenbanken oder Cloud-Services sein. Es werden zahlreiche weitere Quellen unterstützt und geben dem Unternehmen somit große Flexibilität.

 

Die SAP Data Services bietet neben den für ETL-Tools essentielle Funktionen wie zusammenführen, filtern, aggregieren und berechnen, sowie zahlreiche weitere Features für die Verwaltung der Daten:

  • Textanalysefunktionen
  • Data Profiling und Audit
  • Datenqualitätsoperationen wie Matching, Geocodierung und Adressstandardisierung
  • Unterstützung von Multi-Usern
  • Unterstützung von Skriptsprachen
  • Integration mit dem SAP LT Replication Server und die Nutzung von delta-basierten Datenbewegungen
  • Validierung über Dashboards und Prozess-Audits
  • Unterstützung von Echtzeit- oder Batch-Prozessen

 

Die Funktionalitäten von SAP Data Services verteilen sich auf verschiedene Komponenten, die im Folgenden näher beschrieben werden.

Data Services Architektur

  1. Designer ist ein Entwicklungstool, mit dem die Erstellung, Testung und Ausführung von Jobs möglich ist, der ein Data Warehouse füllt. Der Designer kann auch für die Erstellung von Anwendungen mit spezifizierten Workflows und Datenflüssen verwendet werden.
  2. Der Job Server startet die Datenverarbeitungs-Engine und dient als Schnittstelle zur Engine und Data Services Suite.
  3. Die Data Service Engine führt die in der Anwendung definierten Aufträge aus.
  4. Das Repository ist eine Datenbank zur Speicherung von im Designer vordefinierten Objekte und benutzerdefinierten Objekte (z. B. Quell- und Ziel-Metadaten und Transformationsregeln). Das Repository besteht aus zwei Komponenten. Ein lokales Repository welches von Designer und Job Server verwendet wird und ein zentrales Repository für Object Sharing und Versionskontrolle.
  5. Der Access Server überträgt Daten zwischen verschiedenen Engines, Jobserver, Datendiensten und Webanwendungen.
  6. Der Web Administrator bietet als Webanwendung die Möglichkeit zur Verwaltung der Datendienstressourcen. In der Webanwendung ist die Konfiguration von Echtzeit-Diensten, Batch-Jobs, die Verwendung von Repository, Zugriffsserver und Jobserver, sowie die Konfiguration und Verwaltung von Adaptern möglich.

Deployment

Vor der Installation des SAP Data Services ist eine Installation der SAP BusinessObjects Business Intelligence (BI) Plattform oder der SAP BusinessObjects Information Platform Services (IPS) notwendig. Die BI Plattform bietet dem SAP Data Services und anderen SAP Anwendungen Funktionalitäten bereit. IPS ist eine abgespeckte Version der BI Plattform und unterstützt vollständig SAP Data Services. SAP empfiehlt die Benutzung von IPS aufgrund der höheren Flexibilität beim Upgrade der SAP Data Services und die sich daraus ergebende Unabhängigkeit zur BI Plattform.

 

Sowohl die BI Plattform als auch die IPS bieten eine skalierbare Architektur der Installation der SAP Data Services.

 

Es wird zwischen folgenden Szenarios unterschieden:

  • Vertikale Installation: Ein Rechnersystem übernimmt einen Teil oder alle serverseitigen Prozesse zur Reduzierung von Kosten.
  • Horizontale Installation: Verteilung der serverseitigen Prozesse zwischen mehreren Rechnersystemen zur Steigerung der Performance.
  • Duplizierte Installation: Verteilung von duplizierten Instanzen über verschiedene Rechnersysteme hinweg zur Steigerung der Zuverlässigkeit und Verringerung von Ausfallrisiken.

 

Datenmigration zu SAP S/4HANA in Verbindung mit Migration Cockpit

Das SAP S/4HANA Migration Cockpit ermöglicht die Datenmigration aus verschiedenen Nicht-SAP-Systeme oder SAP-Systeme auf ein SAP S/4HANA-System. Das Migration Cockpit bietet hierbei verschiedene Möglichkeiten für die Datenmigration. Die Migration mittels Staging Tabellen kann durch die Nutzung von SAP Data Services unterstützt werden. Die Staging Tabellen befinden sich im Zielsystem. Die Namen der Staging Tabellen sind im LTMC zu finden. Die Staging Tabellen werden vom SAP DS befüllt und das Migration Cockpit repliziert sie in die Zieltabellen. Eine manuelle Befüllung, z. B. mittels XML-Files, fällt somit aus.

Vorteile der SAP Data Services

Die Einhaltung der Datenintegrität und Datenqualität, sowie eine vollständige Übersicht über die im Unternehmen vorhandenen Informationen wird mithilfe der SAP Data Services ermöglicht. Neben den herkömmlichen Datenbanken wird von SAP Data Services auch Anwendungen wie z. B. SAP oder Salesforce, Dateien wie z. B. CSV, Excel oder XML, sowie Webservices und Hadoop als Datenquelle unterstützt. Die große Flexibilität stellt sich als ein großer Pluspunkt in einer sich stets veränderten Technologielandschaft dar.  Der größte Unterschied zu anderen ETL-Tools ist die enge Integration mit anderen SAP-Produkten. So kann bspw. das SAP BW über den SAP Data Service als Datenquelle, Daten aus SAP ECC nutzen. Derzeit ist das erwähnte Beispiel nur mit dem SAP Data Service möglich. Die Integration mit SAP HANA ist wesentlich umfangreicher im Unterschied zu anderen auf dem Markt verfügbaren ETL-Tools.

 

In Zeiten von Big Data und sich stets wandelnden Technologielandschaften ist eine adäquate Lösung für die Verwaltung von Daten notwendig. Mit dem SAP Data Services versucht SAP eine vollständige Informationsmanagementplattform zu bieten, um die Effizienz und Qualität der Geschäftsfunktionen zu steigern bzw. zu bewahren. Vor allem wirbt SAP mit hoher Flexibilität, Zuverlässigkeit und Skalierbarkeit des ETL-Tools.