Learning Journey: SAP Data Warehouse Cloud

Die SAP hat für die neue Lösung „SAP Data Warehouse Cloud“ (im Weiteren DWC) eine Learning Journey erstellt. Schauen wir mal, was man damit lernen kann.

Erster Step zum Überblick sind Webinare zum Thema:

LJ1

Tatsächlich steht hier auch eine ganze Menge zur Auswahl. Neben relativ allgemeinen Webinare, die erklären sollen, warum man jetzt ein DWC benötigt, gibt es 4 interessante, etwa 1-stündige Deep Dives on demand:

 

SAP DWC – Stories

Dieser Blog ist eine Zusammenfassung des Webinars:

SAP Data Warehouse Cloud Workshop: Deep Dive into Stories

Im Rahmen der Learning Journey: SAP Data Warehouse Cloud.

Leider ist die Anmeldung etwas umständlich. Das gezeigte ist kein großes Geheimnis und konnte in anderen Webinaren, welche durchaus auch auf Youtube verfügbar sind, ebenfalls gesehen werden. Leider war ein umständlicher Anmelde- und Bestätigungsprozess notwendig.

In Summe geht das Webinar knapp 40 Minuten und zeigt die aktuellen Features in SAP Analytics Cloud. Leider passiert dies unabhängig von Data Warehouse Cloud. Initial wird gar ein .xlsx-File hochgeladen und dann damit gestartet.

Auf der einen Seite will man damit wohl auch klar machen, es gibt keine wesentlichen Unterschiede. Wobei durchaus die Frage kam, ob zwischen einer Live-Verbindung und dem Import der Daten unterschieden werden kann. Für mich kam zumindest nicht klar raus, ob DWC als Live-Connection gilt, auch wenn die Unterschiede zunehmend verschwimmen werden.

Vielleicht ein Hinweis, bei dem doch auch mal auf DWC eingegangen wurde. SAC unterstützt natürlich die Berechnung von Kennzahlen. Grundlegender und nachhaltiger kann dies natürlich im DWC erfolgen, da hier die Daten gemanaged und entsprechend komplexe Kalkulationen vorgenommen werden können.

Richtigerweise wird zum Ende für weitere Informationen auf http://www.sapanalytics.cloud verwiesen. Hier ist sicherlich die zentrale Anlaufstelle für alles rund um SAC.

 

 

 

OpenSAP: The Internet of Things with SAP

Ein aktuell interessanter, wenn auch nur 1-wöchiger Kurs von OpenSAP ist „The Internet of Things with SAP„. Im Kontext Analytics beschäftigt mich das Thema IoT schon länger. SAP hat dort eine gewisse Entwicklung hinter sich. Auch ist die Strategie bisher nicht ganz klar.

Auf der einen Seite gibt es den PCo – Plant Connectivity, welcher seine Heimat eher im Bereich Industrie 4.0 hat. Auf der anderen Seite findet sich in Cloud Foundry (SAP Cloud Platform) eine IoT Platform, welche die bisherige in Neo mittlerweile komplett abgelöst hat.

Welche aktuellen Erkenntnisse bringt uns dieser OpenSAP-Kurs?

Was ist IoT?

“The Internet of Things (IoT) is the network of physical objects that contain embedded technology to communicate and sense or interact with their internal states or the external environment.”

– Source: Gartner

Eine mögliche, vorgestellte Definition. SAP gibt hier erstmal keine eigene Definition.

Das IoT kann in 3 wesentliche Bausteine aufgeteilt werden:

  • Sensoren – Ein kleines Gerät, welches die Information aus der Umgebung liefert und als digitales Signal zur Edge oder Cloud übermittelt. Mögliche Messwerte sind u. a.:
    • Geräusche
    • Position (GPS)
    • Feuchtigkeit
    • Bewegung
    • Temperatur
    • usw.
  • Edge – Ein Gerät zur Verarbeitung von Daten am Rande eines Netzwerks zwischen Sensoren und Cloud/Rechenzentrum. Die Verarbeitung und Analyse nahe am Sensor kann die Entscheidung auf Basis der Daten beschleunigen. Eingesetzte Geräte sind u. a.:
    • IoT Gateways von einschlägigen Herstellern (z. B. Intel, Dell, Cisco)
    • Remote Server
    • Industrie PCs
    • Raspberry Pi
    • usw.
  • Cloud – Ein Rechenzentrum bzw. Rechenzentrumsverband welcher Speicher für die Daten und Verarbeitungskapazitäten zur Verfügung stellt.

SAP sieht IoT als wichtigen Baustein für das Intelligent Enterprise. Dies besteht aus dem klassischen Teil eines Systems, welches die Unternehmensprozess managed (z. B. SAP ERP/Intelligent Suite – O-Data) sowie Möglichkeiten die Interaktion mit Kunden und Mitarbeitern zu messen und zu verstehen (z. B. Qualtrics – X-Data) und warum etwas passiert. Um in einer „Experience Economy) zu gewinnen, müssen lt. SAP beide Seiten über Intelligence (Analytics, Intelligent Technologies, Database & Data Management und Application Integration & Development -> Business Technology Platform) verbunden werden. Teil der „Intelligent Technologies“ ist IoT cloud & edge.

3 Beispiele für die Relevanz von IoT:

  • Erhöhung der Produktivität durch die Wahrnehmung der aktuellen Situation (Nachschubsteuerung)
  • Verbindung von Prozessen für eine verbesserte Kundenerfahrung (z. B. Predictive Maintenance)
  • Geschäftsinnovationen für neue Geschäftsmodelle und Einkommensströme (z. B. Optimierung bei erneuerbaren Energien)

 

SAP Leonardo IoT in der Cloud bietet 4 Innovatonspfade:

  • Embed – Einbetten von IoT in SAP-Anwendungen (S/4HANA, C/HANA, …)
  • Extend – Entwickler die Möglichkeit geben, bestehende SAP-Prozesse durch vorher nicht verbundene IoT-Geräte wie Maschinen oder Produkte zu erweitern
  • Evolve – Im Kontext von SAP-Systemen neue Geschäftsmodelle ermöglichen
  • Edge-Enabled – Eine durch die Cloud ermöglichte Verarbeitung durch Edge-Geräte

Services von SAP Leonardo IoT:

  • Enablement of the Digital Twin
  • Data ingestion und Big Data storage
  • Analytic Services & Aggregation Management
  • Event Services
  • Actions, Integration & Descision Support Services
  • Streaming Rules & Roles on Persisted Data

SAP Edge Services – Die Services können mit 3 D’s beschrieben werden:

  • Distributed
  • Diverse
  • Dynamic Communication Channel

Das Angebot umfasst die folgenden Services:

  • Police Service – Deployment und Lifecycle Management aus der Cloud
  • Essential Business Functions Services – Erweiterung bestehender Anwendungen wie SAP ERP, SAP C/4HANA und SAP Asset Intelligence Network
  • Streaming Services – Analyse von IoT-Datenströmen in Realtime basierend auf Geschäftslogiken
  • Persistence Service – Speichern der IoT-Daten im IoT-Gateway
  • Custom Edge Services – z. B. Predictive Analytics

 

Aktuelle Themen, welche Industrie 4.0 weiter treiben:

  • 5G Mobilfunk-Standard
  • Edge Processing
  • Die 4. industrielle Revolution

 

SAP Analytix Fazit

IoT liefert grundsätzlich eine große Menge an Daten, welche in produktiven nach Big-Data-Prinzipien gemanaged werden müssen. Der Fokus des Kurses hier liegt ganz klar auf dem SAP Cloud Platform-basierten Leonardo IoT-Angebot.

Für die Analytics Services wird aus meiner Sicht konsequent SAP Analytics Cloud als Frontend über Live-Verbindung genutzt. Für die intelligente Automatisierung spielt im Weiteren Machine Learning eine wichtige Rolle.

Auch wenn IoT im eher klassischen Kontext über ein gewisses Monitoring hinaus kaum eine Rolle spielt, bringen neuere Disziplinen wie Big Data und Data Science in diesem Umfeld enormen Mehrwert. Das Thema IoT und Industrie 4.0 erfreuen sich zunehmender Beliebtheit und die Relevanz und Nutzung bei den Unternehmen wird deutlich zunehmen.

HPI – BD19/20 – Benchmarking und Measurement

Als Teil der Lecture Series des HPI hier Teil 4 der Big Data-Vorlesung mit „Benchmarking und Measurement„.

Zuletzt – Teil 4: HPI BD19/20 – Big Data Stack

Warum überhaupt messen?

  • Verfügbarkeit von Webseiten gewährleisten
  • Interaktive Datenanalyse skalierbar machen
  • Realtime-Analytics

 

Überlegungen

  •  Systemperformance muss regelmäßig geprüft werden.
  • Niemals nur einer Messmethode glauben
  • Back-of-the-envelope calculations -> Überschlagsrechnung
    • Grobe erste Berechnung, ob es passt oder nicht
    • Bsp. Berechnung der Performance der Einzelkomponenten (L1/L2-Cache, Hauptspeicher, Festplatte, …)

Im weiteren zeigt die Vorlesung viele Möglichkeiten, statistisch mit Messwerten zu arbeiten um verschiedene Aspekte sinnvoll zu testen und validieren zu können.

 

SAP Analytix-Fazit

Nun, im BI-Umfeld wie überall im Bereich Analytics spielt Performance eine wichtige Rolle und umfasst oft viele Stufen und Optionen.

Im klassischen SAP BW on Any DB dürfte dies z. B. jeder BI-Administrator/-Berater kennen. Lesen auf ein flaches Schema wird tendenziell nicht empfohlen, außer man benötigt wirklich die Detailebene und liest jeden einzelnen Datensatz. Für alles was aggregierte Daten berechnet, macht das Star Schema (InfoCube) mehr Sinn. Darauf aufbauend gibt es klassisch die Aggregate, welche nochmals über mehrere Merkmale verdichtet, eine Teilmenge der Daten auf der Datenbank bereitstellt. In der Pre-HANA Ära gab es dann auch noch den BWA, der die Daten im deutlich schnelleren Hauptspeicher vorgehalten hat. Im optimalen Fall wurden die Daten auch schonmal geladen und liegen im noch schnelleren Cache. All dies kann man designen und bereitstellen um Performance hoch zu halten.

HANA bringt das Thema natürlich nochmal auf ein neues Level. Die Daten sind permanent in Memory, spaltenbasiert quasi schon aggregiert und liefern mit optimierter Hardware auch die entsprechende Performance.

Die Cloud kann und wird evtl. zukünftig hier noch flexiblere Optionen ermöglichen, da hier Ressourcen flexibel zugeschaltet oder wieder zurückgefahren werden können.

Natürlich weiß auch jeder, der sich mit Performancemessungen beschäftigt hat, dass das beschriebene allein evt. noch nicht immer auch beim Anwender ankommt. Die richtige Systemparametrisierung, das Netzwerk und das Frontend selbst bzw. der Rechner auf dem dieses läuft, geben ihr übriges dazu.

In einem SAP BW-System haben Statistiken auch einen lange Historie und können ad-hoc oder im Langzeitvergleich flexibel ausgewertet werden.

 

Nächste Lecture: Benchmarks