Neue SAP Analytics Technologien und der Einfluss in das Beraterleben

Gestern habe ich folgenden Blog von Felipe de Mello Rodrigues gelesen:

Blog1

Diesen kann ich sehr gut nachfühlen. Jedoch hat mich nun der Impuls gepackt, diesen für SAP Analytics nochmal spezifischer nachzuvollziehen.

Beispielhaft kann man sich, wenn man als Partner Zugiff hat unter SAP PartnerEdge mal anschauen, was die SAP alles unter SAP Analytics Solutions einordnet:

Partner1
Quelle: SAP PartnerEdge

Das ist natürlich schon ein ganz schönes Spektrum. Als Berater muss man letztendlich sagen, man muss hier ja nicht alles können.

Ich will aber auch mal beispielhaft an Hand von typischen Re-Tweets auf meinem Twitter-Account zeigen, was sich bei den Themen so tut.

Gestern gab es ein Webinar zum Thema SAP Leonardo Machine Learning:

Tweet1
Quelle: SAP, 2019 (PDF)

Eigentlich gleich schon ein Themenfeld für sich, welches verschiedenen SAP-Technologien zusammenfasst oder zumindest berührt:

SAPLeoML
Quelle: SAP, 2018 (PDF)

Daneben hat man als ambitionierter Data Scientist natürlich auch Python und R drauf und nutzt diese im SAP-Kontext:

Tweet10
Tweet-Link

Ein Thema, welches ebenfalls im Zusammenhang mit Machine Learning seit einiger Zeit gesehen wird ist Robotic Process Automation:

Tweet2
Tweet-Link

Ebenfalls dazu kann man das Thema Conversational AI zählen, welches durch die Übernahme von Recast.AI Anfang 2018 seither an Schwung gewonnen hat:

Tweet7
Tweet-Link

Ein eher klassisches Thema ist, ob das BW eigentlich schon tot ist, weil S/4HANA Embedded Analytics hier die Themen übernehmen wird:

Tweet3
Tweet-Link

Ich denke, wie im Artikel auch vermerkt, wurde diese Frage schon ausführlich diskutiert. Die SAP sieht mit BW/4HANA dies als ausreichend beantwortet und auch die DSAG hat sich bereits 2015 klar positioniert.

Trotzdem darf man sich hier gerne mit der neuen Datengrundlage für Analytics auseinandersetzen – ABAP Core Data Services:

Tweet18
Tweet-Link

Im klassischen BW-Umfeld war das Release 2.0 von BW/4HANA ende Februar ein wichtiger weiterer Meilenstein:

Tweet16
Tweet-Link

Für Berater und Mitarbeiter im BW-Umfeld bedeutet das aber auch sich nicht mehr nur mit einer Datenbankmigration nach HANA auseinanderzusetzen oder sich Veränderungen bei einem Upgrade anzuschauen. Auf der Agenda steht nun in den nächsten Monaten und Jahren das Thema Conversion:

Tweet23
Tweet-Link

Bei vielen klassischen SAP BI-Beratern müsste das Thema SAP Analytics Cloud mittlerweile angekommen sein. Optisch haben sich die Update-Zyklen verlangsamt:

Tweet4
Tweet-Link

Allerdings zeigen die Releasestände, dass sich trotzdem ständig was tut und kontinuierlich Neuerungen geliefert werden. Aktuell Stand 08.2019 welcher nicht nur kleine Verbesserungen sondern z. B. die neue Anwendung Application Design, welche nach längerer Testphase nun für alle freigeschaltet wurde:

SAC1

Nicht das einem mit 2-wöchentlichen Updates noch langweilig wird 😉

Das Thema geht noch weiter. So ist über PAi – Predictive Analytics integrator das Veröffentlichen von in SAP Analytics Cloud Smart Predict erstellten Modellen in S/4HANA möglich:

Tweet6
Tweet-Link

Neben den verschiedenen Tools in SAP Analytics Cloud ist die Verwendung neuer Visualisierungen relativ einfach. Jedoch darf man sich gleichzeitig u. U. auch mit neuen, nicht immer nur strukturierten Datenquellen wie z. B. JSON auseinandersetzen:

Tweet13
Tweet-Link

SAP Analytics Cloud wird auch sofort bei den neusten Übernahmen wie Qualtrics als Enabler und Brücke gefeiert:

Tweet22
Tweet-Link

Auch ist das Thema SAP Analytics Cloud für die Planer im SAP BI-Umfeld zunehmend relevant und wird stärker mit S/4HANA verknüft:

Tweet17.PNG
Tweet-Link

Wer sich noch erinnert, SAP Analytics Cloud hat ja eine längere Namenshistorie. Aber alles hat soweit ich das sehe mal mit C4P – Cloud for Planning begonnen. Daher spielt das Thema in SAC nach wie vor eine wichtige Rolle:

Tweet19
Tweet-Link

Als klassischer BW-Berater muss man sich mit BW on HANA und BW/4HANA zunehmend mit HANA selbst auseinandersetzen:

Tweet5
Tweet-Link

SQL und vom gleichen Autor auch ein Update zu SQLScript ist nur ein Themenkomplex innerhalb von HANA, der hier relevant und interessant ist.

Ein Einsatzgebiet für SQL ist im Rahmen der HANA Modellierung mit Table Functions:

Tweet15
Tweet-Link

Beim Arbeiten rund um HANA und der Integration von Daten spielt dort SDI – Smart Data Integration eine zentrale Rolle:

Tweet11
Tweet-Link

SAP Data Hub ist ein riesen Thema im Big Data-Umfeld, welches wir uns aktuell z. B. auch für IoT-Themen anschauen:

Tweet8
Tweet-Link

Der SAP Data Hub ermöglicht die Erstellung und Verwaltung von Data Pipelines und bietet auch die Integration von SAP BW. Der zuletzt gelaufende OpenSAP-Kurs dazu bietet hier einen ganz guten ersten Überblick und Einstieg:

Tweet9
Tweet-Link

Auch Thomas Zurek als VP of SAP BW/4HANA + HANA Data Warehouse sieht das Zusammenspiel von BW/4HANA und Data Hub als logischen Schritt zum Intelligent Data Warehouse:

Tweet20
Tweet-Link

Auch die klassischen On-Premise BI Frontendtools wie SAP Lumira, discovery edition spielen natürlich nach wie vor eine Rolle:

Tweet14
Tweet-Link

Und auch hier muss man auf kontinuierliche Neuerungen nicht verzichten:

Tweet21
Tweet-Link

Wenn man sich jetzt anschaut, dass die dargestellten Tweets hauptsächlich von April sind, dann zeigt sich schon eine Flut an Neuigkeiten in vielen Bereichen. Daher muss natürlich jeder für sich filtern, was relevant ist. Ob man schon auf BW on HANA ist oder noch nicht oder gar BW/4HANA in irgendeiner Art und Weise angeht. Ob man im Bereich Planung ist oder sich evtl. schon intensiver mit den Möglichkeiten im Bereich Machine Learning und Data Science beschäftigt. Ob Cloud überhaupt ein Thema ist oder man seine On-Premise-Strategie bewahrt. Ob man sich eher im Backend oder im Frontend bewegt.

Zum Abschluss meines Blogs möchte ich das von Felipe de Mello Rodrigues einleitend dargestellte Bild in seinem Blog wiedergeben:

Tweet24

BI – Die alten Regeln gelten nicht mehr

Vor Kurzem veröffentlichte Wayne W. Eckerson (WE) einen Artikel darüber, wie sich die Welt im BI-Umfeld verändert (hat). Er listet einige Erkenntnisse von seiner letzten TDWI-Konferenz und versucht auch dies zu erklären. Ich (SA) versuche einmal, ausgewählte Aussagen wieder zu geben und auf meine Situation zu übersetzen.

  • “There is no need for a dimensional model.”
    • WE: Heutige BI-Werkzeuge sind so gut, dass schlechtes Design kompensiert wird.
    • SA: InfoCubes sind in einen HANA-System nicht mehr notwendig. Bei einer Modellierung in HANA muss man nur bedingt auf Performance achten und Werkzeuge wie Lumira benötigen nichtmal In-Memory sondern nutzen SAP IQ als spaltenbasierte Datenbank um performance durch den Endanwender Millionen von Datensätzen verarbeiten zu können.
  • “There is no need for ETL tools.”
    • WE: nutze Spark für ETL in der Cloud oder in Hadoop-Umgebungen
    • SA: Ebenfalls Lumira hat hier schon gezeigt, wie auch recht komplexe Transformationen sowie die Anbindung an fast beliebige Datenquellen schnell und einfach möglich sind. Mit Agile Data Preparation hat die SAP sogar ein komplett eigenes Werkzeug dafür auf den Markt gebracht.
  • “You don’t need a relational database.”
    • WE: Du kannst alle deine Data Science-Aufgaben ins S3 und mit Spark erledigen.
    • SA: Zumindest meine ersten Erfahrungen mit BO Cloud legen nahe, dass Cloud doch noch die eine oder andere Kinderkrankheit hat. Allerdings garantiert Amazon 99,999999999 % Ausfallsicherheit. Das muss man intern erstmal leisten. Das man für Data Science nicht unbedingt eine relationale Datenbank benötigt, ist aber glaube ich wirklich nichts Neues. Gerade wenn es um unstrukturierte Daten geht und um extrem große Datenmengen sind andere Ansätze gefragt.
  • “Code is not the enemy.”
    • WE:  Schreibe ETL-Code in Spark und verwalte ihn in Git Hub; es ist befreiend
    • SA: Git scheint heute im HANA oder SAP Cloud-Umfeld schon der neue Standard zu sein. In einer superagilen Welt verwundert der Erfolg von Git Hub daher nicht.
  •  “We don’t move data.”
    • WE: Wir bauen logische views in Hadoop für analytische Anwendungsfälle
    • SA: Auch HANA und vor allem S/4HANA setzen auf virtuelle Datenmodelle, welche für analytische Zwecke optimiert sind. Mit Core Data Services wird aktuell von SAP eine neue Grundlage geschaffen, dieses Konzept in der Breite umzusetzen.
  •  “We design from physical to logical, not logical to physical.”
    • WE: Wir laden Rohdaten in das System, dann bauen wir logische views für jeden Anwendungsfall; wir modellieren nicht zuerst.
    • SA: Passt zum vorherigen Punkt und unterstützt und erweitert diesen. In einem S/4HANA liegen die Daten schon vor, jedoch nicht unbedingt für analytische Zwecke. Erst durch das virtuelle Datenmodell bereite ich die „Rohdaten“ auf. In einem NoSQL-System oder Data Lake lege ich Daten ab, wie Sie kommen. In zum Teil völlig verschiedenen Schemata für die Sie ursprünglich gedacht waren. Wie ich diese für die Analyse im Sinne von Data Science benötige, kann ich vorab noch nicht sagen. Dabei kann man jedoch noch gut zu den traditionellen Ansätzen differenzieren, bei denen der Analysezweck im vorhinein recht klar ist (z. B. Analyse von Umsatzdaten nach verschiedenen Dimensionen). Schema-on-Read ist nichts, was der Fachbereich mal nebenher macht, weil er eine Fragestellung beantwortet haben möchte. Und dann gibt es auch noch agile Ansätze wie Data Vault.
  • “We design for secondary use cases, not the primary one, which has a limited shelf life.”
    • WE: Wir laden Daten und speichern diese auf Detailebene, so dass wir diese für neue Einsatzzwecke verwenden können, sobald der Bedarf dafür aufkommt.
    • SA: Die Aggregation von Daten geschieht immer für einen bestimmten Zweck. Information geht dabei verloren. Natürlich sollte es für ein HANA-System in der SAP-Welt kein Problem sein, sehr granulare Daten zu speichern. Jedoch kann dies sehr teuer sein. Mit Ansätzen wie Dynamic Tiering und Nearline Storage hat SAP Ansätze, das zu handhaben. Eine Alternative für BW könnten Ansätze wie SparrowBI sein.
  • “Your data architecture is as important or more than your data model.”
    • WE: Wie die Daten im Dateisystem abgelegt werden ist wichtig. Sonst wird man mit den Daten wenig anfangen können.
    • SA: Themen wie Datenqualität, Metadatenmanagement und Data-Lineage spielen hier eine wichtige Rolle, soll der Data Lake nicht zum Datensumpf werden.
  • “Architecture is way more important when you move to the cloud.”
    • WE: Wenn du deine Cloud nicht richtig konfigurierst, wird es evtl. teurer als gedacht.
    • SA: Mit Cloud-Konzepten herrscht weniger Erfahrung als in der On-Premise-Welt. Die leichte Verfügbarkeit der Ressourcen verführt dazu, erstmal großzügig damit umzugehen. Evtl. muss hier neu und eher elastisch gedacht werden.
  • “Applications are dependent on analytics.”
    • WE: Wir benötigen DevOps um die Entwicklung von Anwendungen und Analytic zu koordinieren.
    • SA: S/4HANA setzt massiv auf Hybrid Transactional Analytical Processing (HTAP) und verbindet immer mehr operative Anwendungen mit analytischen Funktionen.
  • “Either you evolve and change, or die.”
    • WE: Sei offen gegenüber Hadoop, Spark und der Cloud.
    • SA: Das sich SAP gegenüber den Open Source-Technologien wie Hadoop und Spark z. B. im Rahmen von HANA Vora öffnet ist ein wichtiges Zeichen. Bei Cloud versucht sich SAP als Vorreiter und setzt darauf wie auf HANA und zeigt damit auch die Richtung.

Eckerson schließt mit den Worten „The only constant is change, and now is the time to change! „. Aber Veränderung ist kein Projekt oder etwas, was man jetzt mal angehen sollte. Um konkurrenzfähig zu bleiben muss Veränderung zum integralen Bestandteil der Unternehmenskultur werden.

S/4HANA Embedded Analytics

S/4HANA Embedded Analytics ist der Ansatz von SAP, ein performantes und flexibles operatives Reporting zu ermöglichen.
SAP® S/4HANA embedded analytics is the collection of all analytics fea-
tures integrated in the SAP S/4HANA suite that enables business users,
business analysts, and IT to perform real-time process analytics and

operational reporting on live transactional data.

Aus: SAP S/4HANA Embedded Analytics FAQ

Die Datengrundlage bilden virtuelle Datenmodelle (VDM), welche hauptsächlich auf den Core Data Services basieren. Im Frontend sind die aktuellen BusinessObjects BI-Werkzeuge sowohl On-Premise, wie auch in der Cloud verfügbar. Auf Fiori-Basis wurden jedoch neue Werkzeuge  entwickelt, welche man zwischen den Rollen Endanwender und Analysespezialist unterscheiden kann.

Für die Endbenutzer:

  • Multidimensionale Reports

  • Smart-Business-KPIs

  • Analytische Apps basierend auf Analysis Path Framework (APF)

  • Abfrage-Browser

  • Analytische Fiori-Apps

Für den Analysespezialisten:

  • Multidimensionale Reports

  • Smart-Business-KPIs

  • Analytische Apps basierend auf Analysis Path Framework (APF)

  • Abfrage-Browser

  • Analytische Fiori-Apps

Um das Thema „Embedded Analytics“ ganzheitlich zu betrachten muss man sich auch mit den ein Stückweit alternativen Ansatz HANA Live auseinandersetzen, welcher hier immer noch im Einsatz ist. Und auch das Embedded BW verliert seine Bedeutung durch die neuen Möglichkeiten nicht sondern kann in vielen Fällen aus meiner Sicht an Bedeutung gewinnen. Genauso entwickelt sich in diesem Kontext das BW selbst weiter, behält jedoch in vielen Bereichen noch seine bisherige Bedeutung.

Natürlich kann man sich auch fragen, ob S4H Embedded Analytics nicht nur einfach eine Modernisierung von LIS, SAP Query und ABAP Reports ist. Aber das würde hier zu weit führen.

Der Gedanke ist, diesen Blog in Zukunft evtl. auszubauen, wenn sich damit ein Mehrwert zeigt. Aktuell soll er jedoch im Schwerpunkt als Referenz für die aktuellen Quellen und verfügbaren Informationen zu dem Thema dienen. Es gibt bereits sehr gute Blogs zu dem Thema welche u. a. im Folgenden aufgelistet sind.

Best Practices von SAP: https://rapid.sap.com/bp/#/BP_S4H_ANA (mit S-User)

Das SAP FAQ zum Thema. Leider seit 11/2015 nicht mehr aktualisiert.

2-teilige Blog-Serie von Anirban Kundu aus dem SAP Produktmanagement, welcher einen guten Einstieg darstellt, gute weiterführende Referenzen bietet, jedoch technisch nur bis in eine überschaubare Tiefe geht: Teil 1, Teil 2

SAP S/4HANA Embedded Analytics – A detailed Walkthrough – 5-teilige Blog-Serie mit sehr guten Beschreibungen der relevanten Aspekte von prabhith prabhakaran: Teil 1, Teil 2, Teil 3, Teil 4, Teil 5

Die Einstiegsseite für S/4HANA Release 1610. Unter SAP S/4HANA > Übergreifende Komponenten > Analysen findet sich die aktuell SAP-Hilfe zu Embedded Analytics.

Developer Guide für Analysis Path Framework (APF)

SAP-Hilfe zu SAP Smart Business Cockpits

SAP Fiori Library – Rolle „Analytics Specialist“ – unter Categories > by Roles > Analytics Specialist :

sapanalytix_s4heaapps01
SAP Fiori Library – Rolle „Analytics Specialist“