BI – Die alten Regeln gelten nicht mehr

Vor Kurzem veröffentlichte Wayne W. Eckerson (WE) einen Artikel darüber, wie sich die Welt im BI-Umfeld verändert (hat). Er listet einige Erkenntnisse von seiner letzten TDWI-Konferenz und versucht auch dies zu erklären. Ich (SA) versuche einmal, ausgewählte Aussagen wieder zu geben und auf meine Situation zu übersetzen.

  • “There is no need for a dimensional model.”
    • WE: Heutige BI-Werkzeuge sind so gut, dass schlechtes Design kompensiert wird.
    • SA: InfoCubes sind in einen HANA-System nicht mehr notwendig. Bei einer Modellierung in HANA muss man nur bedingt auf Performance achten und Werkzeuge wie Lumira benötigen nichtmal In-Memory sondern nutzen SAP IQ als spaltenbasierte Datenbank um performance durch den Endanwender Millionen von Datensätzen verarbeiten zu können.
  • “There is no need for ETL tools.”
    • WE: nutze Spark für ETL in der Cloud oder in Hadoop-Umgebungen
    • SA: Ebenfalls Lumira hat hier schon gezeigt, wie auch recht komplexe Transformationen sowie die Anbindung an fast beliebige Datenquellen schnell und einfach möglich sind. Mit Agile Data Preparation hat die SAP sogar ein komplett eigenes Werkzeug dafür auf den Markt gebracht.
  • “You don’t need a relational database.”
    • WE: Du kannst alle deine Data Science-Aufgaben ins S3 und mit Spark erledigen.
    • SA: Zumindest meine ersten Erfahrungen mit BO Cloud legen nahe, dass Cloud doch noch die eine oder andere Kinderkrankheit hat. Allerdings garantiert Amazon 99,999999999 % Ausfallsicherheit. Das muss man intern erstmal leisten. Das man für Data Science nicht unbedingt eine relationale Datenbank benötigt, ist aber glaube ich wirklich nichts Neues. Gerade wenn es um unstrukturierte Daten geht und um extrem große Datenmengen sind andere Ansätze gefragt.
  • “Code is not the enemy.”
    • WE:  Schreibe ETL-Code in Spark und verwalte ihn in Git Hub; es ist befreiend
    • SA: Git scheint heute im HANA oder SAP Cloud-Umfeld schon der neue Standard zu sein. In einer superagilen Welt verwundert der Erfolg von Git Hub daher nicht.
  •  “We don’t move data.”
    • WE: Wir bauen logische views in Hadoop für analytische Anwendungsfälle
    • SA: Auch HANA und vor allem S/4HANA setzen auf virtuelle Datenmodelle, welche für analytische Zwecke optimiert sind. Mit Core Data Services wird aktuell von SAP eine neue Grundlage geschaffen, dieses Konzept in der Breite umzusetzen.
  •  “We design from physical to logical, not logical to physical.”
    • WE: Wir laden Rohdaten in das System, dann bauen wir logische views für jeden Anwendungsfall; wir modellieren nicht zuerst.
    • SA: Passt zum vorherigen Punkt und unterstützt und erweitert diesen. In einem S/4HANA liegen die Daten schon vor, jedoch nicht unbedingt für analytische Zwecke. Erst durch das virtuelle Datenmodell bereite ich die „Rohdaten“ auf. In einem NoSQL-System oder Data Lake lege ich Daten ab, wie Sie kommen. In zum Teil völlig verschiedenen Schemata für die Sie ursprünglich gedacht waren. Wie ich diese für die Analyse im Sinne von Data Science benötige, kann ich vorab noch nicht sagen. Dabei kann man jedoch noch gut zu den traditionellen Ansätzen differenzieren, bei denen der Analysezweck im vorhinein recht klar ist (z. B. Analyse von Umsatzdaten nach verschiedenen Dimensionen). Schema-on-Read ist nichts, was der Fachbereich mal nebenher macht, weil er eine Fragestellung beantwortet haben möchte. Und dann gibt es auch noch agile Ansätze wie Data Vault.
  • “We design for secondary use cases, not the primary one, which has a limited shelf life.”
    • WE: Wir laden Daten und speichern diese auf Detailebene, so dass wir diese für neue Einsatzzwecke verwenden können, sobald der Bedarf dafür aufkommt.
    • SA: Die Aggregation von Daten geschieht immer für einen bestimmten Zweck. Information geht dabei verloren. Natürlich sollte es für ein HANA-System in der SAP-Welt kein Problem sein, sehr granulare Daten zu speichern. Jedoch kann dies sehr teuer sein. Mit Ansätzen wie Dynamic Tiering und Nearline Storage hat SAP Ansätze, das zu handhaben. Eine Alternative für BW könnten Ansätze wie SparrowBI sein.
  • “Your data architecture is as important or more than your data model.”
    • WE: Wie die Daten im Dateisystem abgelegt werden ist wichtig. Sonst wird man mit den Daten wenig anfangen können.
    • SA: Themen wie Datenqualität, Metadatenmanagement und Data-Lineage spielen hier eine wichtige Rolle, soll der Data Lake nicht zum Datensumpf werden.
  • “Architecture is way more important when you move to the cloud.”
    • WE: Wenn du deine Cloud nicht richtig konfigurierst, wird es evtl. teurer als gedacht.
    • SA: Mit Cloud-Konzepten herrscht weniger Erfahrung als in der On-Premise-Welt. Die leichte Verfügbarkeit der Ressourcen verführt dazu, erstmal großzügig damit umzugehen. Evtl. muss hier neu und eher elastisch gedacht werden.
  • “Applications are dependent on analytics.”
    • WE: Wir benötigen DevOps um die Entwicklung von Anwendungen und Analytic zu koordinieren.
    • SA: S/4HANA setzt massiv auf Hybrid Transactional Analytical Processing (HTAP) und verbindet immer mehr operative Anwendungen mit analytischen Funktionen.
  • “Either you evolve and change, or die.”
    • WE: Sei offen gegenüber Hadoop, Spark und der Cloud.
    • SA: Das sich SAP gegenüber den Open Source-Technologien wie Hadoop und Spark z. B. im Rahmen von HANA Vora öffnet ist ein wichtiges Zeichen. Bei Cloud versucht sich SAP als Vorreiter und setzt darauf wie auf HANA und zeigt damit auch die Richtung.

Eckerson schließt mit den Worten „The only constant is change, and now is the time to change! „. Aber Veränderung ist kein Projekt oder etwas, was man jetzt mal angehen sollte. Um konkurrenzfähig zu bleiben muss Veränderung zum integralen Bestandteil der Unternehmenskultur werden.

Advertisements

BusinessObjects Cloud – First Steps 1

So, er ist da. Und das schon einer Woche. Der Partner Demo Tenant für BusinessObjects Cloud (BOC).

Nach der ersten Übersicht und der Einrichtung der User für das weitere Team, natürlich gleich mal das erste Diagramm angelegt und ein Excel-File hochgeladen. Gefühlt ist nicht alles intuitiv. Man muss erstmal reinfinden. Offensichtlich werde ich das eine oder andere Video anschauen müssen oder vielleicht sogar die Zeit finden, den OpenSAP-Kurs zu BOC bzw. Digital Boadroom anzuschauen.

Auch die ersten Erfahrungen waren, dass das System in einer Woche mindesten 3x Probleme mit der Verfügbarkeit hatte. Netterweise bekommt man nachdem man es gemerkt hat auch bald eine Mail dazu.

Gut, schnell stellt man sich bei einer auf HCP basierenden Anwendung auch etwas anders vor:

cloud01

Gut, die Datei habe ich von Kaggle und sie umfasst ca. 50 MB und 1 Mio Datensätze anonymisierte Echtdaten von Rossmann.

Aber auch so ist mein Eindruck nicht ganz flüssig. Die Punkte, die sich bewegen, damit sich überhaupt was bewegt, sieht man z. B. auch bei dem Demo Dashboard. Natürlich kann das auch noch mit der Bandbreite und dem Netzwerkverkehr zu tun haben.

Damit ich mir auch gleich ein paar gute Beispiele anschauen darf, habe ich entsprechend den BOC content aus dem SAP Store heruntergeladen und in die BOC importiert:

cloud_content02

Da kommt ganz schön was zusammen. Und ich meine nicht nur die 89-seitige Doku dazu:

cloud_content08

Oder zum Beispiel einige Digital Boardrooms wie dieser hier:

cloud_content04

Hm, by the speed of thought???

cloud_content05

1-2 Minuten später – Ahhh:cloud_content06

Nun, wahrscheinlich ist mein Bildschirm zu klein, um solche großen Zahlen anzuzeigen:

cloud_content07

Es kommen auch Dateien mit, die auch schon mal schnell etwas Memory allokieren:

cloud_content09

Aber es ist ja noch genug da 😉

So, schauen wir dann, wie es weiter geht. Evtl. steht die HANA Cloud Connection auf der Agenda…

SAP Core Data Service (CDS)-Views für Analytics

Mitte 2015 gab es in den Niederlanden eine Videoaufzeichnung zu einem BI Podcast zwischen Ulrich Christ (SAP Produktmanager für HANA im Bereich Data Warehousing), der auch aus den OpenSAP-Kursen zu BW-Themen bekannt ist und Jürgen Haupt, SAP Produktmanager SAP EDW, der auch sehr bekannt für das Thema LSA ist, mit dem Titel „S/4HANA Analytics with CDS views and BW as evolutionary extension„.

Ulrich Christ zeigt dabei eine Demo mit Analysis for Office auf einem CDS-Modell, welches in einem S/4HANA-System liegt. Er erklärt die Mächtigkeit im Vergleich zu Data Dictionary Views und wesentliche Elemente eines CDS:

  • Annotations – besonders interessant hier ist die Analytics Annotation.
    • SAP beschreibt diese als „Enable the analytic manager for multidimensional data consumption, performing data aggregation, and slicing and dicing data. BI frontends like Design Studio and Analysis Office can consume the data via the analytic manager.
    • Durch die Annotation wird z. B. definiert, um welche Kategorie von Daten es sich handelt  – Stammdaten (#DIMENSION) oder transaktionale Daten (#FACT, #CUBE) oder um Plandaten (#AGGREGATIONLEVEL).
    • Hier wird auch festgelegt, ob der CDS-View für die Extraktion geeignet ist und evtl. Delta-Verfahren unterstützt. Damit bildet der View beispielsweise auch die Basis für eine BW DataSource.
  • Associations – Diese dienen der Ergänzung der grundlegenden Daten. So können hier für transaktionale Daten noch Attribute oder Texte hinzugefügt werden. Im Vergleich zu einen SQL-Join sind Associations wiederverwendbar.

Ulrich Christ macht klar, dass CDS-Views langfristig die neue Grundlage für BW-DataSources in S/4HANA sind. Wie SAP in der Präsentation „SAP S/4HANA Analytics & SAP BW Data Integration“ zeigt, geht dies mittlerweile sogar noch darüber hinaus. SAP sieht CDS-Views im ABAP-Layer als Virtual Data Model (VDM), welches Daten für BI (über Transient Provider), Hybride transaktionale und analytische Anwendungen (HTAP) und weitere S/4HANA-Anwendungen Daten bereitstellt:

sapanalytix_cds01

Quelle: „SAP S/4HANA Analytics & SAP BW Data Integration

Auf HANA-Ebene hat diese Rolle im Wesentlichen HANA Live, wobei das CDS-Konzept ja mittlerweile auf HANA übertragen wurde. Eine Erklärung der Unterschiede und Gemeinsamkeiten der beiden Konzepte findet sich von Horst Keller in seinem Blog. Ein guter Überblick und Vergleich findet sich auch hier.

Von Ulrich Christ kommt dazu die Aussage, dass HANA Live durch das veränderte Datenmodell in S/4HANA evtl. nicht mehr vollständig funktionieren wird und CDS das Konzept für Operational Reporting sein wird.

In einer Präsentation der SAP TechEd 2015 werden folgende Nachteile von SQL im Vergleich zu CDS aufgezeigt:

  • Eine große semantische Lücke zwischen der konzeptionellen Anforderung und der Umsetzung in SQL
  • Die Komplexität der Anforderung führt zu einer verschlechterten Performance

Bzgl. dem Argument „Aber dann nutze ich ja gar nicht mehr die Performance einer HANA-Datenbank aus, da die Anwendungslogik auf dem Application Server läuft“ gibt die Präsentation zwei Antworten:

  • Eingebaute SQL-Funktionen/-Ausdrücke können komplexe Berechnungen in die HANA-Datenbank oder auch jede andere von SAP unterstütze Datenbank pushen.
  • CDS Table Functions nutzen native HANA-Funktionen, welche in CDS implementiert wurden.

Mittlerweile hat sich Ulrich Christ in einem Blog vom November 2016 nochmal die genaue Verwendung von CDS im Kontext BW angeschaut und einige Dinge klar gemacht:

  •  Erweiterung von BW InfoProvidern um zusätzliche Informationen -> Nein!
    • Das BW-Datenmodell ist sehr ausgereift und komplex. Dies nachzubilden wäre nicht sinnvoll. Ein Ansatz, BW-Datenmodelle für SQL zu öffnen wären HANA Calculation Views. Ein Ansatz zur Integration von Non-BW-Daten ist über den OpenODS-View möglich.
    • CDS würde das Konzept der Analyseberechtigung umgehen. Ebenfalls HANA Calculation Views und die Ableitung von HANA Privileges aus Analyseberechtigungen wären hier der Ansatz.
  • SAP BW Technischer Content -> Ja!
    • Hier wird tatsächlich seit BW 7.5 SP04 Content auf Basis von CDS-Views ausgeliefert.
  • Integration von Daten ins BW über CDS -> Ja!
    • Die Extraktion von S/4HANA-Daten über den Quellsystemtyp ODP-CDS ist möglich.
    • Über OpenODS-View können CDS-Views auch virtuell konsumiert werden.
  • BW Transformationen -> Vielleicht!
    • Ein komplexer Look-Up auf eine Z-Tabelle wäre denkbar.

Nun gut, aus meiner Sicht ist und bleibt CDS eine Technologie, welche zunehmend eine Rolle spielen wird und es gut ist, wenn man weiß, was sich tut und die CDS-Entwicklung evtl. sogar beherrscht. Hoffen wir nicht, das wie bei HANA Live der Ansatz wieder schneller weg ist, als S/4HANA in der Breite ins Laufen kommt.

SAP TechEd 2016 – Was man für SAP BI & Analytics mitnehmen kann

Die im folgenden abgebildeten Screenshots sind alle aus öffentlichen, im Rahmen der SAP TechEd 2016 gehaltenden Präsentationen. Sie stellen einen aktuellen Stand der Planung dar und können sich natürlich jederzeit ändern!

Die SAP TechEd 2016 hat für die BI-Community wieder einiges geliefert, wenn auch vieles schon bekannt war. Richtig große Ankündigungen gab es aus meiner Sicht eigentlich nicht. Am ehesten interessant war noch HANA Express, welches für Entwickler eine Einstiegsmöglichkeit bietet, HANA auf dem eigenen Rechner zu betreiben. Trotzdem ist es interessant geballt zu betrachten, wie sich SAP aktuell im BI- und Analytics-Umfeld sieht und positioniert.

Um meinen Eindruck von den TechEd-Themen her mal kurz zu umreißen:

HANA, S/4 HANA, HANA Express, noch mehr HANA, Cloud, Fiori & UX, IoT und Digitalisierung im Allgemeinen. Und irgendwie war der Solution Manager doch auch recht präsent.

Bzgl. BI und Analytics wurde natürlich allerlei vorgestellt zu:

BusinessObjects BI-Platform & Lumira 2.0, BusinessObjects Cloud & Digital Boardroom, BW/4HANA, Predictive Analytics, S/4 HANA Analytics, Mobile BI, Planung und Konsolidierung in S/4HANA mit BPC, Enterprise Information Management & Agile Data Preperation, SAP HANA Datawarehouse & SAP Power Designer bis hin zu Themen wie Maschinellem Lernen, Graphenverarbeitung in HANA sowie Big Data und HANA Vora.

Grundsätzlich bekräftigt SAP in ihrer Analytics Strategy den Weg in die Cloud, jedoch auch das weitere Committment in die doch deutlich ausgereifteren On-Premise BI-Werkzeuge:

image03Quelle: SAP TechEd 2016  ANP100

Dahinter steht steht folgende SAP Analytics Vision, welche auch gut die Themen der SAP TechEd 2016 wiederspiegelt:

image02

Quelle: SAP TechEd 2016 – ANP102

Dabei möchte die SAP das HCP-basierte BusinessObjects Cloud als “analytics application factory” positionieren, welche wohl mit dem Digital Boardroom seine bisher bekannteste Ausprägung hat.

Die BusinessObjects BI-Plattform bekommt eine Fiori-likes Lifting beim BI Launchpad verpasst.

Bei den Frontends war Lumira 2.0 wichtig, welches in Q1/2017 kommen soll und in einem ersten Step Design Studio und Lumira zusammenführt. Dabei wird es nach wie vor zwei Frontendtools Lumira Discovery (ehem. Lumira) und Lumira Designer (ehem. Design Studio) geben, welche sowohl über ein Austauschformat den gleichen Bericht bearbeiten können, sowie auf der BI-Plattform mit einem gemeinsamen Add-In installiert werden. Mit den neuen gemeinsamen Release werden beide Werkzeuge auch stark überarbeitet und erweitert. Das neue Release wird nur auf der BI-Plattform laufen und unterstützt wie von der SAP auch bereits für andere BO-Werkzeuge angekündigt, nicht mehr NetWeaver oder HANA als Anwendungsplattform.

Somit sieht die BI Frontendstrategie der SAP wie folgt aus:

image04Quelle: SAP TechEd 2016 – ANP100

Predictive Analytics wurde von verschiedenen Seiten betrachtet. Unter dem Stichwort “Massive Predictive Analytics” will SAP das Werkzeug SAP BusinessObjects Predictive Analytics 3.0 sowohl als Predictive Factory (hohe Automatisierung, kein Coding, viele Modelle), wie auch als Predictive Analytics für die Masse positionieren. Dabei soll das Werkzeug Big Data-fähig, embedded und Cloud- und On-Premise-ready sein.

Die SAP hat in folgendem Vergleich typische Fragestellungen aus BI und Predictive Analytics gegenübergestellt:

image00Quelle: SAP TechEd 2016 – ANP108

Schön, dass in der gleichen Präsentation auch noch das folgende Statement zu finden ist:

“Predictive is NOT about telling the future – it is about understanding the past.”

Das schwierige an Vorhersagen ist eben nach wie vor, dass die Zukunft eben doch niemand kennt und die Vergangenheit immerhin Fakten abbildet. Letztendlich dient jede Analyse dazu, für die Zukunft Entscheidungen zu unterstützen.

Und auch in der Businessobjects Cloud kommt das Thema Predictive langsam ans Laufen. Auch wenn die Folien alleine dazu leider nur wenig hergegeben.

Beim Bereich Data Warehousing positioniert sich SAP immer stärker mit einem eigenen, HANA-basierten Ansatz unabhängig vom BW. Dabei kommt mittlerweile eine sehr Breite Palette an SAP-Werkzeugen zum Einsatz. Diese können jedoch aufgrund der losen Kopplung der Werkzeuge natürlich auch durch Nicht-SAP-Werkzeuge ersetzt werden:

image05Quelle: SAP TechEd 2016 – DMM104

Auch bei S/4HANA Analytics tut sich einiges und schaut man sich beispielsweise die folgende Übersicht an, so findet man sich mit den klassischen BI-Möglichkeiten wie BW und BusinessObjects BI (On-Premise) nur noch als einer unter Vielen wieder:image01

Quelle: SAP TechEd 2016 – ANP109

Ich denke als Fazit kann man sagen, dass sich bei der SAP im Bereich BI & Analytics an vielen Stellen viel tut. Im Frontendbereich werden auf der einen Seite Werkzeuge konsolidiert, wie jetzt bei BusinessObjects BI (Lumira 2.0/Simplification), auf der anderen Seite entstehen immer neue Werkzeuge in der Cloud oder für operatives Reporting. Bleibt abzuwarten, was sich hier die nächsten Jahre durchsetzt und ob es evtl. Auch übergreifend mal wieder zu einer Konsolidierung kommen wird.

Beim Data Warehouse öffnet man sich für Big Data und IoT mit dem BW/4HANA oder SQL-getriebenen DWH-Ansätzen, welche eine Vielzahl neuer Werkzeuge ins Spiel bringen. Diese überschneiden sich wiederum stark mit dem Thema Enterprise Information Management, welches die SAP auch immer wieder als separates Thema positioniert und mit einigen neuen Tools aufwartet.

Das Thema Predictive Analytics ist zwar an vielen Stellen zu finden. Jedoch ist hier die Entwicklung aus meiner Sicht etwas kontinuierlicher und übersichtlicher, auch wenn man hier genauso von dem eigenständigen Werkzeug, wie den Möglichkeiten in HANA, im BW oder in der BO Cloud sprechen kann. Trotz des breiten Ansatzes landet man hier doch immer wieder beim gleichen Kern.

BW vs. S/4 HANA

Viel wird diskutiert darüber, ob mit einer S/4 HANA oder eben auch noch einer Suite on HANA ein SAP BW (on HANA) überhaupt noch notwendig ist.

Schon die Frage ist falsch gestellt. Den es gibt schon abgesehen von der Unternehmensrealität gänzlich verschiedene Grundsituationen.

Beispielsweise hat die DSAG bereits 8 grundlegende Szenarien für Analytics on HANA unterschieden:

8 HANA Bausteine

Quelle: DSAG-Leitfaden SAP HANA

Dann stellt sich ja nicht nur die Frage, BW oder ERP on HANA. Es gibt auch ein embedded BW oder ein HANA DW welche in diesem Zusammenhang wieder ganz andere Aspekte hineinbringen und zu berücksichtigen haben. Genauso kann die aktuelle Prüfung von Cloud-Angeboten eine Rolle spielen. Auch ist ein bestehendes SAP BW-System, in welches man bereits über Jahre viel investiert hat, doch ein starkes Kriterium gegen eine Ablösung durch ein ERP-basiertes Reporting.

Aus meiner Sicht favorisiert und kommuniziert die SAP die Ansätze HANA Live und S/4 HANA Analytics für operatives Reporting in einem Kontext, der i. d. R. auf das eine System und die darin regulär vorkommenden Daten beschränkt ist.

Trotzdem will ich im folgenden eine kurze Übersicht über Aspekte geben, welche eine erste Orientierung geben können, wann S/4 HANA evtl. ausreicht oder nach wie vor ein SAP BW, evtl. eben auch „on HANA“, sinnvoll ist.

BWvsS4HANA

Quelle: eigene Recherchen, DSAG-Leitfaden, Erfahrungswerte

Zuletzt ist jedoch immer eine individuelle Betrachtung der eigenen Situation, sowie der zukünftigen Planung entscheidend.

SAP BI Statement of Direction für On-Premise

Heute wurde ein aktuelles Statement of Direction (SOD) für BusinessObjects BI veröffentlicht.

Nachdem vor Kurzem auf zum Start der SAPPHIRENOW bereits kund getan wurde, dass alle BI-Lösungen, On-Premise und Cloud unter BusinessObjects laufen. Und mit der starken Präsentation der Cloud BI-Lösung von SAP überlegt man sich natürlich schon, wo geht das alles hin.

Nun, was kann man aus dem SOD mitnehmen, welches immerhin auf 20 Seiten präsentiert wird?

Mit dem SOD möchte SAP eine Roadmap für die nächsten 2 Jahre aufzeigen. Zunächst tut die SAP dies, in dem Sie klar darstellt, dass sowohl in die Cloud wie auch in On-Premise BI weiter investiert wird. Die Strategie ist „Innovate the core and lead the cloud“.Durch die Digitale Transformation werden Themen wie Predictive, Self-Service und Realtime immer wichtiger.

Innovate the core
Timo Elliott, 2016

SAP sieht Analytics und BI als die Schlüsseltechnologie, um aus der dem digitalen Business Werte zu schöpfen. SAP wirbt hier mit dem Stichwort „Reimagine Analytics

Nach der Vorstellung der allgemeinen Richtung liegt der Schwerpunkt des SOD auf den folgenden Tools:

Schade, dass Crystal Reports hier nicht auftaucht. Ist es doch immer noch Teil der Simplification-Roadmap von SAP.

SAP sieht zwei Trends am Markt. Den Trend in Richtung Self-Service BI. SAP sieht hier Lumira und Analysis for Office positioniert. Bei Lumira wurde massiv investiert in neue Funktionen und durch die Verschmelzung mit Design Studio Ende 2016 wird hier die Strategie weiter entwickelt. Bei Analysis for Office wurde ein gemeinsames Add-In mit BPC entwickelt, um den Nutzen beider Welten zu erhöhen.Zukünftig soll dieses noch um Live Office-Funktionen erweitert werden.

Der zweite Trend ist, in die IT-gesteuerte Unternehmens-BI skalierbarer und vertrauenswürdiger zu machen. Erreicht werden soll das durch die Vereinfachung des SAP BI-Portfolios, ein einfacheres Plattformmangement und die Modernisierung der BI-Werkzeuge. Die SAP sieht hier Design Studio, Web Intelligence und Crystal Reports (also doch Crystal Reports, im Dokument jedoch ohne BusinessObjects vorangestellt???):

Mit Design Studio 1.5 und 1.6 sollten hauptsächlich die Lücken zu BEx Web Application Designer und SAP BusinessObjects Dashboards geschlossen werden. Aber auch viele neue Features wie die Scorecard-Komponente oder Smart Objects. Die BI Plattform 4.2 liefert die vertrauenswürdige Basis für BI im ganzen Unternehmen.

Auch Web Intelligence liefert viele Erweiterungen mit BIP 4.2 und für alle Tools wird weiter investiert und an den oben genannten Zielen gearbeitet.

Auch die BusinessObjects Mobile-Lösung ist klar weiter gesetzt und hat ihren Cloud-Gegenspieler nun mit Roambi gefunden. Zukünftig wird Lumira hier u. a. noch stärker unterstützt werden.

SAP BusinessObjects Predictive Analytics soll seine Position weiter ausbauen. Ebenso wird in die prädiktiven Fähigkeiten von HANA investiert. Predictive Anaytics soll für jeden Anwender nutzbar werden. Das wird von SAP als ein „data scientists in a box“ beschrieben.

Des weiteren sieht SAP die HANA Plattform als Digital Enterprise Platform, welche zwar auf der „Cloud First“-Philosophie beruht, jedoch bereit ist, die Brücke zwischen Cloud und On-Premise zu schlagen. BusinessObjects BI-Werkzeuge sind Schlüsselelemente dieser Plattform.

Bzgl. S/4 HANA werden die Core Data Services das zentrale Element sein, um im gesamten Kontext von S/4 HANA alle Möglichkeiten für operative, taktische und strategische Analytics , unterstützt auch durch ein embedded BW zu liefern. Das Ziel ist dabei alle Standard-ABAP-Berichte abzulösen.

Und zu guter Letzt, nach einem erneuten Werbeblock für die Cloud BI-Welt fordert die SAP die Community auf, mitzumachen und sich einzubringen.

Alles in allem, nicht viel unerwartetes. Wenig, was nicht schon die letzten Wochen bekannt geworden ist. Jedoch sicherlich eine gute Zusammenfassung, um klar zu stellen, wohin der Weg geht.

Seien wir gespannt wie es weiter geht…

Gartner MQ CPM – aus 1 mach 2

Gartner definiert Corporate Performance Management (CPM) wie folgt:

„CPM is an umbrella term that describes the methodologies, metrics, processes and systems used to monitor and manage the business performance of an enterprise. Applications that enable CPM translate strategically focused information to operational plans and send aggregated results. These applications are also integrated into many elements of the planning and control cycle, or they address BAM or customer relationship optimization needs.
CPM must be supported by a suite of analytical applications that provide the functionality to support these processes, methodologies and metrics.“

Gartner hat ende Mai zwei neue Magic Quadrants veröffentlicht. Aus dem ehemaligen MQ für Corporate Performance Management wurden zwei neue MQ’s entwickelt:

  • Magic Quadrant for Financial Corporate Performance Management Solutions (FCPM)

    „Financial corporate performance management solutions must be understood by the financial application strategists within enterprise finance organizations, so that they can improve efficiency and compliance in processes leading to the financial close.“

  • Magic Quadrant for Strategic Corporate Performance Management Solutions (SCPM)

    „Strategic corporate performance management solutions help CFOs and other business leaders manage organizational performance and strategy.“

Schon 2015 hat Gartner diesen Schritt in dem Artikel „The Breakup of the CPM Suite“ angedeutet. Für FCPM sieht Gartner die Möglichkeit, Buchhaltungsprozesse, sowie Management Reporting und Analyse zu verbessern. Bei SCPM sieht Gartner die Entwicklung hin zu einer stärkeren Unternehmensplanung, Performance Reporting und Strategiemanagement.

SAP ist in den beiden neuen MQ’s als Leader vertreten. Bei FCPM teil sich SAP den Quadranten mit Oracle, Blackline und Workiva. Bei SCPM sind Oracle, IBM und Adaptive Insights unter den Leadern.

Interessant bei SCPM finde ich SAS, welche hier als Challenger positioniert sind, während sich die 11 anderen im unteren Bereich bzgl. „Ability to Execute“ befinden. Interessant aus meiner Sicht auch Jedox, die als Open Source-Anbieter im BI-Umfeld bekannt sind. Wenn Sie hier auch nur als abgeschlagener Nischenanbieter auftreten.

SCPM scheint auf den ersten Blick bei den Lösungen bereits ausgereifter. Der Schwerpunkt bewegt sich im Leader-Quadranten und nahe darum herum. Interessant ist, das es IBM hier gerade nicht mehr rein geschafft hat.

Neben den aus dem BI-Umfeld bekannten Markführern IBM, Oracle und SAP gibt es noch einige Anbieter, welche in beiden MQ’s zu finden sind: Tagetik, Host Analytics und Longview Solutions.

Nun, welche Tools von SAP sind in den jeweiligen Themenbereichen betrachtet worden:

SAP CPM Gartner

An den Themen und Tools zeigt sich klar, dass SCPM in den meisten Unternehmen wohl klar im Controlling und Management daheim sein dürfte, während sich mit der rechten Seite eher das interne Rechnungswesen beschäftigt.

In gewisser Weiße ist es schade, dass hier klar auch die Produktstrategie der SAP einfließt und bereits ältere Produkte wie SEM-BCS (Konsolidierung) und BW-IP (Planung), gleich gar nicht mehr betrachtet. Erfreuen sich die Werkzeuge aufgrund ihrer Historie bei SAP-Kunden nach meinem Wissen einer doch immer noch sehr breiten Basis. Wobei bei BW-IP durchaus gesehen werden könnte, dass IP (Integrierte Planung) und BPC in der Produktstrategie der SAP vereinigt werden.

Wie sich im weiteren auch noch zeigt, ist SAP mit SAP Business Planning and Consolidation (BPC) auf beiden Seiten präsent. Es wird hier ganz klar für beides als Flagship-Produkt von SAP dargestellt. Eine klarere Trennung ergibt sich also erst aus den weiteren Tools, von denen SAP ja auch eine gute Auswahl bietet.

Ich Folgenden zeigt sich, wie Gartner die Werkzeuge für die jeweilige Seite einschätzt, wo die Stärken sind und wo man als Kunde aufpassen muss:

CPM StrenCaut Pic

Aufgrund dessen, dass mit BPC das gleiche Produkt bewertet wird, wenn auch erstmal für doch unterschiedliche Aufgaben, verwundert es nicht, wenn sich die beiden Seiten zu einem großen Teil decken.

Grundsätzlich ist die Bewertung hier sehr Pauschal, bedenkt man die Vielzahl der Werkzeuge, welche hier dahinter stecken.