Research: Cloud Data Warehouse

Seit kurzem scheint das Thema „Cloud Data Warehouse“ (CDW) im Trend zu sein. Zumindest Forrester hat für Q4/2018 eine eigene Forrester Wave herausgegeben genau zu dem Thema. Darin wurden 14 Anbieter untersucht.

Forrester definiert das Cloud Data Warehouse wie folgt (frei übersetzt):

Ein sicheres, skalierbares On-Demand Self-Service Data Warehouse, welches die Datenbeschaffung, Administration, Tuning, Backup und Recovery automatisiert um Analytics und wertvolle Erkenntnisse bei gleichzeitiger Minimierung der administrativen Anforderungen zu liefern.

– The Forrester Wave™: Cloud Data Warehouse, Q4 2018

Nachdem GA für SAP Data Warehouse Cloud erst für Q4/2019 angekündigt ist, sind andere Anbieter hier schon deutlich länger auf dem Markt, z. B.:

  • Google Big Query (11/2011)
  • Amazon Redshift (10/2012)
  • Snowflake Computing (06/2015)
  • Microsoft Azure SQL Data Warehouse (07/2016)
  • Oracle – Autonomous Data Warehouse Cloud (03/2018)

In sofern ist SAP in The Forrester Wave auch nicht vertreten bzw. hat offensichtlich den Kriterien der Untersuchung nicht genügt.

Im Magic Quadrant von Gartner (01/2019 – Gartner Magic Quadrant for Data Management Solutions for Analytics) findet SAP noch seinen Platz und auch der Cloud-Trend bleibt nicht unbemerkt. Eine Abgrenzung wird von Gartner hier jedoch noch nicht vorgenommen. Somit wird BW/4HANA, HANA selbst (welche jedoch als in der Cloud verfügbar wahrgenommen wurden) sowie der SAP Cloud Platform-basierte Big Data Service analysiert. Trotz Kritikpunkten bei Themen wie der Elastizität wird beispielsweise die Multi-Cloud Strategie positiv hervorgehoben und SAP ist bei Gartner im Leader-Quadranten vor Anbietern wie Snowflake, IBM und Google zu finden.

Bei Forrester sind die Leader ganz klar Amazon Web Services (AWS), Snowflake, Google und auch noch Oracle.

2017 hat BARC im ihrer Reseach Study „BI and Data Management in the Cloud: Issues and Trends“ folgende Feststellung gemacht (frei übersetzt):

Unternehmen betreiben eher BI (Frontend)-Anwendungen in der Cloud als Data Warehouses, Data Marts oder Datenintegration.

Data Management-Lösungen benötigen IaaS und PaaS sowie die Prüfung von Datenschutz, Datensicherheit und unternehmenspolitischer Aspekte.

In der BARC Research Study „Datenmanagement im Wandel“ von 2014 zeigt sich ein noch viel nüchterneres Bild:

  • Bei der Frage, was sich aktuell konkret verändert, antworteten nur 6% mit „Rückgriff auf cloud-basierte Data Warehouse“
  • Die Frage nach dem Umgang mit Self-Service BI beantworteten gerade mal 2% mit „Auslagerung in die Cloud“
  • Im Vergleich zu anderen Ansätzen war die Lösung „Cloud-basierte Data Warehouse-Lösungen“ zur einfacheren Umsetzung von DWH-Anforderungen weit abgeschlagen. Wichtiger waren „In-Memory Datenbanksysteme“, „Automatisiertes DWH“, uvam.

Im Whitepaper „Cloud Data Warehouse Trends for 2019“ wird nun jedoch die Frage aufgeworfen, ob das CDW gar der Schlüssel zur Digitalen Transformation ist. Die Antwort folgt schnell. Das CDW wird als wichtiger erster Schritt zum datengetriebenen Unternehmen gesehen.

Lt. Whitepaper sind die Top-Gründe für das CDW:

  • Flexibles Kostenmodell
  • Vorteil der Nutzung von Cloud-Features
  • Bessere Performance

Typische Anwendungsfälle sind:

  • Kundenanalysen für das Marketing
  • Finanzanalysen
  • Vertriebsunterstützung
  • Anbindung an einen Data Lake für Analytics
  • Kundenserviceanalysen
  • IT-Analytics

Die größten Herausforderungen dabei sind:

  • Data Governance
  • Integration von Daten aus unterschiedlichen Quellen
  • Daten in das Data Warehouse zu bekommen
  • Einfacher Datenzugriff für den Anwender
  • Kosten

Nun gut, es zeigt sich, dass Thema Cloud Data Warehouse ist nicht neu. Der Self-Service Trend hat jedoch das Angebot sicherlich verändert. So positioniert SAP sein angekündigtes SAP Data Warehouse Cloud mit der Zielgruppe Business Analyst, wie auch schon SAP Analytics Cloud.

Persönlich denke ich, als BI-Berater wird man deshalb nicht arbeitslos. Aber Aufgaben werden sich verändern. Die Fachbereiche werden mündiger und können einen immer größeren Bereich selbst abdecken. Das ist gut, weil es die faktenbasierte Entscheidungsfähigkeit bei richtiger Strategie stärkt. Denn eines ist klar. Excel ist und bleibt das beliebteste Tool für BI und ist dank Office 365 auch in der Cloud verfügbar mit Power Pivot und Power BI als Verstärkung. Ob das gut ist, ist eine ganz andere Frage.

Die Herausforderungen sind immer neue Datenquellen, gerade wegen der Cloud. Die Harmonisierung und semantisch saubere Integration der Daten überfordert Fachbereiche oder führt dort zur Spezialistenbildung. Die zunehmende Dynamik im Internet wie auch die zunehmende Agilität in Unternehmen erfordert eine schnelle BI-Adaption und Konzept-Know-How im Umgang mit historischen Daten. Daten sind nicht mehr nur strukturiert, sondern das, was bisher Big Data und NoSQL geleistet hat, wird zunehmend integriert und erhöht die Anforderungen. Basistechnologien wie SAP HANA liefern heute Funktionalitäten wie Text, Spatial, Predictive Analytics oder Graph-Verarbeitung, um höheren Nutzen aus den Daten zu ziehen. Die Komplexität der nutzbaren Methoden nimmt damit immer weiter zu. Die Vielfalt verfügbarer Komponenten und neuer oder unterschiedlicher Schnittstellen ebenso. Die Anforderung an die Datenqualität werden deutlich steigen und eine ganzheitliche Sicht auf das Unternehmen rückt eher in die Ferne als Realität zu werden.

Für Unternehmen mit einfachen operativen Systemen und überschaubaren Anforderungen an Reporting und Datenanalysen werden es also leicht haben, jedoch auch nur geringen Nutzen aus einer zunehmen Digitalisierung ziehen. Für alle anderen ist Self Service und zunehmende Data Literacy eine Notwendigkeit um irgendwie noch mithalten zu können, da die IT-Fachkräfte nicht schnell genug vom Baum wachsen werden.

Gartner Magic Quadrant – Data Science Platforms 2017

Zunächst einmal – SAP hat den „Magic Quadrant for Advanced Analytics Platforms“ umbenannt in „Magic Quadrant for Data Science Platforms“. Als Grund gibt Gartner an, dass Data Scientists zu den Hauptnutzern dieser Plattformen gehören.

Gartner definiert eine Data Science Platform wie folgt:

„A cohesive software application that offers a mixture of basic building blocks essential for creating all kinds of data science solution, and for incorporating those solutions into business processes, surrounding infrastructure and products.

Im Vergleich zum 2016 MQ fällt auf, dass der Leaders-Quadrant erstmal recht gleich geblieben ist. IBM, SAS, RapidMiner und KNIME sind die Leader. Dell ist rausgefallen, jedoch wird erklärt, dass Dell in Quest aufgegangen ist. Quest hat in 2017 eine gute Position im Challenger-Quadranten.

Bei den Leadern ist noch zu erwähnen, dass IBM hier 2017 eine klare Führungspositon einnimmt. Im Vorjahr war das noch nicht so klar, war doch SAS und auch KNIME in der „Completeness of Vision“ noch etwas vorne und SAS lag in der „Ability to Execute“ vorne und hatte somit 2016 die Führungsposition.

Nun, die Frage ist, wo liegt SAP, wo im Vergleich und was hat sich getan? Microsoft möchte ich ebenso betrachten.

SAP hatte es 2016 gerade in den Challenger-Quadranten geschafft. In 2017 ist SAP etwas abgerutscht und somit ein starker Nischenplayer. Nun gut, es verwundert wenig. Aktuell läuft von SAP auf OpenSAP der Kurs „Getting Startet with Data Science„. Schwerpunkt ist das hier im Magic Quadrant ebenfalls bewertete SAP BusinessObjects Predictive Analytics und dessen Nutzung im Rahmen des CRISP-DM-Prozesses. Gut, der Kurs heißt „Getting Startet…“ jedoch ist das wirklich Grundlagenarbeit. Die Arbeit mit SAP BO Predictive Analytics hat mich schon etwas überrascht. Ohne R-Integration ist die Anzahl der verfügbaren Algorithmen sehr überschaubar und richtig komplexe Sachen kann man im „Expert Mode“ auch kaum machen.

SAP’s Stärken 2016:

  • Klares Commitment zu Analytics
  • Vision für Cloud Analytics
  • Umfang der möglichen Use Cases
  • Embedded Analytics
  • Leicht zu lernen und zu benutzen

SAP’s Stärken 2017:

  • SAP HANA-Integration
  • Support for Citizen Data Scientists (Automated Analysis)
  • Deployment (Predictive Factory & Analytics Extensions)
  • Klares Commitment zu Analytics
  • Umfang der möglichen Use Cases

SAP’s Warnungen 2016:

  • Geringe Gesamtzufriedenheit, Support und Vertriebsbeziehungen
  • Zu wenig Innovationen (wie z. B. Spark- oder Phyton-Integration oder Collaboration)
  • Kunden hautsächliche innerhalb der Bestandskunden

SAP’s Warnungen 2017:

  • Kunden hautsächliche innerhalb der Bestandskunden
  • Geringe Gesamtzufriedenheit
  • HANA-First-Strategy
  • Zu wenig Innovationen (wie z. B. Spark- oder Phyton-Integration oder Collaboration)

Zusammenfassend läst sich für SAP also sagen, SAP PA ist recht schnell zu erlernen und bietet dabei ein breites Anwendungsspektrum. Jedoch wurden die Warnungen nicht erhöhrt und finden sich in 2017 wieder. Der Fokus auf HANA ist Chance und Risiko zugleich.

Microsoft gilt als Visionär im MQ. In 2017 sind Sie etwas höher an die Schwelle zum Leader gerückt. War 2016 noch SASS der Schwerpunkt der Betrachtung da andere Produkte erst frische am Markt waren, so schwenkt der Schwerpunkt in 2017 zum Azure Machine Learning (AML) Angebot als Teil Cortana Intelligence Suite.

MS’s Stärken 2016:

  • Höchste Bewertung bei „Completeness of Vision“
  • Bester Analytics Cloud Marktplatz (Cortana Analytics Library) mit großem Partner Ökosystem
  • Produktroadmap und Vision
  • AML bietet eine einfache Integration von Cloud-Data Sources
  • Plattform-Skalierbarkeit und Pay as you use
  • Starke OpenSource-Integration

MS’s Stärken 2017:

  • Plattform-Skalierbarkeit & Flexibilität
  • Bester Analytics Cloud Marktplatz (Cortana Analytics Library) mit großem Partner Ökosystem
  • Starke OpenSource-Integration
  • Innovativ im Bereich Bild- und Spracherkennung sowie Deep Learning
  • Starke Machine Learning-Fähigkeiten sowie Collaboration und Automatisierung
  • Starke Produktroadmap und Vision

MS’s Warnungen 2016:

  • Zu starker Fokus auf Cloud (speziell ALM)
  • Unsicherheit über Produktstrategie bzgl. integrierter Tools (z. B. Revolution Analytics)
  • Zum Teil geringe Kundenzufriedenheit (jedoch eher bzgl. traditioneller Tools wie SSAS)

MS’s Warnungen 2017:

  • Zu starker Fokus auf Cloud (speziell ALM)
  • Cortana Intelligence Suite ist noch neu und unreif
  • Delivery Optionen
  • Einige Bereiche sind schwach ausgeprägt (Dokumentation, Data Preperation, Branchenlösungen)

In Summe lässt sich über das Microsoft-Angebot sagen, es ist skalierbar und flexibel, hat eine hervorragende Roadmap und Open Source-Integration. Der Fokus ist auf Cloud, was von den Kunden nicht immer als Vorteil gesehen wird. Auch ist das Produkt noch recht neu, entwickelt sich jedoch schnell weiter.

Soweit zu den zwei Anbietern, welche für mich interessant sind. Aktuell ist keiner davon Leader oder Challenger. Microsoft hat bei der Completeness of Vision jedoch klar die Nase vorne und macht den Eindruck, möglicherweise bald in den Leader-Quadranten aufzusteigen. SAP hat nach meiner Beobachtung seine Aktivitäten stark gestreut auf viele Produkte und kommt deshalb nicht vergleichbar voran. Um zu den führenden Anbietern aufzuschließen fehlt noch ein wenig. Wie üblich ist das Produkt eher bei Bestandskunden verbreitet und tut sich aktuell schwer im breiten Markt.

BI & Machine Learning

Howard Dresner stellt in seinem aktuellen Blog die Frage „Is Artificial Intelligence the Future of Business Intelligence?

Bei SAP selbst tauchen Begriffe wie Machine Learning (ML) oder Artificial Intelligence (AI) immer wieder auf. So ist Bernd Leukert als SAP Vorstand für Produkte & Innovationen auch Aufsichtsrat des Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Bill McDermott hat in einem vor Kurzem erschienen Interview klar gesagt, dass SAP zukünftig eine führende Rolle in diesem Bereich einnehmen will. Er wird dabei wie folgt zitiert:

“We want to become the world-wide machine learning leader for corporate businesses, hands down,” …

“Our goal is to have the most intelligent business applications and we’re doing everything we can to achieve that.”

Nicht zuletzt hat SAP aktuell auf der MOOC-Plattform OpenSAP einen Kurs mit dem Titel „Enterprise Machine Learning in a Nutshell“ laufen.

Nun, schaue ich mir den OpenSAP-Kurs so an, dann sehe ich kaum Unterschiede zu dem, was ich schon 2006 zu Diplomarbeitszeiten gesehen und gelesen habe und was heute oft unter dem Label Predictive Analytics verkauft wird.

Schaut man sich die aktuellen Tools von SAP an, so findet man immer wieder die Verwendung der Automated Predictive Library (APL) und der Predictive Analysis Library (PAL) sowie der OpenSource Statistik-Bibliothek R, welche sich bei vielen Anbieter großer Beliebtheit erfreut. APL und PAL sind natürlich Teil von HANA selbst. Und im BW ist die Integration mit dem HANA Analysis Process möglich. Dann gibt es auch noch das Werkzeug SAP Predictive Analytics, welche grafische Oberflächen zur Modellierung bietet. Und auch in das noch sehr neue SAP Produkt SAP BusinessObjects Cloud hat Predictive mittlerweile Einzug gehalten.

Begriffe, welche man in dem Zusammenhang neben Künstliche Intelligenz und Maschinellem Lernen immer wieder hört, sind Data Mining, Statistik, Deep Learning und manchmal vielleicht auch noch Data Science.

Gartner beschreibt Maschinelles Lernen/Machine Learning wie folgt:

Advanced machine learning algorithms are composed of many technologies (such as deep learning, neural networks and natural-language processing), used in unsupervised and supervised learning, that operate guided by lessons from existing information. 

Lt. Gartner stellt sich Künstliche Intelligenz/Artificial Intelligence deutlich komplexer dar:

Artificial intelligence is technology that appears to emulate human performance typically by learning, coming to its own conclusions, appearing to understand complex content, engaging in natural dialogs with people, enhancing human cognitive performance (also known as cognitive computing) or replacing people on execution of nonroutine tasks. Applications include autonomous vehicles, automatic speech recognition and generation and detecting novel concepts and abstractions (useful for detecting potential new risks and aiding humans quickly understand very large bodies of ever changing information).

Gerade der hier auftauchende Begriff „Cognitive Computing“ zeigt, dass in dem Bereich aktuell viel Bewegung ist, bei dem IBM mit Watson ein Vorreiter ist. Jedoch beispielsweise auch die deutsche BITKOM das Thema für sich entdeckt hat.

Als ich 2006 meine Diplomarbeit zum Thema Data Mining (DM) schrieb, war die Welt noch etwas einfacher. Daten waren noch nicht so „Big“ oder „Smart“ und die Begriffswelt noch nicht so ausdifferenziert.

Data Mining beschrieb ich neben OLAP und Planung als Analysetechnik welches typischerweise auf einem Data Warehouse basiert:

„Data mining is the process of discovering meaningful new correlations,
patterns and trends by „mining“ large amounts of stored data using pattern
recognition technologies, as well as statistical and mathematical techniques.“
(Ashby, Simms 1998)

Bei der Herkunftsbestimmung aus diversen Büchern fand ich:

  • Statistik
  • Datenbankmanagement
  • Mustererkennung
  • Visualisierung
  • Künstliche Intelligenz – vor allem der Bereich „Maschinelles Lernen“

Viele der Begriffe versucht man heute viel deutlicher voneinander abzugrenzen, als das nach meinem Gefühl vor 10 Jahren der Fall war. Möglicherweise ist das aufgrund der weitergeführten Forschung in den Bereichen, dem technologischen Fortschritt sowie geänderter Rahmenbedingungen (z. B. 3 V’s) auch absolut sinnvoll.

Nehme ich mal die drei aus meiner Sicht am engsten miteinander verbundenen Begriffe und schaue mir mal die Trends bei Google an, zeigt sich folgendes:

ki_ml_dm01

Offensichtlich zeigen AI und DM eine gewisse Korrelation über die Zeit. Machine Learning hat dafür lange vor sich dahingedümpelt, bis die letzten Jahre der Trend doch angezogen hat, so das Machine Learning an den anderen beiden Begriffen vorbeigezogen hat. Interessant auch der Blick auf die weltweite Verteilung:

ki_ml_dm_02_welt

Möglicherweise sind die Begriffe auch noch sehr regional geprägt. Während Data Mining doch recht verbreitet zu sein scheint, ist Machine Learning wohl vor allem in Skandinavien populär.

Gartner hat im Hype Cycle für Advanced Analytics und Data Science, 2015 das Thema Machine Learning auf dem Gipfel der überhöhten Erwartungen gesehen. Direkt vor Predictive Analytics. Der Hype Cycle 2016 hat sich dazu kaum verändert.

Bei den vor Kurzem für 2017 veröffentlichten Technologie-Trends sieht Gartner das Thema AI & ML als Top 1 und meint:

AI and machine learning have reached a critical tipping point and will increasingly augment and extend virtually every technology enabled service, thing or application.

In diesem Sinne folgen an Stelle 2 und 3 auch gleich die Themen „Intelligent Apps“ und „Intelligent Things“, welche letztendlich wieder stark auf AI basieren.

Howard Dresner schließt seinen Blog mit der Überlegung, das AI im BI-Umfeld ein Thema ist, wenn sie die Daten besser analysieren kann, als ein Mensch. Jedoch warnt er auch, dass AI trotz seines Alters (Ursprünge in den 50er-Jahren) heute keine reife Technologie ist und für Fehler sehr wohl anfällig sein kann, wie bspw. Microsoft im Frühjahr 2016 erfahren musste.

Was bedeutet dies nun für den klassischen SAP BI-Berater, der mit SAP BW, BEx und evtl. BusinessObjects BI unterwegs ist? HANA kommt, aber ist eben noch nicht überall angekommen. Bis zur BusinessObjects Cloud ist es für viele vor allem in Deutschland ebenfalls noch ein langer Weg. Und SAP Predictive Analytics ist aus meiner Erfahrung von der Lizenz her recht teuer.

Ich glaube zurück zur SAP BW Data Mining Workbench und zum Analyseprozessdesigner möchte auch niemand unbedingt. Die Automated Analytics-Ansätze richten sich schon an den Business User. Muss man dann evtl. nur noch technisch und bei der Bereitstellung der Daten unterstützen? Oder braucht man gleich die Weiterbildung zum Data Scientist?

Ich denke es sind einfach auch verschiedene Skills, wie auch verschiedene Anforderungen an die IT, die hier im Spiel sind. Trivial zu beantworten ist dies deshalb sicherlich nicht. Jedoch ist aus heutiger Sicht klar, alles, was eine SAP aktuell unter Analytics zusammenfasst, kann sowieso nur im Team abgedeckt werden. Dieses aufzubauen und zu strukturieren ist vielleicht die wahre Herausforderung.

Self Service BI am Beispiel SAP Lumira – aus IT-Sicht

Lumira ist ein interessantes BI-Werkzeug und im letzten Gartner Magic Quadrant für BI und Analytics Platforms repräsentierte es im Schwerpunkt SAP. Gartner sieht mit dem Schwenk von IT-zentrierter BI hin zu fachbereichszentrierter BI die Vollendung einer seit Jahren andauernden Entwicklung.

In gewisser Weise ist Lumira (aktuell im Release 1.31) sehr mächtig. Kein anderes BI-Werkzeug von SAP bietet vergleichbare Möglichkeiten bei der Akquisition und Transformation von Daten. Auch im Bereich Visualisierung/Explorative Datenanalyse hat Lumira wirklich seine Stärken. Die bisher kommunizierten Arbeitsschritte in Lumira waren je nach Release etwas abweichend: (Hier 2 Alternativen):

  1. Acquire Data / Acquiring Data
  2. Enrich Data / Preparing Data
  3. Build Visualizations / Visualizing Data
  4. Explore Data / Composing Stories
  5. Share with your teammates / Sharing Insights

Gerade der letzte Schritt war stark mit Lumira Cloud verbunden. Da Lumira Cloud wegen SAP BusinessObjects Cloud nicht mehr weiter entwickelt wird, steht diese Option nicht mehr zur Verfügung und man kann seinen Bericht oder seine Story „nur“ noch auf dem Server for Teams oder der SAP BI Plattform sichern.

Natürlich kann man ein Lumira nur bestimmten Key- oder Power-User an die Hand geben kann, um die Sache etwas unter Kontrolle zu halten und nicht für jeden seinen persönlichen Bericht in einem BI-System managen zu müssen. Dieser stellt dann für die Masse der User ein Dokument auf der BI-Plattform zur Verfügung. Dort verfügen die User nur über sehr eingeschränkte Anpassungsmöglichkeiten.

Im Folgenden eine Analyse der einzelnen Schritte in Lumira, deren Bedeutung und einer Bewertung aus IT-Sicht:

SSBI_Lumira

SAP Lumira hat wirklich seine Stärken. Jedoch muss man sich der Grenzen bewusst sein. Wäre in einem Unternehmen die IT entsprechend aufgestellt, so sollten Möglichkeiten wie Lumira nur in Kombination mit klassischen BI-Ansätzen für bestimmte Anwender und Situationen genutzt werden. Das Lumira unter diesem Namen mit Design Studio im Release 2.0 verschmilzt, macht es eher zu einem zukünftigen Werkzeug für Rapid Prototyping, erleichtert jedoch den Übergang in eine IT-gesteuerte Umgebung.

Eine mögliche Alternative hieße, dass letztendlich der Fachbereich seine eigene IT aufbaut. Das kann funktionieren, muss aber bewusst vom Unternehmen so gewollt sein. Den dadurch optimiert sich die Abteilung zwar für sich, schafft aber einen Graben zwischen sich und anderen Abteilungen, da Kennzahlen, Information Design und Datenbasis lokal und nicht vergleichbar sind.

Eine andere Alternative wäre, die IT agil bzw. Bi-modal aufzustellen. Wahrscheinlich besteht letztendlich ein großes Problem darin, dass die IT-Abteilungen bzw. BI-Teams selten die Kapazität haben, schnell genug auf Anforderungen/Änderungen zu reagieren. Auch wenn dies wünschenswert wäre, da damit das volle Potential von BI durch technisch ausgereifte Lösungen ausgenutzt werden könnte. Ob sich der Konflikt zwischen „verstehe die Technik“ und „verstehe den User/das Business“ jedoch jemals auflöst ist fraglich. Den die Technik alleine macht noch keine gute Business Intelligence aus.

Das BICC hat seine Erwartungen wohl nicht erfüllt, ist nicht überall realisierbar oder entwickelt sich vielleicht nicht schnell genug weiter. Vielleicht ist es letztendlich doch der letzte Notanker um BI zu retten.

Letztendlich muss hier im Rahmen einer Business-, IT und BI-Strategie hier ein passender Weg für jedes Unternehmen gefunden werden. Vorausgesetzt, solche Strategien sind überhaupt im Unternehmen vorhanden…

SAP BPC für Konsolidierung (High Level)

Aktuell ist es recht schwierig, genauere Informationen bzgl. SAP Business Planning and Consolidation (BPC) zu bekommen. Speziell wenn man sich für die Konsolidierung interessiert. Und dann evtl. auch noch, wenn man sich für die Microsoft-Variante interessiert…

Somit sind die folgende Informationen

a) von mir ohne großes Vorwissen im Bereich Planung/Konsolidierung 

b) aus einer High Level-Sicht bzgl. Konsolidierung

c) nicht abschließend und nach bestem Wissen und gewissen 

zusammengestellt.

Vorab sollte ich vielleicht auch noch schreiben, dass SAP natürlich auch noch andere Werkzeuge zur Konsolidierung im Portfolio hat. Das sind konkret:

  • SAP EC-CS (Enterprise Controlling – Consolidation)
    • SAP ERP-integriert
    • Vorgänger von SEM-BCS
  • SEM-BCS (Strategic Enterprise Management – Business Consolidation)
    • SAP BW-integriert
  • BO-FC (BusinessObjects Financial Consolidation)
    • Standalone
  • BPC (Business Planning and Consolidation)
    • Standalone, BW-integriert, S/4 HANA-integriert (über Embedded BW)

Dies Werkzeuge haben sicherlich verschiedene Stärken, Schwächen und Einsatzszenarien, welche auch in Zukunft noch den Bestand der Werkzeuge rechtfertigen. (Ausser vielleicht EC-CS, welches wirklich nicht mehr weiter entwickelt wird…)

Bei BPC tut sich jedoch aus meiner bisherigen Sicht besonders viel. Vor allem im Bereich Planung wurde viel entwickelt und BPC z. B. in die NetWeaver (NW)-Welt integriert.

Dazu kommt, dass SAP mit BPC, wie vor kurzem beschrieben, als Flagship-Produkt die führende Rolle sowohl im aktuellen Gartner Magic Quadrant für Strategic, sowie für Financial Corporate Perfomance Management (CPM) einnimmt.

Da zur Zeit mein besonderes Interesse der Konsolidierungsfunktion gilt, habe ich die folgenden Informationen aus diesem Blickwinkel zusammengestellt, um mir einen grundlegenden Überblick zu verschaffen. Natürlich sollten die Angaben für Planung genauso gültig sein.

BPC consolidation

Für mich ist vor allem die Möglichkeit interessant, nachher über BI-Werkzeuge wieder auf die konsolidierten Daten für ein Management-Reporting zuzugreifen. Dabei hat mir ein schneller Blick in die CMC gezeigt, dass hier sogar direkt eine Verbindung auf ein BPC for MS bzw. BPC for NW erstellt werden kann:

BPC in CMC

Dies kann natürlich die weitere Verarbeitung erleichtern und erscheint recht einfach, wie eine Demo auf YouTube zeigt.

Wie man sich nun entscheidet, bedarf sicherlich einer tiefergehenden Betrachtung. Geht es um eine Einführung mit dem Fokus auf Konsoliderung sind aktuell ganz klar BPC für MS bzw. BPC für NW Standard Model die Tools der Wahl. Als nächstes die Frage, ist die IT eher mit SAP oder Microsoft unterwegs? Damit sollte sich auch schon fast die Frage erledigen, ob die Daten eher aus einer heterogenen bzw. nicht SAP-Systemlandschaft stammt (was eher für MS spricht) oder ob die Daten sowieso schon im Schwerpunkt im SAP ERP (bzw. S/4 HANA)  oder auch schon integriert für weitere Verwendungszwecke in einem SAP BW vorliegen (was eher für NW spricht).

Wenn es denn Standalone und nah am Fachbereich sein soll, muss man sich sicherlich auch nochmal überlegen, ob SAP hier überhaupt die Lösung der Wahl ist. In dem Fall gibt der Markt ja auch noch ganz andere Lösungen her.

Gartner MQ CPM – aus 1 mach 2

Gartner definiert Corporate Performance Management (CPM) wie folgt:

„CPM is an umbrella term that describes the methodologies, metrics, processes and systems used to monitor and manage the business performance of an enterprise. Applications that enable CPM translate strategically focused information to operational plans and send aggregated results. These applications are also integrated into many elements of the planning and control cycle, or they address BAM or customer relationship optimization needs.
CPM must be supported by a suite of analytical applications that provide the functionality to support these processes, methodologies and metrics.“

Gartner hat ende Mai zwei neue Magic Quadrants veröffentlicht. Aus dem ehemaligen MQ für Corporate Performance Management wurden zwei neue MQ’s entwickelt:

  • Magic Quadrant for Financial Corporate Performance Management Solutions (FCPM)

    „Financial corporate performance management solutions must be understood by the financial application strategists within enterprise finance organizations, so that they can improve efficiency and compliance in processes leading to the financial close.“

  • Magic Quadrant for Strategic Corporate Performance Management Solutions (SCPM)

    „Strategic corporate performance management solutions help CFOs and other business leaders manage organizational performance and strategy.“

Schon 2015 hat Gartner diesen Schritt in dem Artikel „The Breakup of the CPM Suite“ angedeutet. Für FCPM sieht Gartner die Möglichkeit, Buchhaltungsprozesse, sowie Management Reporting und Analyse zu verbessern. Bei SCPM sieht Gartner die Entwicklung hin zu einer stärkeren Unternehmensplanung, Performance Reporting und Strategiemanagement.

SAP ist in den beiden neuen MQ’s als Leader vertreten. Bei FCPM teil sich SAP den Quadranten mit Oracle, Blackline und Workiva. Bei SCPM sind Oracle, IBM und Adaptive Insights unter den Leadern.

Interessant bei SCPM finde ich SAS, welche hier als Challenger positioniert sind, während sich die 11 anderen im unteren Bereich bzgl. „Ability to Execute“ befinden. Interessant aus meiner Sicht auch Jedox, die als Open Source-Anbieter im BI-Umfeld bekannt sind. Wenn Sie hier auch nur als abgeschlagener Nischenanbieter auftreten.

SCPM scheint auf den ersten Blick bei den Lösungen bereits ausgereifter. Der Schwerpunkt bewegt sich im Leader-Quadranten und nahe darum herum. Interessant ist, das es IBM hier gerade nicht mehr rein geschafft hat.

Neben den aus dem BI-Umfeld bekannten Markführern IBM, Oracle und SAP gibt es noch einige Anbieter, welche in beiden MQ’s zu finden sind: Tagetik, Host Analytics und Longview Solutions.

Nun, welche Tools von SAP sind in den jeweiligen Themenbereichen betrachtet worden:

SAP CPM Gartner

An den Themen und Tools zeigt sich klar, dass SCPM in den meisten Unternehmen wohl klar im Controlling und Management daheim sein dürfte, während sich mit der rechten Seite eher das interne Rechnungswesen beschäftigt.

In gewisser Weiße ist es schade, dass hier klar auch die Produktstrategie der SAP einfließt und bereits ältere Produkte wie SEM-BCS (Konsolidierung) und BW-IP (Planung), gleich gar nicht mehr betrachtet. Erfreuen sich die Werkzeuge aufgrund ihrer Historie bei SAP-Kunden nach meinem Wissen einer doch immer noch sehr breiten Basis. Wobei bei BW-IP durchaus gesehen werden könnte, dass IP (Integrierte Planung) und BPC in der Produktstrategie der SAP vereinigt werden.

Wie sich im weiteren auch noch zeigt, ist SAP mit SAP Business Planning and Consolidation (BPC) auf beiden Seiten präsent. Es wird hier ganz klar für beides als Flagship-Produkt von SAP dargestellt. Eine klarere Trennung ergibt sich also erst aus den weiteren Tools, von denen SAP ja auch eine gute Auswahl bietet.

Ich Folgenden zeigt sich, wie Gartner die Werkzeuge für die jeweilige Seite einschätzt, wo die Stärken sind und wo man als Kunde aufpassen muss:

CPM StrenCaut Pic

Aufgrund dessen, dass mit BPC das gleiche Produkt bewertet wird, wenn auch erstmal für doch unterschiedliche Aufgaben, verwundert es nicht, wenn sich die beiden Seiten zu einem großen Teil decken.

Grundsätzlich ist die Bewertung hier sehr Pauschal, bedenkt man die Vielzahl der Werkzeuge, welche hier dahinter stecken.

 

BI is Dead (by Timo Elliott, SAP)

Heute gibt es einen neuen Artikel von Timo Elliott von SAP mit dem Namen BI is Dead. Impulshaft möchte man entgegnen „totgesagte leben länger“. Jeder muss ich der Aussage grundsätzlich recht geben.

Wenn man sein Geld dafür bekommt, in seinem Unternehmen für „Enterprise“-BI verantwortlich zu sein, dann kribbelt es bei solchen Artikeln immer etwas.

Gut, schon lange gilt es als Binsenweisheit, dass z. B. der Enterprise Data Warehouse-Ansatz in Unternehmen nicht funktioniert, BICC’s eher eine Randerscheinung sind und es wahrscheinlich nie einen Single Point/Version/Source of Truth geben wird. Außer die Systemlandschaft ist sehr einfach.

Aber es ist auch klar, das Konzepte kommen und gehen und trotzdem immer etwas bleibt oder sich daraus weiter entwickelt.

Klar ist, das Bild, das man heute von BI hat, wird sich verändern. Enterprise BI wird aber nicht sterben. Auch Timo Elliott will uns das mit seinem Artikel natürlich nicht sagen. Würde er als SAP-Angestellter doch selbst schaden bei solch einer unreflektierten Aussage machen. Im weiteren Artikel stellt er aber gut dar, was Gartner mit dem Shift beim letzten Magic Quadrant sagen wollte. Solch Visualisierungen darf man ja auch nicht unreflektiert hinnehmen sondern muss sie hinterfragen. Timo Elliott hat uns einen Gefallen getan und diese Reflektion zur Beruhigung des BI-Volks in diesem Artikel übernommen.

Trotzdem ist die Entwicklung zu Self Service klar sichtbar. Schaut man sich das SAP-Portfolio im BI-Bereich mal an:

  • Web Intelligence – War schon immer auf den versierten Endanwender zugeschnitten
  • Lumira – ist ganz klar der Hoffnungsträger im Bereich Data Discovery
  • Design Studio – liefert Templates für Self Services, die für den ersten Wurf schon ganz schön liefern und bei Bedarf natürlich noch ausbaubar sind
  • Analysis for Office – des Controllers Liebling, war schon immer so
  • BW Workspaces – Self Service Datenintegration, noch nicht ganz einfach zu handhaben, jedoch ein neuer Schritt, in eine Richtung, die früher klar IT war
  • S/4 HANA – bietet mit den Fiori App’s bereits die Kombination aus operativen Anwendungen und Analyse. Das Analysis Path Framework schließt die Lücke weiter.
  • Mit sowas wie Agile Data Preperation  oder Cloud for Analytics möchte ich hier gar nicht erst anfangen

Die SAP versucht ganz klar zu liefern. Die Dynamik macht es jedoch oft schwer, eine einheitliche Strategie zu erkennen, auch wenn sich Richtungen abzeichnen.

BI – Self Service, Big Data, Advanced Analytics, Data Science, In-Memory, Information Design – Themen die BI stark verändern. Somit bleibt es spannend und die wesentliche Herausforderung ist die permanente Anpassung, wie überall im BI-Umfeld.

Governance, komplexe Datenstukturen, Integration von verschiedenen Datenquellen und die Transformation von Daten werden aber nach wie vor die Arbeitsgrundlage im Bereich Enterprise BI bleiben.

Ich denke das folgende stellt die Richtung dar, in die wir uns entwickeln:

Entwicklung BI

Enterprise BI wird eine starke Basis in der Mitte sein. Self Service wird breit kommen, aber gleichzeitig Enterprise BI unterstützen. Es wird einige Zeit dauern, bis die Probleme und Grenzen von Self Service BI bewusst werden. Data Science & Big Data ist von wenigen für wenige. Aktuell etwas gehyped, jedoch gleichzeitig auch schon in der Gesellschaft angekommen. Jedoch ist die Entwicklung aktuell etwas entkoppelt vom BI. Ich vermute hier aber in den nächsten Jahren eine Annäherung, wenn die Tools reifer werden und der notwendige Skill zunehmend in der breiten Enterprise BI-Schicht ankommt.