BARC Score Data Discovery 2017 vs. 2018

BARC hat für 2018 einen neuen BARC Score für Data Discovery veröffentlicht. Fast genau ein Jahr nach Veröffentlichung des ersten BARC Scores zu dem Thema kommt somit die Neuauflage.  Mit dem Neuzugang Datameer sind in 2018 dreizehn Anbieter zu finden.

Was das Thema ausmacht, jedoch auch wie SAP (mit SAP Analytics Cloud) und auch Microsoft (mit MS Power BI) hier abschneiden, möchte ich im Folgenden etwas genauer betrachten.

BARC hat eine eigene Definition für den Begriff Data Discovery:

„Data Discovery is the business user driven and iterative process of discovering patterns and outliers in data“

– BARC, 2017

Wikipedia fast den Begriff etwas pragmatischer:

„Der Begriff Data Discovery („Datenentdeckung“) gilt als Schlagwort für weiterentwickelte Business-Intelligence-Werkzeuge, die mehr Bedienerfreundlichkeit und Flexibilität sowie höchstmögliche Autonomie der Anwender gewährleisten sollen. Der Schwerpunkt liegt in der Visualisierung der Datenanalyse.“

Wikipedia, 19.09.2018

BARC fasst unter Data Discovery drei wesentliche Komponenten zusammen:

  • Data Preparation
  • Visual Analysis
  • Guided Advanced Analytics

An diesen Aspekten muss man sich auch messen lassen, um im BARC Score aufzutauchen.

2015 beschreibt Rita Sallam von Gartner im News-Beitrag Gartner Says Power Shift in Business Intelligence and Analytics Will Fuel Disruption“ Smart Data Discovery. Die Vorstellung von BARC und Gartner dürften sich hiermit weitgehend treffen.

Mitte 2017 greift Rita Sallam das Thema erneut auf und gibt der seitherigen Entwicklung einen neuen Namen: Augmented Analytics – mit Machine Learning und Conversational Analytics als neue Treiber.

Im Vergleich der Überblicksartikel sowie weiterer große Textteile im BARC Score fällt auf, dass sich hier im Prinzip nicht viel geändert hat und für BARC Copy & Paste offensichtlich weitgehend ausgereicht hat.

Inklusionskriterien und Evaluationskriterien haben sich zum Vorjahr im Wesentlichen nicht verändert. Zu den oben genannten drei Aspekten der ersten Score-Achse „Portfolio Capabilities“ kommt noch der Aspekt „Platform“ hinzu. Die individuelle Verarbeitung von Daten sowie die Verbreitung inkonsistenter Analyseergebnisse haben in der Vergangenheit zu einem Vertrauensverlust geführt. Deshalb bewertet BARC auch den Aspekt, lokale und globale Governance zu unterstützen sowie die Kollaboration rund um die Daten zu ermöglichen, ohne den Anwender im Fachbereich zu sehr einzuschränken.

In der Zweiten Score-Achse „Market Execution“ gab es eine kleine Anpassung. Wurde 2017 der Aspekt „Financials“ noch mit Medium bewertet, ist die Gewichtung in 2018 nur noch Low. Unter Financials versteht BARC Marktkapitalisierung, EBITDA, Cash, Profitabilität usw. Es ist anzunehmen, dass die großen Anbieter darunter etwas leiden. Jedoch ist dies hier nur eines von acht Kriterien.

Der BARC Score beginnt in sofern interessant, als das es keinen „Dominator“ rechts oben mit auf beiden Achsen extrem starken Wertungen gibt. Offensichtlich haben alle Tools auch Ihre Schwächen.

Wie 2017 finden sich im zweitbesten Bereich „Market Leaders“ Tableau und MicroStrategy. Neu hinzugestoßen in 2018 ist Qlik mit Qlik Sense. Vergleicht man mal mit den aktuellen Gartner Magic Quadrant für Analytics & BI, überraschen die Market Leader wenig. Der Fokus mag nicht genau der gleiche sein, was es interessant macht zu sehen, warum Power BI von Microsoft zwar auch im BARC Score stark ist (beste Market Execution), jedoch im Bereich Portfolio Capabilities zu den anderen zurück bleibt und somit nur im nachfolgenden „Challenger“-Bereich landet. Microsoft findet sich dort recht nahe zu SAP, welche zwar immer noch Challenger ist, jedoch im Vergleich zu 2017 in der weiteren Entwicklung wohl nicht ganz mit Microsoft mithalten konnte.

 

Bewertung von Microsoft Power BI 

Analytix_MSPowerBI

Beispiel für MS Power BI Desktop (eigene Darstellung)

Produktlink

Update Power BI-Service für Juli & August 2018

MS Power BI (PBI) ist ein Desktop BI-Tool mit cloudbasiertem BI-Service für die Veröffentlichung und Verteilung von BI-Inhalten. Eine On-Premise-Version (Berichtsserver) ist aktuell in Arbeit und bereits einsetzbar.

Treiber für PBI ist die starke Verbreitung von Microsoft sowie der sehr günstige Einstiegspreis. Die Sprache DAX erlaubt komplexe Funktionen in der Datenvorbereitung, erschwert jedoch den einfachen User u. U. die Nutzung. Die Stärke liegt in den Visualisierungsmöglichkeiten. Advanced Analytics steht bedingt zur Verfügung, R kann für fortgeschrittene User integriert werden.

Während BARC das im Unternehmen oft vorhandene Microsoft-Wissen als klare Stärke ansieht, ist die Kundenzufriedenheit in 2017 doch eher niedrig. In 2018 hat sich Microsoft hier aufgrund regelmäßiger Updates deutlich verbessert.

Stärken:

  • Quick Insights für geführte fortgeschrittene Analysen (nur 2017)
  • Natural Language Query-Funktionen für Visualisierungen (Q&A)
  • Integration in die Microsoft-Produktwelt
  • Nachvollziehbarkeit aller Datenvorbereitungsschritte, sowie diese zu ändern oder rückgängig zu machen
  • Gute Führung innerhalb der Datenvorbereitung (nur 2018)

Herausforderungen/Schwächen:

  • Datenimporte (Volumen) sowie der Live-Zugriff auf Quellen ist noch recht eingeschränkt
  • Datenvorbereitung und Modellierung ist nur im Desktop möglich
  • In der Datenvorbereitung sind nicht alle Funktionen über Wizards oder kontextsensitive Aktionen abgedeckt (2018)
  • Automatisierte Insights sind nur in der Cloud verfügbar und brachten in den Testfällen keine signifikanten Muster hervor.

 

Bewertung von SAP Analytics Cloud

Analytix_SAPAnalyticsCloud

Beispiel für SAP Analytics Cloud (eigene Darstellung)

Produktlink

Aktuelles Update (2 Wochen-Rythmus)

SAP vollzieht aktuell einen Wechsel im Bereich Data Discovery. Bisher war SAP Lumira als Desktop-Werkzeug das führende Produkt in diesem Bereich.  In 2018 hat die Strategie komplett zu SAP Analytics Cloud (SAC) gewechselt. SAC wird von BARC als Produkt mit einer vollständigen Vision für Data Discovery angesehen. Einschließlich Datenvorbereitung, visuelle Analyse, fortgeschrittene Analysen sowie als einziges der getesteten Werkzeuge Planung und Budgetierung. Jedoch ist der Reifegrad in bestimmten Bereichen noch nicht sehr ausgeprägt.

Der Umfang an Konnektoren ist bei SAC deutlich geringer als bei anderen Anbietern. Jedoch ist die Datenvorbereitung noch schwach ausgeprägt und ein grundlegendes Datenprofiling ist zwar möglich, jedoch aktuell nur bedingt hilfreich.

Advanced Analytics ist mit den Smart Discovery-Funktionen eine starke Säule des Produkts. Auf Basis der Testdaten konnten jedoch keine in den Daten verfügbaren Muster identifizieren.

Die Führung bei der Datenexploration wird aktuell nicht als ausreichend und flexibel genug angesehen. Jedoch gibt es anständige Visualisierungsmöglichkeiten kombiniert mit guten Kollaborations-, Kommentierungs- und Storytellingmöglichkeiten.

Stärken:

  • Breite BI- & Analytics-Fähigkeiten, integriert in einem Angebot
  • Die Möglichkeit, Ad-hoc Datenmodelle sowie zentrale Datenmodelle in Lösungen zu nutzen
  • Eine gute Führung bei fortgeschrittenen Analysen mittels „Smart Discovery“
  • Konnektivität und vordefinierte Inhalte für SAP-Datenquellen und -Anwendungen

Herausforderungen/Schwächen:

  • SAC ist nur in der Cloud verfügbar und immernoch ein relativ junges Produkt mit in einigen Bereichen eingeschränkten Möglichkeiten
  • Konnektoren fokussieren auf SAP
  • R-Integration ist nur für Datenvisulisierung, jedoch nicht für die Datenvorbereitung verfügbar
  • SAC ist die einzige Lösung im Anbieterfeld, welche in mehreren Bereichen keine Ergebnisse liefern konnte
  • Geringe Wahrnehmung außerhalb der SAP Kundenbasis

 

Fazit

Nun, das Urteil bzw. die Schwächen bei SAP Analytics Cloud erscheinen aktuell sehr hart. SAP hat hier aktuell einen Strategiewechsel hinter sich und liefert in hoher Geschwindigkeit neue Features aus. SAP hat eine große Vision mit SAC, jedoch aktuell noch viele Schwächen. Die aktuelle Roadmap macht das ganze nur noch ambitionierter. Nicht untypisch für SAP fokussiert SAP erstmal auf SAP. Das ist Stärke und Fluch zugleich.

MS Power BI steht aktuell stark da und wird schon länger von Microsoft als führendes Frontend-Werkzeug fokussiert. Auch hier hatte man eine Lernkurve, welche deutlich früher begonnen hat und ist daher z. B. SAP heute in einigen Bereiche noch klar voraus. Auch der Community-Support macht heute bei MS einen besseren Endruck im Vergleich zur SAP.

Einerseits ist es schön, hier doch recht unterschiedliche Fokussierungen und Entwicklungspfade zu sehen. Anbieter wie Qlik und Tableau sind in dem Umfeld bereits lange unterwegs und spielen ihre Erfahrung als Stärke aus. Andererseits zeigen sich ähnliche Releasezyklen im Rahmen agiler Entwicklungsmethoden und oberflächlich betrachtet unterscheiden sich die Tools in den Möglichkeiten erstmal nur bedingt. Cloud ist ein großer Enabler für Innovation und gefühlt wird jede neue Technologie reingebuttert, um dem Kunden einen Mehrwert zu bieten und sich von der Konkurrenz abzuheben.

Advertisements

SAP Analytics Cloud im Gartner MQ Cloud FP&A 2018

Wenn Gartner mal wieder einen „neuen“ Magic Quadrant (MQ) herausbringt, muss man manchmal erstmal schauen, welche Historie es hier gibt.

2015 – Magic Quadrant for Corporate Performance Management Suites

  • Hier hatte SAP zusammen mit Oracle die führende Position im Leaders-Quadrant.
  • Damals waren folgende Tools in der Bewertung:
    • SAP Business Planning and Consolidation
    • SAP Strategy Management
    • SAP Profitability and Cost Management
    • SAP Disclosure Management
    • SAP Cloud for Planning – der Vorläufer von SAP Analytics Cloud

Gartner hat damals bemerkt, dass es hier einen Trend hin zu Cloud-Lösungen gibt, wie dies auch 2016 von Forrester angemerkt wurde.

2016 – Gartner splittet den Magic Quadrant (vgl. hier) in 2:

  • MQ for Financial Corporate Performance Management
    • „Financial corporate performance management solutions must be understood by the financial application strategists within enterprise finance organizations, so that they can improve efficiency and compliance in processes leading to the financial close.“
    • SAP war Leader zusammen mit Oracle, Blackline und Workiva.
    • Bewertet wurden:
      • SAP Business Planning and Consolidation
      • SAP Financial Consolidation
      • SAP Financial Closing Cockpit
      • SAP Master Data Governance for Financals
      • SAP Financial Information Management
      • SAP Process Control
      • SAP Disclosure Management
      • SAP Profitability and Cost Management
  • MQ for Strategic Corporate Performance Management
    • „Strategic corporate performance management solutions help CFOs and other business leaders manage organizational performance and strategy.“
    • SAP war Leader zusammen mit Oracle, IBM und Adaptive Insights.
    • Bewertet wurden:
      • SAP Business Planning and Consolidation
      • SAP Strategy Management
      • SAP Profitability and Cost Management
      • SAP Cloud for Analytics (Nachfolger von SAP Cloud for Planning, Vorgänger von SAP Analytics Cloud vgl. hier)

=> Bzgl. Cloud bemerkte Gartner: „The Cloud Has Become a Required Capability“

2017 – der MQ for Financial/Strategic Corporate Performance Management, welcher On-Premise- und Cloud-Lösungen umfasst, wird nicht weiter geführt. Sie werden durch den neuen MQ for Cloud Financial/Strategic Corporate Performance Management ersetzt.

Gartner macht dabei auf den klaren Trend hin zur Cloud (SaaS) aufmerksam und bemerkt, dass im Vertriebsprozess der Anbieter, die klassisch On-Premise-Lösungen anbieten stark auf Cloud umgeschwenkt wurde.

Gartner gibt an, keinen Anbieter entfernt oder hinzugefügt zu haben, da es sich ja um einen „neuen“ MQ handelt.

  • MQ for Cloud Financial Corporate Performance Management
    • Leader sind Blackline, Workiva, Host Analytics und Oracle.
    • SAP ist im MQ nicht vorhanden und wird nicht erwähnt.

=> Nun, das Flagship-Produkt der SAP – Business Planning and Consolidation ist nicht direkt in die Cloud gewandert. SAP ist in dem Umfeld noch fast komplett On-Premise und hat aus meiner Sicht aktuell auch nichts Konkretes in der Pipeline. Mit S/4HANA Cloud wird der Aspekt zukünftig sicherlich wieder stärker kommen. Jedoch zieht Gartner in diesem Kontext z. B. SAP SEM-BCS schon länger nicht mehr mit ein, trotz dass dies bei vielen Kunden nach wie vor im Einsatz ist (vgl. hier).

  • MQ for Cloud Strategic Corporate Performance Management
    • Leader sind Oracle, Anaplan, Host Analytics und Adaptive Insights.
    • SAP ist im MQ nicht vorhanden, wird aber ehrenhaft erwähnt für sein starkes On-Premise-Angebot und SAP Analytics Cloud als Lösung in dem Umfeld, welche aktuell jedoch nicht alle Kriterien getroffen hat, um entsprechend berücksichtigt zu werden.

2018 – MQ for Financial Planning and Analysis Solutions

  • Leader sind Oracle, Anaplan, Host Analytics, Adaptive Insights und IBM
  • SAP ist als Visionar wieder im MQ vorhanden.
    • Gartner sieht starke Verbesserungen und lobt u. a. die starke Service-Organisation der SAP, die positive Erfahrung im Umgang mit den Werkzeugen und eine schnelle Einführungszeit.
    • Gartner mahnt zur Vorsicht bzgl. der Performance bei umfangreichen Anwendungsfällen, den starken Einsatz von ERP für die Finanzplanung und den hohen Einsatz externer Unterstützung.

Da Gartner eine Neufokusierung des Corporate Performance Managements sieht, wurde wohl ein neuer Name, mit jedoch weitgehend gleichen Kriterien notwendig:

„The emergence of digital business has sidelined CPM methodologies and processes, leading to a renewed focus on financial performance and processes

Integrated financial planning, which brings together financial planning and operational planning, has caused FP&A to become the primary use case for strategic CPM solutions

The financial close market has evolved from financial CPM to deliver innovation for the controller’s organization“

Gartner, 2017

Damit hat SAP mit SAP Analytics Cloud als als strategisches Produkt für BI, Planung und Advanced Analyics wieder den Anschluss gefunden und hat Potential zum Aufholen auf Basis der aktuell sehr starken Roadmap.

Für weitere Informationen, siehe auch den Blog von SAP und die Referenz auf den aktuellen MQ.

SAP Cloud Analytics Journey

Bill McDermott macht klare Ansagen. SAP soll „The Cloud Company“ werden. SAP Cloud wird die Basis für die Digitale Transformation. Basierend auf HANA, unterstützt durch Machine Learning und das SAP Leonardo IoT-Portfolio und versehen mit der preisgekrönten Fiori User Experience.

Das ist der Weg, den SAP aktuell geht. Seit 02/2010 ist er Vorstandssprecher der SAP SE. Betrachtet man einmal, was sich seither getan hat, kann man fast nur staunen.

SAP hat sich hier vom organischen Wachstum abgewendet und Milliardenübernahmen getätigt und gleichzeitig Bereiche wie BI/Analytics massiv vorangetrieben:

SAP Cloud (Analytics)
SAP’s Cloud Analytics-Reise
Quelle: Eigene Recherche, Internet

Laut Capital Market Day-Präsentation 2017 macht SAP in 2016 rund 3 Milliarden € Umsatz und verzeichnet 125 Millionen User für die Cloud. Gut, schaut man sich mal ein wenig die Akquisitionskosten an, so hat man das noch lange nicht wieder eingespielt. Aber es geht hier natürlich um das Geschäft der Zukunft.

Bill McDermott hat damit klar gezeigt, zu was er bereit und entschlossen ist.

Betrachtet man nun mal die Cloud Analytics-Ebene, dann ist doch interessant, dass BusinessObjects bereits 2006 auf die Cloud gebaut hat. Nach der Übernahme 2008 hatte SAP also bereits ein erstes Cloud Analytics-Angebot im Hause.

2010 wurde dies darauf hin neu als BI on Demand gelaunched. Damals schon mit freiem Test-Account, bei dem man mit zumindest kleinen Datenmengen den schon bald HANA-basierten BO Explorer ausprobieren konnte.

Nach meinem Gefühl hat BI on Demand jedoch niemals wirklich Fahrt aufgenommen. mit dem in 2013 gestarteten SAP Lumira Cloud-Angebot, war dann der BO Explorer wohl doch auch nicht mehr so interessant.

Ende 2015 kam dann die Info, dass Lumira Cloud mit dem Release 1.28 nicht mehr weiter aktualisiert wird. Ende 2014 wurde ja auch schon parallel Cloud for Planning (C4P) gestartet. Einige Monate später sickerte dann Projekt Orca durch, welches dann ein Jahr nach Start von C4P den Namen Cloud for Analytics (C4A) bekommen sollte. Damals wurde auf zusätzliche BI-Funktionalitäten verwiesen, welche diesen evolutionären Schritt rechtfertigen sollte.

Kein Jahr hat der Name gehalten, bis dann Mitte 2016 die Umbenennung in BusinessObjects Cloud folgte. Dazu kamen gewisse Predictive-Fähigkeiten. Wie wir wissen, sollte dies in der jungen Geschichte nicht die letzte Umbenennung sein. Folgte doch zur SapphireNow 2017 im Mai die Umbenennung in SAP Analytics Cloud. Ein Schritt, den beispielsweise Gartner-Analystin Cindi Howson als „smart“ bezeichnete.

Interessant ist jedoch noch zu vermerken, was parallel geschehen ist. So wurden Anfang 2016 die Predictive Services innerhalb der SAP Cloud Plattform (damals noch HANA Cloud Plattform) bereitgestellt und damit analytische HANA-Fähigkeiten in der Cloud verfügbar gemacht. Zeitgleich wurde mit der Übernahme von Roambi auch der Mobile BI-Aspekt im bestehenden Cloud Analytics-Portfolio gestärkt.

SAP Analytics Hub bildet mit dem letzten Renaming wohl nur den vorläufigen Höhepunkt der SAP Cloud Analytics Journey.

DSAG Technologietage – Was man für BI & Analytics mitnehmen kann

Am 21. Und 22.02.2017 waren in Mannheim die DSAG Technologietage. Das Motto lautete – „Change = Chance: Heute ist morgen schon gestern“.

Leider war ich nicht vor Ort, analysiere jedoch gerne mal die Folien, um zu sehen, was sich im Bereich BW/BI/BO/Analytics und angrenzenden Bereichen bei der SAP so tut. Gerne bekomme ich auf dem Blog auch Feedback und Ergänzungen von Teilnehmern.

Die SAP HANA Cloud Platform (HCP), hier auch als SAP Cloud Platform beschrieben, scheint aktuell das große Ding zu sein. In der Keynote von SAP CIO Thomas Saueressig nimmt diese ganz klar die führende Rolle als Plattform für die Digitale Transformation ein.

Bei der HCP wird Analytics und Business Intelligence ganz klar als fundamentales Element der Digitalisierung (Machine Learning, Real-time Analytics) sowie der Digitalen Transformation (Zusammenspiel von Business process und Business intelligence) dargestellt. Die HCP soll dabei Mission Critical Data analysieren und visualisieren. Und wenn Data richtig Big wird, wird einfach HANA Vora angeflanscht.

Auch werden auf Basis der HCP einige Machine Learning Services, sogenannte Intelligent Enterprise Applications vorgestellt:

  • Resumee Matching
  • Cash Application Intelligence
  • Ticket Intelligence

Die Referenz fehlt, es dürfte aber ganz klar das seit kurzem verfügbare SAP Clea sein.

Auf den BW/4HANA-Folien werden aktuell 4.000+ BW on HANA-Kunden von insgesamt 16.000+ dargestellt. 8.000+ auf Release 7.3/7.4. Fast der Versuch zu sagen, das 7.5-Kunden ja sowieso auf HANA gehen, was nach meiner Erfahrung ganz klar nicht unbedingt der Fall ist. Nun wenn ich vergleiche, dann sind in den letzten 1 ¼ Jahren 1.500 BW-Kunden on HANA gegangen oder haben so gestartet. Bei 1.000 Neukunden in der Zeit ist hier sicherlich ein großer Teil zu sehen, die direkt on HANA starten. Also SAP, 12.000 Kunden voraus bis 2025!

Ansonsten haben die Folien von Roland Kramer und Gordon Witzel nichts wirklich Neues zu BW/4HANA gebracht. Aber bei so einer Veranstaltung muss man vielleicht auch erst alle nochmal abholen.

Ulrich Christ und Jürgen Haupt haben eine schlanke und dynamische Modellierung mit BW/4HANA und BW powered by HANA vorgestellt. Dabei ging es ziemlich ins Detail zu den flexiblen Möglichkeiten über einen CompositeProvider mit Hilfe von Associations und transitiven Attributen neue Stammdaten über alle LSA++-Layer zu integrieren. Ähnliches wurde bereits vor etwa einem Jahr in einem First Guidance-Paper vorgestellt.

Detlef Wassermuth stellt den aktuellen Stand der Planungs-Werkzeuge von SAP vor. Dabei wird BPC klar als Schwerpunkt dargestellt und die Möglichkeiten zwischen Embedded und Standard Model diskutiert. Aber auch hier nicht wirklich Neues.

Jie Deng und Alexander Peter stellten den aktuellen Stand zu Lumira 2.0 sowie Analysis Office vor. Bzgl. Analysis wurden kurz die Neuerungen von Release 2.4 vorgestellt und die Roadmap, was kommen soll. Hierzu gab es jedoch auch bereits diverse Webinare. Genauso bei Lumira. Auch hier wurden nach meinem Gefühl keine wesentlichen Neuheiten gezeigt, die man nicht bereits hätte kennen können. Allerdings gab es eine Demo und Live habe ich jetzt selbst auch noch nicht viel gesehen.

Von Abassin Sadiq und Larissa Naujoks wurde SAP BusinessObjects Cloud vorgestellt. Aufgefallen ist mir dabei das folgende Übersichtsbild:

sapanalytix-boc-dsagtt17-01

Quelle: SAP SE, „V010 –Wer morgen nicht von gestern sein möchte: SAP BusinessObjectsCloud –SAP Analytics aus der Wolke“ von Abassin Sidiq, Larissa Naujoks

Die Frage ist, was hier wohl „Verticals“ bedeutet? Der Stern deutet darauf hin, dass es sich um eine geplante Function handelt. In der Vergangenheit war hier auch schon mal GRC zu lesen oder auch „Embedding – Analytics into Applications“ wie noch in der letzten Roadmap vom Januar 2017. Natürlich könnte unter Verticals genau das Thema Embedding gemeint sein.

In einer Fiori-Session wurde von Michael Falk folgende Folie als geplante Innovation vorgestellt:

sapanalytix-boc-dsagtt17-02

Quelle: SAP SE, „V026 – SAP Fiori Evolution“ von Michael Falk

Evtl. schließt sich hier ja auch wieder der Kreis zu dem Theme „Verticals“ bei BO Cloud.

Kundenvorträge sind natürlich immer sehr interessannt und willkommen. So hat Tjarko von Lehsten von der Swisscom AG gezeigt, wie man dort das Thema BW on HANA angeht. Dort präsentierte er, nicht zum ersten Mal, das Projekt OneBI, welches drei BW-Systeme im Greenfield-Ansatz auf eine BW on HANA/HANA Native-Plattform für den dortigen Bereich Finanzen und Controlling konsolidieren sollte. Das Projekt wurde im Rahmen des BW 7.5 Ramp-Ups in  Zusammenarbeit mit SAP durchgeführt und setzte auch gleich auf den BusinessObjects Enterprise-Tools auf.

Das Projekt hat eine Laufzeit von über 2 Jahren (5.000 Manntage), und läuft parallel zu einem OneERP-Projekt.

Trotz das das Projekt aktuell noch läuft, kann man heute schon einige Lessons Learned daraus mitnehmen:

  • Bei Realtime-Ansätzen muss man auch auf die Stammdaten achten
  • Frühzeitige Einbeziehung der Fachbereiche, Aufbau eines Play Lab
  • Schnelles und agiles natives Modellieren verlängert Test- und Go-Live-Zyklen
  • Bei agilem Projektmanagement sollten die funktionalen Anforderungen so genau wie möglich definiert werden
  • Richtlinien und Standard-Szenarien sind sehr hilfreich
  • Ein Training für BW on HANA und HANA-Technologie vor dem Projekt ist notwendig
  • ODP-DataSources und EIM (Smart Data Integration/Access) stellen wichtige Integrationsfunktionen dar
  • Man muss sich entscheiden, ob der EDW-Layer in der HANA oder im BW liegt
  • Data Streaming benötigt neue Skills und hat eine gewisse Komplexität. Es bedient auch ganz neue Anwendungsfälle.
  • Die Reduktion auf neue Objekte führt zu einer schnelleren Implementierung
  • SQL-basierte Transformationen sind schnell und stabil

Sicherlich für viele ein Traumprojekt mit der Möglichkeit, die Fähigkeiten der Systeme und Werkzeuge voll auszunutzen und deren Mehrwert im Vergleich zur „alten Welt“ zu erfahren.

Ein weiterer Erfahrungsbericht kommt von WITTENSTEIN SE. Im Vortrag „Chance und Change für BI: SAP BW im Kontext einer HANA Strategie bei der WITTENSTEIN SE“, gehalten von Pascal Kranich von WITTENSTEIN und Stefan Kahle von ISR AG.

WITTENSTEIN als mittelständisch orientiertes, produzierendes Unternehmen mit starker internationaler Ausrichtung setzt stark auf die Digitalisierung. Industrie 4.0 spielt eine große Rolle. Der Mensch als Entscheider steht im Mittelpunkt. Daraus folgt: „Business Intelligence Fähigkeiten der Organisation werden zum strategischen Wettbewerbsfaktor“.

In der Data Warehouse-Zielarchitektur laufen betriebswirtschaftliche Daten aus SAP ERP, produktionsorientierte Daten aus dem MES und Sensor- und Maschinendaten, welche zuerst in Hadoop gesammelt werden zusammen.

In der weiteren Präsentation werden verschiedene Beispiele zu Mixed Models (BW & HANA-Modellierung) dargestellt.

Die Lessons Learned von WITTENSTEIN:

  • HANA allein ist kein EDW und BW kann nicht alle Optimierungen nutzen, welche HANA bietet
  • Man hat die Qual der Wahl zwischen BW und HANA und muss klare Regeln festlegen und diese einhalten
  • Sponsorship spielt eine wichtige Rolle
  • Kommunikation ist alles
  • Organisation ist herausforderner als die Technik

Einige Parallelen finden sich in den Erfahrungen die man macht sowohl bei Swisscom wie auch bei WITTENSTEIN. Gleichzeitig hat man den Eindruck, BW on HANA ist angekommen und zeigt seinen Nutzen.

Dann ein etwas technischer Anwenderbericht über die Einführung einer Nearline-Storage (NLS)-Lösung für das BW der Münchner Stadtwerke im Rahmen einer bevorstehenden HANA-Migration einschließlich Upgrade. Die Einführung der Lösung wurde durch Roland Kramer unterstützt. Interessant dabei die doch gut aussehenden Monitoringmöglichkeiten

Trotz des eher technischen Aspekts des Projekts ist es doch interessant, das auch der Fachbereich hier ein sehr positives Feedback abgegeben hat. Leider ansonsten wenig weitere greifbare Lessons Learned.

Die Präsentation „V047 –IoT Optionen anhand konkreter Lösungs-und Kundenbeispiele“ von Smitha Rayala (SAP) zeigt hauptsächlich die Lösung „SAP Predictive Maintenance & Service“ (PdMS). Die HANA-basierte Lösung stellt sich recht komplex als Zusammenspiel von SAP-Systemen, Open Source und 3rd Party-Lösungen dar. Für die Datenintegration werden Werkzeuge wie SAP Data Services oder Smart Data Streaming genutzt und ein Multi-Temperature-Konzept mit SAP IQ für „warm data“ wird dargestellt. Ebenfalls kommen in der technischen Realisierung Hadoop und HANA Vora, sowie R zum Einsatz bzw. sind geplant. Dazu passend wird als Methodologie der CRISP-DM-Ansatz vorgestellt. Auch wenn die Folien nur wenig Details hergeben, zeigt es einfach mal ein eine konkrete Lösung im Analytics-Umfeld, welche auf den aktuellen Technologien und Ansätzen der SAP aufsetzen.

In einem zweiten Teil wird SAP Vehicle Insights als aktuell HCP-basierte Lösung vorgestellt. Auch hier zeigt sich, das im Hintergrund eine Vielzahl an Technologien und Werkzeugen der SAP zusammenspielen und Analytics einen wichtigen Bestandteil darstellt:

sapanalytix-boc-dsagtt17-03

Quelle: SAP SE, „V047 –IoT Optionen anhand konkreter Lösungs-und Kundenbeispiele“ von Smitha Rayala

Der Vorteil im HCP-Betrieb wird darin gesehen, dass man trotz des komplexen Zusammenspiels eigentlich keine Betriebskosten hat, da alles von der SAP gemanaged wird.

Von Dr. Stefan Hoffmann (SAP) präsentierte „V132 – SQL Datawarehousing gemeinsam mit Business Warehouse BW4/HANA und deren gemeinsame Nutzung mit BW Inhalten“. Da das HANA DW-Konzept vorsieht, rund um HANA als Datenbank ein größeres Toolset bevorzugt aus dem eigenen Haus einzusetzen, wurden diese auch so vorgestellt. Zuerst im Gesamtkontext, dann auch einzeln:

  • SAP Enterprise Architect Designer – zur Modellierung des semantischen und logischen Datenmodells
  • SAP HANA EIM: SDI/SDQ und ADP – oder auch SAP HANA Enterprise Information Management: Smart Data Integration/Smart Data Quality und Agile Data Preperation für ETL und Datenqualität.
  • SAP HANA Web IDE – zur Modellierung von Calculation Views
  • SAP HANA CDS Development – graphischer und scriptbasierter Editor für virtuelle Datenmodelle auf ABAP-Basis
  • SAP Data Warehousing Foundation – Data Temperature Management Strategie mit dem Data Lifecycle Manager (DLM)
  • Native DSO (NDSO) – Quasi das Standard DSO nativ auf HANA implementiert und in FlowGraphs integriert
  • SAP HANA Data Warehouse Scheduler – macht den Eindruck als wäre es die HANA-Variante der Prozessketten.

In dem Kontext sei auch das Februar-Update der SAP Data Warehouse Overview & Roadmap-Präsentation erwähnt. Darin wird auch nochmal der grundsätzliche Ansatz und die Differenzierung zum BW/4HANA erläutert. Dort wird auch ganz frisch der oben beschriebene Swisscom-Fall als Beispiel für ein Mixed Model vorgestellt.

Zusammenfassend lässt sich aus der Folien-Perspektive sagen, die Technologietage sind wohl keine Veranstaltung um große Neuigkeiten zu kommunizieren. Jedoch gab es interessante Kundenvorträge und Deep Dives wie den von Ulrich Christ und Jürgen Haupt. Auch lohnt sich wohl immer mal der Blick links und rechts von BI und BW.

BusinessObjects Cloud – First Steps 1

So, er ist da. Und das schon einer Woche. Der Partner Demo Tenant für BusinessObjects Cloud (BOC).

Nach der ersten Übersicht und der Einrichtung der User für das weitere Team, natürlich gleich mal das erste Diagramm angelegt und ein Excel-File hochgeladen. Gefühlt ist nicht alles intuitiv. Man muss erstmal reinfinden. Offensichtlich werde ich das eine oder andere Video anschauen müssen oder vielleicht sogar die Zeit finden, den OpenSAP-Kurs zu BOC bzw. Digital Boadroom anzuschauen.

Auch die ersten Erfahrungen waren, dass das System in einer Woche mindesten 3x Probleme mit der Verfügbarkeit hatte. Netterweise bekommt man nachdem man es gemerkt hat auch bald eine Mail dazu.

Gut, schnell stellt man sich bei einer auf HCP basierenden Anwendung auch etwas anders vor:

cloud01

Gut, die Datei habe ich von Kaggle und sie umfasst ca. 50 MB und 1 Mio Datensätze anonymisierte Echtdaten von Rossmann.

Aber auch so ist mein Eindruck nicht ganz flüssig. Die Punkte, die sich bewegen, damit sich überhaupt was bewegt, sieht man z. B. auch bei dem Demo Dashboard. Natürlich kann das auch noch mit der Bandbreite und dem Netzwerkverkehr zu tun haben.

Damit ich mir auch gleich ein paar gute Beispiele anschauen darf, habe ich entsprechend den BOC content aus dem SAP Store heruntergeladen und in die BOC importiert:

cloud_content02

Da kommt ganz schön was zusammen. Und ich meine nicht nur die 89-seitige Doku dazu:

cloud_content08

Oder zum Beispiel einige Digital Boardrooms wie dieser hier:

cloud_content04

Hm, by the speed of thought???

cloud_content05

1-2 Minuten später – Ahhh:cloud_content06

Nun, wahrscheinlich ist mein Bildschirm zu klein, um solche großen Zahlen anzuzeigen:

cloud_content07

Es kommen auch Dateien mit, die auch schon mal schnell etwas Memory allokieren:

cloud_content09

Aber es ist ja noch genug da 😉

So, schauen wir dann, wie es weiter geht. Evtl. steht die HANA Cloud Connection auf der Agenda…

Cloud BI – Stand der Dinge 2017

2016 war ein wichtiges Jahr für Business Intelligence & Analytics in der Cloud im Speziellen und für Cloud Computing im Allgemeinen. Viele große Anbieter haben mittlerweile eine Cloud BI-Lösung im Angebot und bilden damit einen vorläufigen Höhepunkt einer Entwicklung, welche seit Anfang der 00er-Jahre mit Salesforce.com ihren Anfang genommen hatte.

Cloud Computing selbst hat sich mittlerweile etabliert und ist fester Bestandteil viele IT-Strategiediskussionen.

Laut [BARC2017] sind die Vorteile klar. Eine schnellere Verfügbarkeit, minimale Einbindung der IT, geringe Investitionen (Capex vs. Opex) und die vielgepriesene Elastizität der Ressourcen. [Forrester2015] fast es noch kompakter zusammen: Geschwindigkeit und Agilität.

Jedoch sind auch klar Risiken zu sehen, wie bei [TDWI2016] z. B. Datensicherheit, Datenschutz sowie Regulatorische Vorgaben und Compliancevorschriften.

Nach [EMA2015] gehören zu den wichtigsten Maßnahmen zum Schutz der Daten:

  • Verschlüsselung von inaktiven Daten
  • Audit Trails bzgl. Datenzugriff und Datenänderungen
  • Automatisierung von Regeln zur Datenspeicherung Fortgeschrittene
  • Authentifizierungsmethoden bzgl. der Datenverbindung
  • Maskieren von Daten basierend auf einem Berechtigungskonzept

 

[BARC2017] sieht für Cloud BI die folgenden Hot Spots:

  • Cloud BI hat den Tipping Point erreicht – Obwohl Datenschutz immer noch ein kritisches Thema ist, werden sich viele Unternehmen bewusst, dass die Daten in einer Public Cloud evtl. sicherer sind, als im eigenen Rechenzentrum.
  • Power User dominieren Cloud BI – Während normale Anwender Berichte und Dashboards konsumieren, analysieren Power User Daten, erstellen Berichte und bereiten zu einem Teil die Daten selbständig auf.
  • BI vor Datenmanagement – Unternehmen betreiben leichter BI in der Cloud, als dort ein Data Warehouse oder ein Data Mart aufzubauen und Datenintegration aufzubauen.
  • Public Cloud gibt die Richtung vor – Public ist die bevorzugte Form, gefolgt von Hybrid oder Private-Angeboten.
  • Cloud BI Outsourcing ist real – Mit Cloud wird automatisch ein Teil der Infrastruktur outgesourced. Viele gehen noch weiter in Richtung Managed Services.
  • Kleine Unternehmen zeigen, wo es lang geht – Kleine Unternehmen gehen eher in die Cloud als große und bevorzugen hier auch Public Cloud-Angebote
  • Nordamerika nutzt eher Cloud als Europa – Die Unternehmen sehen Cloud eher strategisch und preferieren die Public Cloud, während Europa im Bereich Private Cloud stark ist.

 

Das Cloud BI im Vergleich zu CRM oder ERP-Anwendungen erst jetzt auf dem Markt ins Laufen kommt, hat lt. [EMA2015] seine Gründe:

  • Die für BI zugrundeliegenden Datenmodelle sind im Vergleich sehr unternehmensindividuell
  • Ebenfalls im Frontend gibt es typischerweise keinen Standardprozess
  • Die zwischen Quellsystemen und BI-System ausgetauschten Datenmengen sind typischerweise deutlich höher als bei transaktionalen Anwendungen

 

[Forrester2015] gibt bei der Auswahl eines Cloud BI-Anbieters folgendes zu beachten:

  • Der Abgleich des Cloud-Angebots mit den eigenen Anforderungen und Erwartungen
  • Die Berücksichtigung hybrider Modelle zur Kombination von On-Premise und Cloud BI
  • Sicherstellung der Erfüllung der Anforderungen durch Compliance und Vorschriften
  • Die eigenen Anforderungen und die Möglichkeiten des Anbieters bzgl. Offline Verfügbarkeit

 

SAP bspw. liefert bzgl. Cloud BI in den verschiedensten Servicemodellen Lösungen aus:

  • Software as a Service (SaaS): die Anwendung wird aus der Cloud heraus angeboten, z. B. SAP BusinessObjects Cloud
  • Platform as a Service (PaaS): in der Cloud wird eine Plattform zur Entwicklung von Applikationen angeboten, z. B. SAP HANA Cloud Platform
  • Infrastructure as a Service (IaaS): Die komplette Infrastruktur (Speicherplatz, Rechenleistung) wird angeboten und es kann beliebige Software darauf installiert werden, z. B. SAP HANA Enterprise Cloud (HEC)
  • Speziellere Modelle wie
    • Data as a Service (DaaS) – der Service liefert definierte Daten zur Nutzung z. B. SAP Digital Consumer Insight
    • Big Data as a Service (BDaaS) – Big Data Applikationen werden direkt nutzbar zur Anwendung z. B. Altiscale (SAP)
    • Analytics Microservices – Durch eine API in eine Software eingebundene Funktion z. B. SAP Hybris as a Service (YaaS)

 

[TDWI2016] liefert 12 Best Practices sich dem Thema Cloud BI zu nähern:

  • Begrüße den Wandel – Bedenken bzgl. Datenschutz und Datensicherheit behindern den Weg in die Cloud. Unternehmen, welche in der Cloud sind, sehen klar die Vorteile bzgl. Flexibilität und Agilität.
  • Beachte kulturelle Themen – Es gibt legitime Gründe gegen die Cloud. Jobs können dadurch wegfallen. Change Management und Weiterbildung sind hier wichtig.
  • Nutze die Cloud um schneller Wert aus BI und Analytics zu ziehen
  • Suche die richtigen Projekte für den erfolgreichen Start
  • Nutze Cloud um die Integration zwischen BI, Analytics und Anwendungen zu modernisieren
  • Cloud-Architektur ist wichtig – Die Cloud ist Teil einer größeren IT-Architektur und in hybriden Ansätze wird viel Zukunft gesehen
  • Weite die IT-Governance auf die Cloud aus
  • Denke im Voraus an Performance und Latenzzeiten
  • Nutze die Cloud als Gelegenheit um mit Open Source zu experimentieren
  • Gehe nicht davon aus, das Datensicherheit und Disaster Recovery automatisch passieren
  • Stelle sicher, dass eine ausreichende „Elastizität“ gegeben ist
  • Konzentriere dich auf eine gute Integration zwischen On-Premise und Cloud

 

Referenzen:

[BARC2017] – BARC & EckersonGroup – BI and Data Management in the Cloud: Issues and Trends, BARC Research Study, January 2017

[TDWI2016] – TDWI – Best Practice Report Q4/2016 – BI, Analytics and the Cloud – Strategies for Business Agility, 2016

[EMA2015] – Enterprise Management Associaties (EMA) – Analytics in the Cloud – An EMA End-User Research Report, January 2015

[Forrester2015] – The Forrester Wave(TM): Cloud Business Intelligence Platforms, Q4 2015

SAP BI Statement of Direction für On-Premise

Heute wurde ein aktuelles Statement of Direction (SOD) für BusinessObjects BI veröffentlicht.

Nachdem vor Kurzem auf zum Start der SAPPHIRENOW bereits kund getan wurde, dass alle BI-Lösungen, On-Premise und Cloud unter BusinessObjects laufen. Und mit der starken Präsentation der Cloud BI-Lösung von SAP überlegt man sich natürlich schon, wo geht das alles hin.

Nun, was kann man aus dem SOD mitnehmen, welches immerhin auf 20 Seiten präsentiert wird?

Mit dem SOD möchte SAP eine Roadmap für die nächsten 2 Jahre aufzeigen. Zunächst tut die SAP dies, in dem Sie klar darstellt, dass sowohl in die Cloud wie auch in On-Premise BI weiter investiert wird. Die Strategie ist „Innovate the core and lead the cloud“.Durch die Digitale Transformation werden Themen wie Predictive, Self-Service und Realtime immer wichtiger.

Innovate the core
Timo Elliott, 2016

SAP sieht Analytics und BI als die Schlüsseltechnologie, um aus der dem digitalen Business Werte zu schöpfen. SAP wirbt hier mit dem Stichwort „Reimagine Analytics

Nach der Vorstellung der allgemeinen Richtung liegt der Schwerpunkt des SOD auf den folgenden Tools:

Schade, dass Crystal Reports hier nicht auftaucht. Ist es doch immer noch Teil der Simplification-Roadmap von SAP.

SAP sieht zwei Trends am Markt. Den Trend in Richtung Self-Service BI. SAP sieht hier Lumira und Analysis for Office positioniert. Bei Lumira wurde massiv investiert in neue Funktionen und durch die Verschmelzung mit Design Studio Ende 2016 wird hier die Strategie weiter entwickelt. Bei Analysis for Office wurde ein gemeinsames Add-In mit BPC entwickelt, um den Nutzen beider Welten zu erhöhen.Zukünftig soll dieses noch um Live Office-Funktionen erweitert werden.

Der zweite Trend ist, in die IT-gesteuerte Unternehmens-BI skalierbarer und vertrauenswürdiger zu machen. Erreicht werden soll das durch die Vereinfachung des SAP BI-Portfolios, ein einfacheres Plattformmangement und die Modernisierung der BI-Werkzeuge. Die SAP sieht hier Design Studio, Web Intelligence und Crystal Reports (also doch Crystal Reports, im Dokument jedoch ohne BusinessObjects vorangestellt???):

Mit Design Studio 1.5 und 1.6 sollten hauptsächlich die Lücken zu BEx Web Application Designer und SAP BusinessObjects Dashboards geschlossen werden. Aber auch viele neue Features wie die Scorecard-Komponente oder Smart Objects. Die BI Plattform 4.2 liefert die vertrauenswürdige Basis für BI im ganzen Unternehmen.

Auch Web Intelligence liefert viele Erweiterungen mit BIP 4.2 und für alle Tools wird weiter investiert und an den oben genannten Zielen gearbeitet.

Auch die BusinessObjects Mobile-Lösung ist klar weiter gesetzt und hat ihren Cloud-Gegenspieler nun mit Roambi gefunden. Zukünftig wird Lumira hier u. a. noch stärker unterstützt werden.

SAP BusinessObjects Predictive Analytics soll seine Position weiter ausbauen. Ebenso wird in die prädiktiven Fähigkeiten von HANA investiert. Predictive Anaytics soll für jeden Anwender nutzbar werden. Das wird von SAP als ein „data scientists in a box“ beschrieben.

Des weiteren sieht SAP die HANA Plattform als Digital Enterprise Platform, welche zwar auf der „Cloud First“-Philosophie beruht, jedoch bereit ist, die Brücke zwischen Cloud und On-Premise zu schlagen. BusinessObjects BI-Werkzeuge sind Schlüsselelemente dieser Plattform.

Bzgl. S/4 HANA werden die Core Data Services das zentrale Element sein, um im gesamten Kontext von S/4 HANA alle Möglichkeiten für operative, taktische und strategische Analytics , unterstützt auch durch ein embedded BW zu liefern. Das Ziel ist dabei alle Standard-ABAP-Berichte abzulösen.

Und zu guter Letzt, nach einem erneuten Werbeblock für die Cloud BI-Welt fordert die SAP die Community auf, mitzumachen und sich einzubringen.

Alles in allem, nicht viel unerwartetes. Wenig, was nicht schon die letzten Wochen bekannt geworden ist. Jedoch sicherlich eine gute Zusammenfassung, um klar zu stellen, wohin der Weg geht.

Seien wir gespannt wie es weiter geht…