S/4HANA Embedded Analytics

S/4HANA Embedded Analytics ist der Ansatz von SAP, ein performantes und flexibles operatives Reporting zu ermöglichen.
SAP® S/4HANA embedded analytics is the collection of all analytics fea-
tures integrated in the SAP S/4HANA suite that enables business users,
business analysts, and IT to perform real-time process analytics and

operational reporting on live transactional data.

Aus: SAP S/4HANA Embedded Analytics FAQ

Die Datengrundlage bilden virtuelle Datenmodelle (VDM), welche hauptsächlich auf den Core Data Services basieren. Im Frontend sind die aktuellen BusinessObjects BI-Werkzeuge sowohl On-Premise, wie auch in der Cloud verfügbar. Auf Fiori-Basis wurden jedoch neue Werkzeuge  entwickelt, welche man zwischen den Rollen Endanwender und Analysespezialist unterscheiden kann.

Für die Endbenutzer:

  • Multidimensionale Reports

  • Smart-Business-KPIs

  • Analytische Apps basierend auf Analysis Path Framework (APF)

  • Abfrage-Browser

  • Analytische Fiori-Apps

Für den Analysespezialisten:

  • Multidimensionale Reports

  • Smart-Business-KPIs

  • Analytische Apps basierend auf Analysis Path Framework (APF)

  • Abfrage-Browser

  • Analytische Fiori-Apps

Um das Thema „Embedded Analytics“ ganzheitlich zu betrachten muss man sich auch mit den ein Stückweit alternativen Ansatz HANA Live auseinandersetzen, welcher hier immer noch im Einsatz ist. Und auch das Embedded BW verliert seine Bedeutung durch die neuen Möglichkeiten nicht sondern kann in vielen Fällen aus meiner Sicht an Bedeutung gewinnen. Genauso entwickelt sich in diesem Kontext das BW selbst weiter, behält jedoch in vielen Bereichen noch seine bisherige Bedeutung.

Natürlich kann man sich auch fragen, ob S4H Embedded Analytics nicht nur einfach eine Modernisierung von LIS, SAP Query und ABAP Reports ist. Aber das würde hier zu weit führen.

Der Gedanke ist, diesen Blog in Zukunft evtl. auszubauen, wenn sich damit ein Mehrwert zeigt. Aktuell soll er jedoch im Schwerpunkt als Referenz für die aktuellen Quellen und verfügbaren Informationen zu dem Thema dienen. Es gibt bereits sehr gute Blogs zu dem Thema welche u. a. im Folgenden aufgelistet sind.

Best Practices von SAP: https://rapid.sap.com/bp/#/BP_S4H_ANA (mit S-User)

Das SAP FAQ zum Thema. Leider seit 11/2015 nicht mehr aktualisiert.

2-teilige Blog-Serie von Anirban Kundu aus dem SAP Produktmanagement, welcher einen guten Einstieg darstellt, gute weiterführende Referenzen bietet, jedoch technisch nur bis in eine überschaubare Tiefe geht: Teil 1, Teil 2

SAP S/4HANA Embedded Analytics – A detailed Walkthrough – 5-teilige Blog-Serie mit sehr guten Beschreibungen der relevanten Aspekte von prabhith prabhakaran: Teil 1, Teil 2, Teil 3, Teil 4, Teil 5

Die Einstiegsseite für S/4HANA Release 1610. Unter SAP S/4HANA > Übergreifende Komponenten > Analysen findet sich die aktuell SAP-Hilfe zu Embedded Analytics.

Developer Guide für Analysis Path Framework (APF)

SAP-Hilfe zu SAP Smart Business Cockpits

SAP Fiori Library – Rolle „Analytics Specialist“ – unter Categories > by Roles > Analytics Specialist :

sapanalytix_s4heaapps01
SAP Fiori Library – Rolle „Analytics Specialist“

 

 

SAP Logical Data Warehouse

Immer wieder höre ich mit dem Aufkommen von BW/4HANA auch den Begriff Logical Data Warehouse.

Der Begriff selbst scheint auf Mark Beyer von Gartner zurückzuführen zu sein, welcher auch als „Father of the Logical Data Warehouse“ bezeichnet wird. In einem Blog verweist er dabei etwa auf 2009 bzgl. der ersten Verwendung des Begriffs.

Gartner defines a logical data warehouse (LDW) as a data warehouse that uses repositories, virtualization, and distributed processes in combination.

Quelle: http://www.informationweek.com/software/information-management/data-warehouse-disruptions-2016-gartner-magic-quadrant/d/d-id/1324544

In dem Blog beschreibt er das LDW wie folgt:

“the best name is probably a Logical Data Warehouse,…because, it focuses on the logic of information and not the mechanics that are used.”

– Mark Beyer, 2009

Bei SAP taucht der Begriff Logical DW (LDW) im Rahmen der 2016er-Vision für SAP HANA Data Warehouse auf. Vor allem im Kontext Adapter/Integration.

Bereits 2014 wurde das Thema durch Ulrich Christ auf der TechEd im Kontext BW on HANA vertieft. Er beschreibt darin die Umsetzung des Logical Data Warehouses im SAP BW on HANA mit Smart Data Access als Kerntechnologie für den virtuellen Zugriff auf Daten.

Die SAP hat das Logical Data Warehouse als klaren Bestandteil und Ansatz in die LSA++ übernommen.

Auch für BW/4HANA habe ich leider bisher keine genauere Beschreibung gesehen, wie man das Thema evtl. weiter entwickeln will. Das BW/4HANA jedoch den Ansatz grundsätzlich gut unterstützt ist fast überall zu finden. So ist dies bereits bei der Angekündigungsmeldung zu finden, wie auch auf der Produktseite oder in der FAQ von John Appleby/Bluefin. Nur wirklich viel Neues seit der TechEd 2014 kann ich leider auch nicht sehen.

Letztendlich hat Ulrich Christ jedoch am 13.09.2016 beim BW/4HANA Launch genau den Ansatz als wichtiges Feature gezeigt, als er zu einem bestehenden Datenmodell innerhalb von 1-2 Minuten Daten aus einer neuen Quelle, welche nicht persistent im BW war integriert hat.

BW/4HANA SPS01

Nach dem Start des neuen BW/4HANA im September spendiert die SAP in KW13 2017 auch das erste Support Package für ABAP. Leicht enttäuschend dafür, dass in den Präsentationen immer mal erwähnt wird, dass durch die Loslösung von SAP NetWeaver schnellere Updates möglich sind. Denn bis dahin sind gut 6 Monate seit GA vergangen.

Da man sich ja nun bzgl. BW 7.5 auf keine großen Neuerungen mehr freuen kann, ist es besonders interessant zu beobachten, wohin BW/4HANA sich nun entwickelt.

Schauen wir zuerst auf die interessanten neuen Funktionen:

  • Big-Data-Quellsystem – Über Smart Data Access und den Adapter SPARK SQL sowie des Spark Controllers wird ein Zugriff auf Big Data zur Verfügung gestellt. Open ODS-Views und CompositeProvider ermöglichen die Integration ins BW.

  • API für Hierachien – Hier hat die SAP wohl auf BW/4HANA angepasste Funktionsbausteine ausgeliefert. Oberflächlich scheint damit die eine oder andere Funktion dazu gekommen zu sein:

    bw4hier01
    Vergleich Hierarchie API’s BW7.5 und BW/4HANA
  • Bearbeitung von Stammdaten – Was hat man sich nicht so gedacht, womit die SAP ab Release 7.4 hinwollte, als sie die Stammdatenpflege vom SAP GUI in ein Web Dynpro verlegt hatte. Lt. Doku wollte man damit besser die Business User unterstützen. Nun hat SAP die Bearbeitung in die BW Modellierungswerkzeuge integriert. Da man unter BW Modellierungswerkzeuge Eclipse versteht, ist damit wohl gemeint, dass hier einfach alles an einem Ort, aber doch noch in Web Dynpro ist.
  • SAP Dynamic Tiering pro Partition – für DSO’s (advanced) können die Daten jetzt pro Partition in Extension Nodes verschoben werden.
    • Query anlegen – Prioritäten definieren: Hier können bei Queries mit 2 Strukturen jeweils festgelegte Eigenschaften priorisiert werden. Diese Funktion ist extra für Power User gedacht.

Auch zwei Änderungen/Erweiterungen, welche auf interessante Eigenschaften von BW/4HANA hindeuten:

  • CDS-Views für Data-Warehouse-Monitoring: Hier werden Core Data Services-Views als Nachfolger für den Technischen Content eingesetzt. Das vereinfacht natürlich auch das Monitoring, da keine Stamm- oder Bewegungsdaten ins BW geladen werden müssen.
  • SAP HANA-Views für Queries mit Hierarchiefilter: Eine Erweiterung, um in der HANA DB Calculation Views zu erzeugen. Offensichtlich ist es gut, hier auch die Einschränkungen zu kennen.

So, als kurzes Fazit ist aus der Release-Information noch nicht viel Großes herauszulesen. Man scheint sich dem Thema Big Data zu nähern und liefert an sonsten nur kleinere Anpassungen. Vielleicht sickern aber bis zum Erscheinungstermin auch noch ein paar größere Themen durch.

Mit den oben dargestellten Themen hat man es auf jeden Fall geschafft, die Roadmap für Q4/2016 zu erfüllen. Auch wenn erst Ende Q1/2017 geliefert wird.

Zu den angekündigten HANA native DataStore object (NDSO) konnte man leider nicht viel in der BW/4HANA-Hilfe finden. Im HANA 2-Kontext werden sie als Integrationsebene zwischen HANA DW und BW beschrieben, welche typische BW-Funktionalitäten wie Delta und Request-Handling ermöglicht. Das NDSO soll mit den nächsten Release von SAP HANA Data Warehousing Foundation und ab HANA 2 verfügbar gemacht werden. Es ist somit also erstmal ein HANA-Thema, auch wenn es auf der BW/4HANA Roadmap steht. Die HANA Academy auf YouTube hat einige einführende Videos dazu geteilt.

Für Q2/2017 sind folgende Neuerungen geplant:

  • HANA Analysis Process kann BW-gesteuert auf Spark/Hadoop ausgeführt werden.
  • Erweiterte HANA EIM-Integration: Delta und Realtime-Streaming Unterstützung für native HANA-Tabellen
  • HANA-View Generierung für Open ODS-View
  • Parallel-Loads für Stammdaten
  • Weiterer Push-Down von OLAP-Funktionen wie Ausnahmeaggregationen einschließlich Währungs- und Mengeneinheitenumrechnung

Damit kommen aus meiner Sicht die spannenden Themen erst unter dem Stichpunkt „Future Innovation“. Na dann freuen wir uns einfach mal auf zukünftig noch konkretere Information bzgl. BW/4HANA.

SAP Core Data Service (CDS)-Views für Analytics

Mitte 2015 gab es in den Niederlanden eine Videoaufzeichnung zu einem BI Podcast zwischen Ulrich Christ (SAP Produktmanager für HANA im Bereich Data Warehousing), der auch aus den OpenSAP-Kursen zu BW-Themen bekannt ist und Jürgen Haupt, SAP Produktmanager SAP EDW, der auch sehr bekannt für das Thema LSA ist, mit dem Titel „S/4HANA Analytics with CDS views and BW as evolutionary extension„.

Ulrich Christ zeigt dabei eine Demo mit Analysis for Office auf einem CDS-Modell, welches in einem S/4HANA-System liegt. Er erklärt die Mächtigkeit im Vergleich zu Data Dictionary Views und wesentliche Elemente eines CDS:

  • Annotations – besonders interessant hier ist die Analytics Annotation.
    • SAP beschreibt diese als „Enable the analytic manager for multidimensional data consumption, performing data aggregation, and slicing and dicing data. BI frontends like Design Studio and Analysis Office can consume the data via the analytic manager.
    • Durch die Annotation wird z. B. definiert, um welche Kategorie von Daten es sich handelt  – Stammdaten (#DIMENSION) oder transaktionale Daten (#FACT, #CUBE) oder um Plandaten (#AGGREGATIONLEVEL).
    • Hier wird auch festgelegt, ob der CDS-View für die Extraktion geeignet ist und evtl. Delta-Verfahren unterstützt. Damit bildet der View beispielsweise auch die Basis für eine BW DataSource.
  • Associations – Diese dienen der Ergänzung der grundlegenden Daten. So können hier für transaktionale Daten noch Attribute oder Texte hinzugefügt werden. Im Vergleich zu einen SQL-Join sind Associations wiederverwendbar.

Ulrich Christ macht klar, dass CDS-Views langfristig die neue Grundlage für BW-DataSources in S/4HANA sind. Wie SAP in der Präsentation „SAP S/4HANA Analytics & SAP BW Data Integration“ zeigt, geht dies mittlerweile sogar noch darüber hinaus. SAP sieht CDS-Views im ABAP-Layer als Virtual Data Model (VDM), welches Daten für BI (über Transient Provider), Hybride transaktionale und analytische Anwendungen (HTAP) und weitere S/4HANA-Anwendungen Daten bereitstellt:

sapanalytix_cds01

Quelle: „SAP S/4HANA Analytics & SAP BW Data Integration

Auf HANA-Ebene hat diese Rolle im Wesentlichen HANA Live, wobei das CDS-Konzept ja mittlerweile auf HANA übertragen wurde. Eine Erklärung der Unterschiede und Gemeinsamkeiten der beiden Konzepte findet sich von Horst Keller in seinem Blog. Ein guter Überblick und Vergleich findet sich auch hier.

Von Ulrich Christ kommt dazu die Aussage, dass HANA Live durch das veränderte Datenmodell in S/4HANA evtl. nicht mehr vollständig funktionieren wird und CDS das Konzept für Operational Reporting sein wird.

In einer Präsentation der SAP TechEd 2015 werden folgende Nachteile von SQL im Vergleich zu CDS aufgezeigt:

  • Eine große semantische Lücke zwischen der konzeptionellen Anforderung und der Umsetzung in SQL
  • Die Komplexität der Anforderung führt zu einer verschlechterten Performance

Bzgl. dem Argument „Aber dann nutze ich ja gar nicht mehr die Performance einer HANA-Datenbank aus, da die Anwendungslogik auf dem Application Server läuft“ gibt die Präsentation zwei Antworten:

  • Eingebaute SQL-Funktionen/-Ausdrücke können komplexe Berechnungen in die HANA-Datenbank oder auch jede andere von SAP unterstütze Datenbank pushen.
  • CDS Table Functions nutzen native HANA-Funktionen, welche in CDS implementiert wurden.

Mittlerweile hat sich Ulrich Christ in einem Blog vom November 2016 nochmal die genaue Verwendung von CDS im Kontext BW angeschaut und einige Dinge klar gemacht:

  •  Erweiterung von BW InfoProvidern um zusätzliche Informationen -> Nein!
    • Das BW-Datenmodell ist sehr ausgereift und komplex. Dies nachzubilden wäre nicht sinnvoll. Ein Ansatz, BW-Datenmodelle für SQL zu öffnen wären HANA Calculation Views. Ein Ansatz zur Integration von Non-BW-Daten ist über den OpenODS-View möglich.
    • CDS würde das Konzept der Analyseberechtigung umgehen. Ebenfalls HANA Calculation Views und die Ableitung von HANA Privileges aus Analyseberechtigungen wären hier der Ansatz.
  • SAP BW Technischer Content -> Ja!
    • Hier wird tatsächlich seit BW 7.5 SP04 Content auf Basis von CDS-Views ausgeliefert.
  • Integration von Daten ins BW über CDS -> Ja!
    • Die Extraktion von S/4HANA-Daten über den Quellsystemtyp ODP-CDS ist möglich.
    • Über OpenODS-View können CDS-Views auch virtuell konsumiert werden.
  • BW Transformationen -> Vielleicht!
    • Ein komplexer Look-Up auf eine Z-Tabelle wäre denkbar.

Nun gut, aus meiner Sicht ist und bleibt CDS eine Technologie, welche zunehmend eine Rolle spielen wird und es gut ist, wenn man weiß, was sich tut und die CDS-Entwicklung evtl. sogar beherrscht. Hoffen wir nicht, das wie bei HANA Live der Ansatz wieder schneller weg ist, als S/4HANA in der Breite ins Laufen kommt.

Rückkehr des Embedded BW?

Bereits vor einiger Zeit habe ich aufgrund immer wiederkehrender Diskussionen versucht, Aspekte aufzuzeigen, welche abzuwägen sind, wenn man S/4HANA einführt, und sich im gleichen Zuge Gedanken macht, ob man dann auf das BW-System verzichten kann:

BW vs. S/4 HANA

Gerade die Unternehmen von Typ:

  • (Gehobener) Mittelstand
  • 1 zentrales ERP-System auf dem alle Standorte laufen
  • und in dem der Großteil der Unternehmensprozesse abgebildet sind
  • Verbunden mit einer hohen Kostensensibilität

sind nicht so ganz einfach zu überzeugen bzw. haben evtl. dafür genau das richtige Szenario um über sowas nachzudenken.

Durch ein Embedded BW kann man schließlich immer noch sagen, man nutzt hier bei Bedarf entsprechende Funktionalitäten, welche vielleicht so im ERP nicht verfügbar sind.

Hier ist bereits der erste wichtige Punkt. Fange ich an, ein Embedded BW zu nutzen und:

  • die Nutzung nimmt zu, immer mehr Szenarien sollen dort abgebildet werden
  • durch einen Zukauf hat man evtl. ein Unternehmen, welches unterschiedliche Prozesse hat und welches man nicht mal kurz in das zentrale ERP-System integrieren kann
  • Führe ich doch ein Non-SAP-System ein, welches Daten für das Reporting liefern soll
  • Kann/Will ich SAP-Systeme nicht integrieren (z. B. HCM aus Datenschutzgründen oder SAP Cloud-only Systeme)
  • Möchte ich die analytischen Fähigkeiten von SAP für neue Arten von Daten nutzen (z. B. Social Media, IoT, …)

Dann steigt u. U. recht schnell die Datenmenge.

Die Empfehlung der SAP ist hier, nicht mehr als 20% des Gesamtdatenvolumens im Embedded BW zu halten. Dies schließt Daten aus dem eigenen ERP, aus Fremdsystemen oder aus Planungsprozessen mit ein.

Auch an die Ressourcenseite ist zu denken. Es ist anzunehmen, dass analytische Funktionen höhere Anforderungen auch an ein HANA-System stellen, als dies bei einem transaktionalen System der Fall ist.

Man schränkt sich bzgl. analytischen Funktionen selbst ein. Einerseits durch die Abhängigkeiten des ERP-Releases. Andererseits hat die SAP klar gemacht, dass die nächste Entwicklungsstufe des SAP BW, das BW/4HANA, nicht Teil eines S/4HANA-Systems sein wird und somit die Weiterentwicklungen der nächsten Jahre nur sehr begrenzt zur Verfügung stehen.

Also nach wie vor, und gerade wenn man bereits ein bestehendes BW-System hat, gilt es, diese Entscheidung ganz genau mit der strategischen Planung der nächsten Jahre abzugleichen und keinesfalls aufgrund kurzfristiger Hoffnung auf Einsparungen zu folgen.

BI & Machine Learning

Howard Dresner stellt in seinem aktuellen Blog die Frage „Is Artificial Intelligence the Future of Business Intelligence?

Bei SAP selbst tauchen Begriffe wie Machine Learning (ML) oder Artificial Intelligence (AI) immer wieder auf. So ist Bernd Leukert als SAP Vorstand für Produkte & Innovationen auch Aufsichtsrat des Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Bill McDermott hat in einem vor Kurzem erschienen Interview klar gesagt, dass SAP zukünftig eine führende Rolle in diesem Bereich einnehmen will. Er wird dabei wie folgt zitiert:

“We want to become the world-wide machine learning leader for corporate businesses, hands down,” …

“Our goal is to have the most intelligent business applications and we’re doing everything we can to achieve that.”

Nicht zuletzt hat SAP aktuell auf der MOOC-Plattform OpenSAP einen Kurs mit dem Titel „Enterprise Machine Learning in a Nutshell“ laufen.

Nun, schaue ich mir den OpenSAP-Kurs so an, dann sehe ich kaum Unterschiede zu dem, was ich schon 2006 zu Diplomarbeitszeiten gesehen und gelesen habe und was heute oft unter dem Label Predictive Analytics verkauft wird.

Schaut man sich die aktuellen Tools von SAP an, so findet man immer wieder die Verwendung der Automated Predictive Library (APL) und der Predictive Analysis Library (PAL) sowie der OpenSource Statistik-Bibliothek R, welche sich bei vielen Anbieter großer Beliebtheit erfreut. APL und PAL sind natürlich Teil von HANA selbst. Und im BW ist die Integration mit dem HANA Analysis Process möglich. Dann gibt es auch noch das Werkzeug SAP Predictive Analytics, welche grafische Oberflächen zur Modellierung bietet. Und auch in das noch sehr neue SAP Produkt SAP BusinessObjects Cloud hat Predictive mittlerweile Einzug gehalten.

Begriffe, welche man in dem Zusammenhang neben Künstliche Intelligenz und Maschinellem Lernen immer wieder hört, sind Data Mining, Statistik, Deep Learning und manchmal vielleicht auch noch Data Science.

Gartner beschreibt Maschinelles Lernen/Machine Learning wie folgt:

Advanced machine learning algorithms are composed of many technologies (such as deep learning, neural networks and natural-language processing), used in unsupervised and supervised learning, that operate guided by lessons from existing information. 

Lt. Gartner stellt sich Künstliche Intelligenz/Artificial Intelligence deutlich komplexer dar:

Artificial intelligence is technology that appears to emulate human performance typically by learning, coming to its own conclusions, appearing to understand complex content, engaging in natural dialogs with people, enhancing human cognitive performance (also known as cognitive computing) or replacing people on execution of nonroutine tasks. Applications include autonomous vehicles, automatic speech recognition and generation and detecting novel concepts and abstractions (useful for detecting potential new risks and aiding humans quickly understand very large bodies of ever changing information).

Gerade der hier auftauchende Begriff „Cognitive Computing“ zeigt, dass in dem Bereich aktuell viel Bewegung ist, bei dem IBM mit Watson ein Vorreiter ist. Jedoch beispielsweise auch die deutsche BITKOM das Thema für sich entdeckt hat.

Als ich 2006 meine Diplomarbeit zum Thema Data Mining (DM) schrieb, war die Welt noch etwas einfacher. Daten waren noch nicht so „Big“ oder „Smart“ und die Begriffswelt noch nicht so ausdifferenziert.

Data Mining beschrieb ich neben OLAP und Planung als Analysetechnik welches typischerweise auf einem Data Warehouse basiert:

„Data mining is the process of discovering meaningful new correlations,
patterns and trends by „mining“ large amounts of stored data using pattern
recognition technologies, as well as statistical and mathematical techniques.“
(Ashby, Simms 1998)

Bei der Herkunftsbestimmung aus diversen Büchern fand ich:

  • Statistik
  • Datenbankmanagement
  • Mustererkennung
  • Visualisierung
  • Künstliche Intelligenz – vor allem der Bereich „Maschinelles Lernen“

Viele der Begriffe versucht man heute viel deutlicher voneinander abzugrenzen, als das nach meinem Gefühl vor 10 Jahren der Fall war. Möglicherweise ist das aufgrund der weitergeführten Forschung in den Bereichen, dem technologischen Fortschritt sowie geänderter Rahmenbedingungen (z. B. 3 V’s) auch absolut sinnvoll.

Nehme ich mal die drei aus meiner Sicht am engsten miteinander verbundenen Begriffe und schaue mir mal die Trends bei Google an, zeigt sich folgendes:

ki_ml_dm01

Offensichtlich zeigen AI und DM eine gewisse Korrelation über die Zeit. Machine Learning hat dafür lange vor sich dahingedümpelt, bis die letzten Jahre der Trend doch angezogen hat, so das Machine Learning an den anderen beiden Begriffen vorbeigezogen hat. Interessant auch der Blick auf die weltweite Verteilung:

ki_ml_dm_02_welt

Möglicherweise sind die Begriffe auch noch sehr regional geprägt. Während Data Mining doch recht verbreitet zu sein scheint, ist Machine Learning wohl vor allem in Skandinavien populär.

Gartner hat im Hype Cycle für Advanced Analytics und Data Science, 2015 das Thema Machine Learning auf dem Gipfel der überhöhten Erwartungen gesehen. Direkt vor Predictive Analytics. Der Hype Cycle 2016 hat sich dazu kaum verändert.

Bei den vor Kurzem für 2017 veröffentlichten Technologie-Trends sieht Gartner das Thema AI & ML als Top 1 und meint:

AI and machine learning have reached a critical tipping point and will increasingly augment and extend virtually every technology enabled service, thing or application.

In diesem Sinne folgen an Stelle 2 und 3 auch gleich die Themen „Intelligent Apps“ und „Intelligent Things“, welche letztendlich wieder stark auf AI basieren.

Howard Dresner schließt seinen Blog mit der Überlegung, das AI im BI-Umfeld ein Thema ist, wenn sie die Daten besser analysieren kann, als ein Mensch. Jedoch warnt er auch, dass AI trotz seines Alters (Ursprünge in den 50er-Jahren) heute keine reife Technologie ist und für Fehler sehr wohl anfällig sein kann, wie bspw. Microsoft im Frühjahr 2016 erfahren musste.

Was bedeutet dies nun für den klassischen SAP BI-Berater, der mit SAP BW, BEx und evtl. BusinessObjects BI unterwegs ist? HANA kommt, aber ist eben noch nicht überall angekommen. Bis zur BusinessObjects Cloud ist es für viele vor allem in Deutschland ebenfalls noch ein langer Weg. Und SAP Predictive Analytics ist aus meiner Erfahrung von der Lizenz her recht teuer.

Ich glaube zurück zur SAP BW Data Mining Workbench und zum Analyseprozessdesigner möchte auch niemand unbedingt. Die Automated Analytics-Ansätze richten sich schon an den Business User. Muss man dann evtl. nur noch technisch und bei der Bereitstellung der Daten unterstützen? Oder braucht man gleich die Weiterbildung zum Data Scientist?

Ich denke es sind einfach auch verschiedene Skills, wie auch verschiedene Anforderungen an die IT, die hier im Spiel sind. Trivial zu beantworten ist dies deshalb sicherlich nicht. Jedoch ist aus heutiger Sicht klar, alles, was eine SAP aktuell unter Analytics zusammenfasst, kann sowieso nur im Team abgedeckt werden. Dieses aufzubauen und zu strukturieren ist vielleicht die wahre Herausforderung.

Hans Peter Luhn

Hans Peter Luhn (1896 – 1964) war ein deutscher Informatiker bei IBM.

Er arbeitete seit 1941 bei IBM und leistete wichtige Arbeit im Bereich der Datenverarbeitung. Bekannt wurde sein Name in den letzten Jahren durch den 1958 veröffentlichten Artikel „A Business Intelligence System„, welcher oft als Ursprung des Begriffs „Business Intelligence“ angesehen wird.

Der Artikel beschreibt jedoch eher die Verarbeitung und Extraktion von Informationen aus Dokumenten, weshalb der Bezug zum typischen Verständnis von BI umstritten ist.

Dazu passt es, dass er u. a. als Vater des Information Retrivial genannt wird.

SAP HANA 2

Am 08.11.2016 hat SAP zum Start der SAP TechEd Barcelona das Release 2 der HANA-Datenbank vorgestellt. Geplantes Releasedatum für Kunden ist der 30.11.2016. Kurz darauf soll es auch die HANA 2 Express Edition geben, um Entwicklern einen schnellen Zugriff zu ermöglichen.

Bernd Leukert hat HANA 2 wie folgt angekündigt und beschrieben:

“The first version of SAP HANA is the synonym for real time processing of data. It’s already the backbone of thousands of major companies,” said Leukert. “I’m proud to officially announce today SAP HANA 2, which will be released at end of November. This next generation of SAP HANA is the digital foundation to transform any business, helping IT shift focus to innovation, continuing to evolve data management and application development.”

Wer mag, kann sich hier direkt die Ankündigung anschauen.

Bzgl. Analytics soll HANA 2 folgende Erweiterungen liefern:

„Analytical intelligence: Developers are embedding rich insight into applications with enhanced analytical processing engines for text, spatial, graph and streaming data. For example, new algorithms for classification, association, time series and regression have been added to the predictive analytics library to empower data scientists to discover new patterns and incorporate machine learning into custom applications.“

Wenn auch der Zusammenhang aus den bisherigen Meldungen mir noch nicht ganz klar ist, hat SAP zeitgleich cloudbasierte SAP HANA Microservices im Bereich Analytics angekündigt:

  • TEXT ANALYSIS ENTITY EXTRACTION – Ein Service zum hervorheben wichtiger Informationen in unstrukturierten Daten.
  • TEXT ANALYSIS FACT EXTRACTION – Ein Service zur Sentimentanalyse, bspw. bzgl. eines Produktes oder eines vom Unternehmen angebotenen Services. Ebenso einen Service bzgl. Öffentlicher Veranstaltungen (Public Sector) bspw. zur Risikoabschätzung sowie einen Service zur Analyse von Unternehmensereignissen (Enterprise) wie personelle Veränderungen oder die Neueinführung von Produkten.
  • TEXT ANALYSIS LINGUISTIC ANALYSIS – Ein Service zur Sprachanalyse, bspw. um welche Sprache es sich handelt oder im Weiteren der linguistischen Analyse des geschrieben selbst.
  • Earth Observation Analysis Service – Ein Service zur Auswertung von Satelliteninformationen bzgl. der Erde. Aktuell in der Beta-Version.

SAP verspricht sich von einer Microservices Architektur Folgendes:

  • Independence from the business domain, devices, and environments
  • Nonproprietary environment that offers freedom to choose the programming languages and underlying database technologies as well as gaining portability of services and applications between cloud infrastructures
  • Prebuilt business processes that allows organizations to develop new ways to utilize application data and services easily and flexibly, and scale to changing requirements

Bis zur Veröffentlichung Ende November wird evtl. noch die eine oder andere Information zu neuen Features fließen. Ab 01.12.2016 informiert die SAP dann in 12 Webinaren über die Neuigkeiten.

Bis dahin bietet die aktuelle HANA 2 FAQ Antwort auf wenigstens ein paar Fragen.

BARC: The BI Survey 16

Die Zusammenfassung der Ergebnisse der BARC BI Survey 2016 sind da! Schauen wir mal, was sie im Vergleich zu 2015 und bezüglich SAP zu bieten hat. Und als kleines Novum, weil Microsoft BI bei mir aktuell auch immer mal ein Thema ist, möchte ich diesmal die beiden gegeneinander vergleichen.

Als erstes fällt mir auf, dass BARC diesmal etwas mehr Umfang spendiert hat. 66 Seiten sind es diesmal (2015:43; 2014:42).

37 Werkzeuge wurden diesmal verglichen (2015:35; 2014:34). Damit ist eine Marktkonsolidierung in den letzten Jahren kaum zu erkennen. Waren neben den „BI giants“ 2014 und 2015 noch die kleinen Anbieter und Open Source-Anbieter im Fokus, so wurde das Thema Open Source wohl von SaaS BI-Lösungen verdrängt.

SAP in der BI Survey

  • SAP hat lt. Umfrage bei seinen Anwenderunternehmen eine durchschnittliche Nutzung von etwa 11% für Design Studio und Web Intelligence. SAP BEx folgt mit 10% und BO Analysis erst bei 4% der Anwender als Schlußlicht in der Umfrage. Dies stellt Werte deutlich im unteren Bereich dar.
  • Wie gewohnt sind SAP BI-Produkte eher bei größeren Unternehmen (>2.500 Mitarbeiter) zu finden.
  • SAP BW wird für Neuanschaffungen im BI-Umfeld in 16% der Fälle evaluiert. Dicht gefolgt von Web Intelligence, BO Analysis und dann noch Design Studio. Im einstelligen Prozentbereich sind aber genauso noch Crystal Reports, BEx, Lumira, BPC und BW-IP vertreten, womit SAP mit einer breiten Palette an Werkzeugen unterwegs ist.
  • Bei der finalen Kaufentscheidung hat es Web Intelligence auf den 5. Platz (12%) geschafft. Kurz darauf folgen aber auch Design Studio, BEx und BO Analysis.
  • Beliebte Frontend-Werkzeuge für SAP BW sind die typischen SAP-Werkzeuge wie führend BEx (62%), BO Analysis, Web Intelligence und Design Studio. Als 3rd-Party Frontends sind QlikView und Tableau noch am beliebtesten.
  • SAP BEx ist in der Umfrage das Werkzeug, mit der längsten durchschnittlichen Implementierungszeit (11 Monate)

Microsoft in der BI Survey

  • Unternehmen mit MS Excel verwenden dies im Schnitt zu 40% für BI. Andere MS-Tools sind MS SSRS (21%) und MS Power BI (14%)
  • Microsoft ist mit seinen Werkzeugen eher bei Kunden im Mittleren Bereich bis 2.500 Mitarbeiter vertreten.
  • MS-Produkte werden nach QlikView und Tableau am häufigsten für eine Neuanschaffung evaluiert. Das sind MS Excel, MS SSAS, MS SSRS und Microsoft Power BI. Mit etwas Abstand bei 12% ist MS SharePoint Server Excel Service noch zu erwähnen.
  • MS Excel ist die häufigste Kaufentscheidung. MS SSRS folgt an 3. und MS Power BI an 6. Stelle.
  • Für MS SSAS wurden Frontend-Werkzeuge analysiert. Dabei kommen MS SSRS (55%) und MS Excel (mit oder ohne Add-In) am häufigsten vor. Als 3rd Party Frontends folgen Tableau, Bissantz, Cubeware und QlikView.
  • MS Power BI zählt mit einer Implementierungszeit von durchschnittlich 3 Monaten zu den am schnellsten eingeführten Lösungen.

Ergebnisse

Wie im Vorjahr, sind der Finanzbereich, das Management und der Vertrieb Hauptnutzer von BI-Lösungen. Nah dran mit mehr als 50% jedoch auch noch die Bereiche IT und Produktion.

Grundsätzlich sieht BARC eine Erweiterung der Nutzung in Richtung Marketing, wo neue, externe Datenquellen auf neue Arten zusammen geführt werden.

Die Mehrzahl der Anwender kann durch BI schneller und genauer Berichte erstellen, planen und analysieren. Für viele verbessert sich damit auch die Entscheidungsfähigkeit und die Datenqualität.

Die starken Trends in 2016 sind Data Discovery und Self-Service BI mit jeweils über 50% der Anwenderunternehmen. Im größer 20%-Bereich befinden sich dann noch Real-Time, Collaboration, Visual Design Standards und Mobile BI.

Cloud BI wird aktuell nur von etwa 12% der Unternehmen genutzt. Hierbei vor allem Unternehmen mit weniger als 100 Mitarbeitern. MS Power BI hat als Produkt die Nase vorn, während SAP hier mit den vorgestellten Produkten bisher kaum gesehen wird.

Was finden Unternehmen an Cloud BI (Top 5):

  • Keine Hardware/Infrastruktur-Kosten
  • Geringe Administrationskosten
  • Skalierbarkeit
  • Verfügbarkeit
  • Schnellere Software-Updates

Die aktuelle BI Survey zeigt, dass SAP BI und MS BI durchaus in einem Unternehmen zu finden sein können, ihre Schwerpunkte jedoch in Unternehmen verschiedener Größen und auch in zum Teil verschiedenen funktionalen Bereich haben.

SAP mag mit seiner Cloud BI-Strategie anderen Herstellern am Markt hinterher zu sein. Jedoch ist denkbar, dass SAP in den nächsten 1-2 Jahren aufgeschlossen hat und in Bereichen gut positioniert ist, in denen SAP heute kaum sichtbar ist.

Eine klare Gemeinsamkeit zeigt die Studie. Beide Hersteller sind mit einer breiten Pallete an BI-Werkzeugen auf dem Markt. Bei SAP tauchen bis zu 10 Werkzeuge auf, bei MS kann man immerhin noch 3-4 zählen.

The Forrester Wave (TM) – Enterprise Performance Management

So, nachdem Gartner im Sommer bereits den aktuellen Magic Quadrant (MQ) zum Thema Corporate Performance Management (CPM) veröffentlicht hat, bringt nun auch Forrester seine Einschätzung unter der Bezeichnung Enterprise Performance Management (EPM) auf den Markt.

Um vorweg ein wenig Klarheit zu schaffen – Gartner hatte dieses Jahr seinen MQ ja in zwei aufgeteilt:

  • Financial Corporate Performance Management
  • Strategic Corporate Performance Management

Um klar zu machen, aus welcher Sicht der Blog geschrieben ist, gelten folgende Regeln:

  • CPM = EPM
  • EPM = Planung, BI & Konsolidierung (technologisch gesehen)
  • Forresters EPM unterscheidet nicht zwischen Strategic und Financial

Forrester erklärt EPM als:

„EPM is a software category comprised of a set of planning, reporting, and analytical applications that help organizations plan, report on, and analyze business information spanning the enterprise.“

-The Forrester Wave™: Enterprise Performance Management, Q4 2016

Forrester versteht unter EPM einen Ansatz, der Vergangenheit (z. B. Konsolidierung), Gegenwart (z. B. KPIs, Scorecards) und Zukunft (z. B. Planung, Forecasting) umfasst.

Es wurden 10 Hersteller bewertet. Bei diesen wird eine starke Bewegung von On-Premise in Richtung Cloud (SaaS) gesehen. Forrester erwartet, dass in den nächsten 5 Jahren SaaS führend sein wird.

Cloud wird im Bereich EPM aber nicht als einziger Innovationstreiber gesehen.

  • User Experience spielt eine wichtige Rolle, wobei Excel sehr dominat ist
  • Prozessunterstützte Collaboration wird zunehmend wichtiger
  • Advanced Analytics wird durch das Aufkommen von In-Memory-Technologie vorangetrieben
  • Real-Time Use-Cases werden in manchen Bereichen interessant

In der Forrester Wave sind neben SAP auch die anderen beiden großen Player IBM und Oracle dabei. Mir noch etwas bekannter und mit einer sehr starken Position, bei einer überschaubaren Marktpräsenz ist Tagetik.

Gleich vorneweg fällt auf, dass SAP im Vergleich zu den Gartner MQs hier keine Leaders-Rolle hat. Man ist gut als Strong Performer unterwegs, fällt hier aber bei den deutlich kleineren Wettbewerbern etwas aus der Rolle, was die Marktpräsenz betrifft.

Schwächen zeigt SAP vor Allem in der aktuellen Produktstrategie:

forrester-epm-2016

Oracle ist im Vergleich mit einem hervorragenden Angebot einer starken Strategie wohl zurecht Marktführer.

Während SAP im Bereich Reporting und Analyse eine hervorragende Bewertung erhält, zeigt lt. Forrester das Thema Cloud aktuell noch große Schwächen.

In der Einzelbewertung wird konkreter auf SAP BusinessObjects Planning and Consolidation (BPC) und deren verbesserte Integration in das ERP eingegangen. Gerade auch der zum letzten DSAG JK vorgestellte Ansatz für Realtime-Konsolidierung auf Basis eines S/4HANA Central Finance-Systems könnte hier zukünftig stärker in die Strategie einfließen. BPC war auch bei Gartner ganz klar das Flagship-Produkt und ist sowohl für Planung wie auch Konsolidierung von der SAP strategisch gesetzt.

Im SaaS-Bereich bietet SAP BusinessObjects Cloud an. Die Lösung hat als „Cloud for Planning“ begonnen und sich über Erweiterungen im Bereich BI und zuletzt auch Predictive Analytics stark weiter entwickelt. Für sich ist das Produkt aber eben noch recht neu, weshalb Forrester sicherlich zu Recht noch eine fehlende Reife in einigen Bereichen beobachtet.

Ohne die Lösungen der anderen Anbieter genauer zu kennen, kann ich trotzdem sagen, dass SAP hier wie dargestellt, stark am Arbeiten ist, um seine EPM-Lösung voran zu bringen. Möglicherweise ist das jedoch auch das Problem, weshalb SAP hier nicht zu den Leadern gehört. In den letzten Jahren ist das Thema BI/EPM/Analytics bei SAP ein work-in-process. Strategien werden fast schneller geändert als die Namen. Und das will bei der SAP schon was heißen.