SAP TechEd Las Vegas 2017 – Wenn Worte Zahlen sind

Man stelle sich vor, man hole sich einfach mal die Liste aller Sessions der ersten SAP TechEd-Runde und wir machen eine kleine ad-hoc Analyse dazu.

Die TechEd in Zahlen:

1316 Sessions, welche sich wie folgt zusammensetzen (Quelle):SAPAnalytix - Teched LV2017 - 1Dazu muss man sagen, dass sich in den anderen Bereichen auch immer wieder mal Analytics versteckt. In Summe sind die aktuellen Themen somit jedoch schnell klar.

Lässt man sich mal die Häufigkeit der Worte anzeigen, wie das pooq macht (und man bereinigt etwas um Füllwörter und Zeichen ohne Kontext), sieht die Top 25 so aus:

SAPAnalytix - Teched LV2017 - 2Das SAP wohl recht häufig vorkommt ist ja keine Überraschung. Immerhin ist Cloud mit mehr als 3% sehr dominant. Genauso S/4HANA auf Platz 3, wo das Diagramm oben ja schon eine Top-Platzierung nahe legt. (Obwohl bei „4HANA“ sicherlich auch ein Anteil BW/4HANA drin ist -> 28 Erwähnungen von BW)

Platform, Data und HANA sind natürlich Schlagworte, die aktuellen Trends wiedergeben.

Fiori schafft es immerhin auch noch auf den 10. Platz mit knapp 0,7%.

Analytics landet auf einem ich denke akzeptablen Platz 12. Wobei die fast schon inflationäre Nutzung fast eine bessere Position hätte erwarten lassen.

Das Learning und Machine nahe bei einander sind macht Sinn. Leider bräuchte ich ein Tool mit etwas mehr Intelligence, um hier signifikante Wortkombinationen wie „Machine Learning“ automatisch herauszufiltern. Manuell komme ich hier immerhin auf 52, was Platz 20 in der Liste zusammen mit Manager wäre.

 

 

Nun, in Summe gab es 1288 Einzelworte, welche hier berücksichtigt wurden.

Immerhin hat es BusinessObjects mit 37 Erwähnungen noch auf Platz 32 geschafft. Knapp hinter ABAP (Platz 29). Dann folgen noch Leonardo mit 34 Erwähnungen. BW wie auch Intelligence kommen 28 mal vor, wobei ich eigentlich nur 26 gezählt habe:

SAPAnalytix - Teched LV2017 - 3

Was am Ende dann sogar nur 16 Sessions sind, die eben zum Teil zweimal angeboten wurden.

Letztendlich zählt die Qualität jedoch mehr als die Quantität. Diese zeigt uns jedoch schon, wo die Trends sind und was bei der SAP gerade angeboten wird.

Advertisements

Was ist der SAP Data Hub?

Vor kurzem war ich auf der TDWI Konferenz 2017 auf dem SAP Special Day, der unter dem Motto „Ihr Fahrplan zum Digital Enterprise“ stand.

Eigentlich hatte ich hier verschiedene Perspektiven zu den aktuellen Themen wie auch etwas Praxiserfahrungen erwartet. Doch dann hat Jan Bungert (Head of Database & Data Management Germany) folgende Folie in seinem Vortrag aufgebaut:

TDWI2017_1
SAP-Vorstellung einer datengetriebenen Architektur

Nun, klar, HANA kenne ich, SAP Vora, alles von Hadoop über S3 bis hin zu Tensorflow. Selbst mit Tensorflow konnte ich was anfangen. Aber was ist „SAP Data Hub“?

 

Beim erste Googlen bin ich bei SAP Hybris Data Hub gelandet. Nun, das hörte sich ja jetzt auch gar nicht so falsch an. Nur hat halt hier niemand was von Hybris gesagt. Auch sollte das noch gar nicht alles sein. In einer weiteren Präsentation wurde es mit einem Kundenbeispiel konkreter:

TDWI2017_2.PNG

Wie es aussieht, übernimmt hier der SAP Data Hub das ganze Datenmanagement, bis zur Anflanschung an BW/4HANA über SAP Vora.

Ein paar konkretere Screenshots gab es auch dazu:

TDWI2017_3
SAP Data Hub – Übersicht und Monitoring
TDWI2017_4
SAP Data Hub – Prüfung von Daten in Flatfile
TDWI2017_5
SAP Data Hub – Datenfluss-Modellierung

Wenn so ein Produkt bisher kaum auffindbar ist, dann gibt es zwei Möglichkeiten:

-> Das Produkt ist neu.

-> Das Produkt hat einen neuen Namen.

Wie geschrieben, kommt man bei „SAP Data Hub“ eher bei einem SAP Hybris-Produkt raus, das so heißt. Dieses gibt es jedoch, soweit für mich nachvollziehbar, seit Jahren. Der SAP Data Hub wird aber laut PAM zum Q3/2017 allgemein verfügbar. Die Hilfe ist momentan verfügbar für Release 1.0 SPS0.

Aus der SAP-Hilfe kann man entnehmen, dass das System auf HANA XS läuft und SAP Vora, Spark und HANA Smart Data Integration unterstützt. Dies zeigt so auch der Architekturüberblick:

SAP_DATA_HUB_Architecture
SAP Data Hub – Architektur

 

Denke ich daran, dass SAP beim letzten DSAG AK-Treffen für BI & Analytics im Kontext von SAP Leonardo auch noch eine neue Big Data Strategie aufgezeigt hat, dann zeigt sich doch, das SAP sich hier stark mit neuen eigenen Produkten engagiert, während man sich gleichzeitig mit Open Source-Komponenten ergänzt. Dort war zwar noch nicht von SAP Data Hub die rede, aber es bleibt zu hoffen, dass dies nachher aus einer Hand gesteuert wird.

Auf jeden Fall wird es nicht langweilig. Vielleicht auch nicht einfacher. Wir werden sehen, was kommuniziert wird, sobald die Marketingmaschine dazu anläuft.

BI – Die alten Regeln gelten nicht mehr

Vor Kurzem veröffentlichte Wayne W. Eckerson (WE) einen Artikel darüber, wie sich die Welt im BI-Umfeld verändert (hat). Er listet einige Erkenntnisse von seiner letzten TDWI-Konferenz und versucht auch dies zu erklären. Ich (SA) versuche einmal, ausgewählte Aussagen wieder zu geben und auf meine Situation zu übersetzen.

  • “There is no need for a dimensional model.”
    • WE: Heutige BI-Werkzeuge sind so gut, dass schlechtes Design kompensiert wird.
    • SA: InfoCubes sind in einen HANA-System nicht mehr notwendig. Bei einer Modellierung in HANA muss man nur bedingt auf Performance achten und Werkzeuge wie Lumira benötigen nichtmal In-Memory sondern nutzen SAP IQ als spaltenbasierte Datenbank um performance durch den Endanwender Millionen von Datensätzen verarbeiten zu können.
  • “There is no need for ETL tools.”
    • WE: nutze Spark für ETL in der Cloud oder in Hadoop-Umgebungen
    • SA: Ebenfalls Lumira hat hier schon gezeigt, wie auch recht komplexe Transformationen sowie die Anbindung an fast beliebige Datenquellen schnell und einfach möglich sind. Mit Agile Data Preparation hat die SAP sogar ein komplett eigenes Werkzeug dafür auf den Markt gebracht.
  • “You don’t need a relational database.”
    • WE: Du kannst alle deine Data Science-Aufgaben ins S3 und mit Spark erledigen.
    • SA: Zumindest meine ersten Erfahrungen mit BO Cloud legen nahe, dass Cloud doch noch die eine oder andere Kinderkrankheit hat. Allerdings garantiert Amazon 99,999999999 % Ausfallsicherheit. Das muss man intern erstmal leisten. Das man für Data Science nicht unbedingt eine relationale Datenbank benötigt, ist aber glaube ich wirklich nichts Neues. Gerade wenn es um unstrukturierte Daten geht und um extrem große Datenmengen sind andere Ansätze gefragt.
  • “Code is not the enemy.”
    • WE:  Schreibe ETL-Code in Spark und verwalte ihn in Git Hub; es ist befreiend
    • SA: Git scheint heute im HANA oder SAP Cloud-Umfeld schon der neue Standard zu sein. In einer superagilen Welt verwundert der Erfolg von Git Hub daher nicht.
  •  “We don’t move data.”
    • WE: Wir bauen logische views in Hadoop für analytische Anwendungsfälle
    • SA: Auch HANA und vor allem S/4HANA setzen auf virtuelle Datenmodelle, welche für analytische Zwecke optimiert sind. Mit Core Data Services wird aktuell von SAP eine neue Grundlage geschaffen, dieses Konzept in der Breite umzusetzen.
  •  “We design from physical to logical, not logical to physical.”
    • WE: Wir laden Rohdaten in das System, dann bauen wir logische views für jeden Anwendungsfall; wir modellieren nicht zuerst.
    • SA: Passt zum vorherigen Punkt und unterstützt und erweitert diesen. In einem S/4HANA liegen die Daten schon vor, jedoch nicht unbedingt für analytische Zwecke. Erst durch das virtuelle Datenmodell bereite ich die „Rohdaten“ auf. In einem NoSQL-System oder Data Lake lege ich Daten ab, wie Sie kommen. In zum Teil völlig verschiedenen Schemata für die Sie ursprünglich gedacht waren. Wie ich diese für die Analyse im Sinne von Data Science benötige, kann ich vorab noch nicht sagen. Dabei kann man jedoch noch gut zu den traditionellen Ansätzen differenzieren, bei denen der Analysezweck im vorhinein recht klar ist (z. B. Analyse von Umsatzdaten nach verschiedenen Dimensionen). Schema-on-Read ist nichts, was der Fachbereich mal nebenher macht, weil er eine Fragestellung beantwortet haben möchte. Und dann gibt es auch noch agile Ansätze wie Data Vault.
  • “We design for secondary use cases, not the primary one, which has a limited shelf life.”
    • WE: Wir laden Daten und speichern diese auf Detailebene, so dass wir diese für neue Einsatzzwecke verwenden können, sobald der Bedarf dafür aufkommt.
    • SA: Die Aggregation von Daten geschieht immer für einen bestimmten Zweck. Information geht dabei verloren. Natürlich sollte es für ein HANA-System in der SAP-Welt kein Problem sein, sehr granulare Daten zu speichern. Jedoch kann dies sehr teuer sein. Mit Ansätzen wie Dynamic Tiering und Nearline Storage hat SAP Ansätze, das zu handhaben. Eine Alternative für BW könnten Ansätze wie SparrowBI sein.
  • “Your data architecture is as important or more than your data model.”
    • WE: Wie die Daten im Dateisystem abgelegt werden ist wichtig. Sonst wird man mit den Daten wenig anfangen können.
    • SA: Themen wie Datenqualität, Metadatenmanagement und Data-Lineage spielen hier eine wichtige Rolle, soll der Data Lake nicht zum Datensumpf werden.
  • “Architecture is way more important when you move to the cloud.”
    • WE: Wenn du deine Cloud nicht richtig konfigurierst, wird es evtl. teurer als gedacht.
    • SA: Mit Cloud-Konzepten herrscht weniger Erfahrung als in der On-Premise-Welt. Die leichte Verfügbarkeit der Ressourcen verführt dazu, erstmal großzügig damit umzugehen. Evtl. muss hier neu und eher elastisch gedacht werden.
  • “Applications are dependent on analytics.”
    • WE: Wir benötigen DevOps um die Entwicklung von Anwendungen und Analytic zu koordinieren.
    • SA: S/4HANA setzt massiv auf Hybrid Transactional Analytical Processing (HTAP) und verbindet immer mehr operative Anwendungen mit analytischen Funktionen.
  • “Either you evolve and change, or die.”
    • WE: Sei offen gegenüber Hadoop, Spark und der Cloud.
    • SA: Das sich SAP gegenüber den Open Source-Technologien wie Hadoop und Spark z. B. im Rahmen von HANA Vora öffnet ist ein wichtiges Zeichen. Bei Cloud versucht sich SAP als Vorreiter und setzt darauf wie auf HANA und zeigt damit auch die Richtung.

Eckerson schließt mit den Worten „The only constant is change, and now is the time to change! „. Aber Veränderung ist kein Projekt oder etwas, was man jetzt mal angehen sollte. Um konkurrenzfähig zu bleiben muss Veränderung zum integralen Bestandteil der Unternehmenskultur werden.

DSAG Technologietage – Was man für BI & Analytics mitnehmen kann

Am 21. Und 22.02.2017 waren in Mannheim die DSAG Technologietage. Das Motto lautete – „Change = Chance: Heute ist morgen schon gestern“.

Leider war ich nicht vor Ort, analysiere jedoch gerne mal die Folien, um zu sehen, was sich im Bereich BW/BI/BO/Analytics und angrenzenden Bereichen bei der SAP so tut. Gerne bekomme ich auf dem Blog auch Feedback und Ergänzungen von Teilnehmern.

Die SAP HANA Cloud Platform (HCP), hier auch als SAP Cloud Platform beschrieben, scheint aktuell das große Ding zu sein. In der Keynote von SAP CIO Thomas Saueressig nimmt diese ganz klar die führende Rolle als Plattform für die Digitale Transformation ein.

Bei der HCP wird Analytics und Business Intelligence ganz klar als fundamentales Element der Digitalisierung (Machine Learning, Real-time Analytics) sowie der Digitalen Transformation (Zusammenspiel von Business process und Business intelligence) dargestellt. Die HCP soll dabei Mission Critical Data analysieren und visualisieren. Und wenn Data richtig Big wird, wird einfach HANA Vora angeflanscht.

Auch werden auf Basis der HCP einige Machine Learning Services, sogenannte Intelligent Enterprise Applications vorgestellt:

  • Resumee Matching
  • Cash Application Intelligence
  • Ticket Intelligence

Die Referenz fehlt, es dürfte aber ganz klar das seit kurzem verfügbare SAP Clea sein.

Auf den BW/4HANA-Folien werden aktuell 4.000+ BW on HANA-Kunden von insgesamt 16.000+ dargestellt. 8.000+ auf Release 7.3/7.4. Fast der Versuch zu sagen, das 7.5-Kunden ja sowieso auf HANA gehen, was nach meiner Erfahrung ganz klar nicht unbedingt der Fall ist. Nun wenn ich vergleiche, dann sind in den letzten 1 ¼ Jahren 1.500 BW-Kunden on HANA gegangen oder haben so gestartet. Bei 1.000 Neukunden in der Zeit ist hier sicherlich ein großer Teil zu sehen, die direkt on HANA starten. Also SAP, 12.000 Kunden voraus bis 2025!

Ansonsten haben die Folien von Roland Kramer und Gordon Witzel nichts wirklich Neues zu BW/4HANA gebracht. Aber bei so einer Veranstaltung muss man vielleicht auch erst alle nochmal abholen.

Ulrich Christ und Jürgen Haupt haben eine schlanke und dynamische Modellierung mit BW/4HANA und BW powered by HANA vorgestellt. Dabei ging es ziemlich ins Detail zu den flexiblen Möglichkeiten über einen CompositeProvider mit Hilfe von Associations und transitiven Attributen neue Stammdaten über alle LSA++-Layer zu integrieren. Ähnliches wurde bereits vor etwa einem Jahr in einem First Guidance-Paper vorgestellt.

Detlef Wassermuth stellt den aktuellen Stand der Planungs-Werkzeuge von SAP vor. Dabei wird BPC klar als Schwerpunkt dargestellt und die Möglichkeiten zwischen Embedded und Standard Model diskutiert. Aber auch hier nicht wirklich Neues.

Jie Deng und Alexander Peter stellten den aktuellen Stand zu Lumira 2.0 sowie Analysis Office vor. Bzgl. Analysis wurden kurz die Neuerungen von Release 2.4 vorgestellt und die Roadmap, was kommen soll. Hierzu gab es jedoch auch bereits diverse Webinare. Genauso bei Lumira. Auch hier wurden nach meinem Gefühl keine wesentlichen Neuheiten gezeigt, die man nicht bereits hätte kennen können. Allerdings gab es eine Demo und Live habe ich jetzt selbst auch noch nicht viel gesehen.

Von Abassin Sadiq und Larissa Naujoks wurde SAP BusinessObjects Cloud vorgestellt. Aufgefallen ist mir dabei das folgende Übersichtsbild:

sapanalytix-boc-dsagtt17-01

Quelle: SAP SE, „V010 –Wer morgen nicht von gestern sein möchte: SAP BusinessObjectsCloud –SAP Analytics aus der Wolke“ von Abassin Sidiq, Larissa Naujoks

Die Frage ist, was hier wohl „Verticals“ bedeutet? Der Stern deutet darauf hin, dass es sich um eine geplante Function handelt. In der Vergangenheit war hier auch schon mal GRC zu lesen oder auch „Embedding – Analytics into Applications“ wie noch in der letzten Roadmap vom Januar 2017. Natürlich könnte unter Verticals genau das Thema Embedding gemeint sein.

In einer Fiori-Session wurde von Michael Falk folgende Folie als geplante Innovation vorgestellt:

sapanalytix-boc-dsagtt17-02

Quelle: SAP SE, „V026 – SAP Fiori Evolution“ von Michael Falk

Evtl. schließt sich hier ja auch wieder der Kreis zu dem Theme „Verticals“ bei BO Cloud.

Kundenvorträge sind natürlich immer sehr interessannt und willkommen. So hat Tjarko von Lehsten von der Swisscom AG gezeigt, wie man dort das Thema BW on HANA angeht. Dort präsentierte er, nicht zum ersten Mal, das Projekt OneBI, welches drei BW-Systeme im Greenfield-Ansatz auf eine BW on HANA/HANA Native-Plattform für den dortigen Bereich Finanzen und Controlling konsolidieren sollte. Das Projekt wurde im Rahmen des BW 7.5 Ramp-Ups in  Zusammenarbeit mit SAP durchgeführt und setzte auch gleich auf den BusinessObjects Enterprise-Tools auf.

Das Projekt hat eine Laufzeit von über 2 Jahren (5.000 Manntage), und läuft parallel zu einem OneERP-Projekt.

Trotz das das Projekt aktuell noch läuft, kann man heute schon einige Lessons Learned daraus mitnehmen:

  • Bei Realtime-Ansätzen muss man auch auf die Stammdaten achten
  • Frühzeitige Einbeziehung der Fachbereiche, Aufbau eines Play Lab
  • Schnelles und agiles natives Modellieren verlängert Test- und Go-Live-Zyklen
  • Bei agilem Projektmanagement sollten die funktionalen Anforderungen so genau wie möglich definiert werden
  • Richtlinien und Standard-Szenarien sind sehr hilfreich
  • Ein Training für BW on HANA und HANA-Technologie vor dem Projekt ist notwendig
  • ODP-DataSources und EIM (Smart Data Integration/Access) stellen wichtige Integrationsfunktionen dar
  • Man muss sich entscheiden, ob der EDW-Layer in der HANA oder im BW liegt
  • Data Streaming benötigt neue Skills und hat eine gewisse Komplexität. Es bedient auch ganz neue Anwendungsfälle.
  • Die Reduktion auf neue Objekte führt zu einer schnelleren Implementierung
  • SQL-basierte Transformationen sind schnell und stabil

Sicherlich für viele ein Traumprojekt mit der Möglichkeit, die Fähigkeiten der Systeme und Werkzeuge voll auszunutzen und deren Mehrwert im Vergleich zur „alten Welt“ zu erfahren.

Ein weiterer Erfahrungsbericht kommt von WITTENSTEIN SE. Im Vortrag „Chance und Change für BI: SAP BW im Kontext einer HANA Strategie bei der WITTENSTEIN SE“, gehalten von Pascal Kranich von WITTENSTEIN und Stefan Kahle von ISR AG.

WITTENSTEIN als mittelständisch orientiertes, produzierendes Unternehmen mit starker internationaler Ausrichtung setzt stark auf die Digitalisierung. Industrie 4.0 spielt eine große Rolle. Der Mensch als Entscheider steht im Mittelpunkt. Daraus folgt: „Business Intelligence Fähigkeiten der Organisation werden zum strategischen Wettbewerbsfaktor“.

In der Data Warehouse-Zielarchitektur laufen betriebswirtschaftliche Daten aus SAP ERP, produktionsorientierte Daten aus dem MES und Sensor- und Maschinendaten, welche zuerst in Hadoop gesammelt werden zusammen.

In der weiteren Präsentation werden verschiedene Beispiele zu Mixed Models (BW & HANA-Modellierung) dargestellt.

Die Lessons Learned von WITTENSTEIN:

  • HANA allein ist kein EDW und BW kann nicht alle Optimierungen nutzen, welche HANA bietet
  • Man hat die Qual der Wahl zwischen BW und HANA und muss klare Regeln festlegen und diese einhalten
  • Sponsorship spielt eine wichtige Rolle
  • Kommunikation ist alles
  • Organisation ist herausforderner als die Technik

Einige Parallelen finden sich in den Erfahrungen die man macht sowohl bei Swisscom wie auch bei WITTENSTEIN. Gleichzeitig hat man den Eindruck, BW on HANA ist angekommen und zeigt seinen Nutzen.

Dann ein etwas technischer Anwenderbericht über die Einführung einer Nearline-Storage (NLS)-Lösung für das BW der Münchner Stadtwerke im Rahmen einer bevorstehenden HANA-Migration einschließlich Upgrade. Die Einführung der Lösung wurde durch Roland Kramer unterstützt. Interessant dabei die doch gut aussehenden Monitoringmöglichkeiten

Trotz des eher technischen Aspekts des Projekts ist es doch interessant, das auch der Fachbereich hier ein sehr positives Feedback abgegeben hat. Leider ansonsten wenig weitere greifbare Lessons Learned.

Die Präsentation „V047 –IoT Optionen anhand konkreter Lösungs-und Kundenbeispiele“ von Smitha Rayala (SAP) zeigt hauptsächlich die Lösung „SAP Predictive Maintenance & Service“ (PdMS). Die HANA-basierte Lösung stellt sich recht komplex als Zusammenspiel von SAP-Systemen, Open Source und 3rd Party-Lösungen dar. Für die Datenintegration werden Werkzeuge wie SAP Data Services oder Smart Data Streaming genutzt und ein Multi-Temperature-Konzept mit SAP IQ für „warm data“ wird dargestellt. Ebenfalls kommen in der technischen Realisierung Hadoop und HANA Vora, sowie R zum Einsatz bzw. sind geplant. Dazu passend wird als Methodologie der CRISP-DM-Ansatz vorgestellt. Auch wenn die Folien nur wenig Details hergeben, zeigt es einfach mal ein eine konkrete Lösung im Analytics-Umfeld, welche auf den aktuellen Technologien und Ansätzen der SAP aufsetzen.

In einem zweiten Teil wird SAP Vehicle Insights als aktuell HCP-basierte Lösung vorgestellt. Auch hier zeigt sich, das im Hintergrund eine Vielzahl an Technologien und Werkzeugen der SAP zusammenspielen und Analytics einen wichtigen Bestandteil darstellt:

sapanalytix-boc-dsagtt17-03

Quelle: SAP SE, „V047 –IoT Optionen anhand konkreter Lösungs-und Kundenbeispiele“ von Smitha Rayala

Der Vorteil im HCP-Betrieb wird darin gesehen, dass man trotz des komplexen Zusammenspiels eigentlich keine Betriebskosten hat, da alles von der SAP gemanaged wird.

Von Dr. Stefan Hoffmann (SAP) präsentierte „V132 – SQL Datawarehousing gemeinsam mit Business Warehouse BW4/HANA und deren gemeinsame Nutzung mit BW Inhalten“. Da das HANA DW-Konzept vorsieht, rund um HANA als Datenbank ein größeres Toolset bevorzugt aus dem eigenen Haus einzusetzen, wurden diese auch so vorgestellt. Zuerst im Gesamtkontext, dann auch einzeln:

  • SAP Enterprise Architect Designer – zur Modellierung des semantischen und logischen Datenmodells
  • SAP HANA EIM: SDI/SDQ und ADP – oder auch SAP HANA Enterprise Information Management: Smart Data Integration/Smart Data Quality und Agile Data Preperation für ETL und Datenqualität.
  • SAP HANA Web IDE – zur Modellierung von Calculation Views
  • SAP HANA CDS Development – graphischer und scriptbasierter Editor für virtuelle Datenmodelle auf ABAP-Basis
  • SAP Data Warehousing Foundation – Data Temperature Management Strategie mit dem Data Lifecycle Manager (DLM)
  • Native DSO (NDSO) – Quasi das Standard DSO nativ auf HANA implementiert und in FlowGraphs integriert
  • SAP HANA Data Warehouse Scheduler – macht den Eindruck als wäre es die HANA-Variante der Prozessketten.

In dem Kontext sei auch das Februar-Update der SAP Data Warehouse Overview & Roadmap-Präsentation erwähnt. Darin wird auch nochmal der grundsätzliche Ansatz und die Differenzierung zum BW/4HANA erläutert. Dort wird auch ganz frisch der oben beschriebene Swisscom-Fall als Beispiel für ein Mixed Model vorgestellt.

Zusammenfassend lässt sich aus der Folien-Perspektive sagen, die Technologietage sind wohl keine Veranstaltung um große Neuigkeiten zu kommunizieren. Jedoch gab es interessante Kundenvorträge und Deep Dives wie den von Ulrich Christ und Jürgen Haupt. Auch lohnt sich wohl immer mal der Blick links und rechts von BI und BW.

DSAG Jahreskongress 2016 – Was man für BI & Analytics mitnehmen kann

So, zeitgleich zur TechEd Las Vegas fand bei uns auch der DSAG Jahreskongress statt.

Wenn ich es thematisch querlese, ist das Themenspektrum im Vergleich viel breiter, dafür weniger tief. Wie in den USA ist die Digitale Transformation Kernthema der Veranstaltung. In Deutschland jedoch sind die Themen schön strukturiert und bedienen das ganze Spektrum der verschiedenen DSAG Anwendergruppen.

Bzgl. BI und BI-nahen Themen finden sich sehr viele Praxisvorträge von Unternehmen. Technischen Themen wie SAP HANA Data Warehouse, SAP BusinessObjects Analytics On Premise und Cloud sowie SAP Business Planning and Consolidation (BPC) werden in Kernvorträgen behandelt und deren Einsatz in Praxisvorträgen von den Kunden dargestellt.

Bezüglich BW/4HANA werden gerade mal 13 Inhaltsfolien eingebracht. Der größere Teil wird dafür verwendet, genauer darzustellen, woher man kommt und wie man die Brücke aus dem bereits weitgehend bekannten BW on HANA schlägt.

SAP BusinessObjects Analytics (früher auch mal BI) zeigt für On-Premise BI den nächsten größeren Schritt mit 4.2 SP4. Vor allem das neue UX für BIP und WebI, sowie der Merge von Lumira und Design Studio zu Lumira 2.0 sind hier zu erwarten. Die Präsentation hier ist extrem ähnlich zu der der TechEd.

Ebenfalls deckt sich die Vorstellung von BusinessObjects Cloud zum größten Teil mit der DSAG-Präsentation. Interessant sind oft die kleinen Unterschiede. So erscheinen vergleichbare TechEd-Präsentationen oft bunter. Und eine Vision bzw. Ein Big Picture scheint in Deutschland wohl nicht vergleichbar notwendig zu sein.

BPC wird eher von der technischen Seite im BW und aus der S/4HANA-Perspektive bzgl. (Realtime-)Konsolidierung vorgestellt, welche ab Release 1610 verfügbar sein soll undim Kontext Central Finance vorgestellt. In den USA scheint BPC eher ein Workshop-Thema zu sein.

bpc-central-finance
Quelle: SAP/DSAG Jahreskongress 2016

Infomotion stellt zu BPC ein Konsolidierungsbeispiel vor, welches ich leider bereits vor 1 oder 2 Jahren bei einer Veranstaltung gesehen habe. Jedoch wird gut gezeigt, wie über Prozessoptimierung und BPC der Konsolidierungsprozess zeitlich halbiert werden konnte. Bei 90 Standorten sind eine Verkürzung auf 10 Tage eigentlich schon ein ganz guter Wert. Wenn auch nicht Realtime.

Zum gleichen Thema ein interessanter Vortrag von Oerlikon, welcher nicht wie Infomotion nur die reine Lösung vorstellt, sondern oft auch praxisrelevante Themen wie das zusammenspiel mit anderen Non-SAP-Werkzeugen oder auch der Migration von Lizenzen bei der SAP. Eine für eine Präsentation sehr detaillierte Darstellung. Viel Text und Fakten, damit sehr fachorientiert und für bestimmte Zielgruppen sicherlich sehr gut.

Verschiedene Praxisvorträge stellen zu weiteren Themen Praxisbezüge her. Jedoch sind die Folien häufig mit Werbung, Farben und Textdetails überlastet. Es bleibt zu hoffen, dass die Projekte tatsächlich besser gelaufen sind und der Vortrag selbst doch noch gut war. Die Folien machen es zumindest mal schwer, das zu erkennen.

Migros zeigt jedoch wiederum einen sehr gute Darstellung des Wegs hin zu einer ausgereiften SAP-basierten BI-Frontendstrategie einschließlich Information Design über IBCS. Man geht einerseits mit den SAP-Trends wie BO Cloud mit, scheut sich aber andererseits auch nicht, Kritik an der SAP-Produktpolitik zu äußern. Etwas, was man eigentlich auch mal gerne sieht und bei der DSAG auch mal erwarten darf. Und als Pluspunkt, man hält sich mit der Selbstdarstellung angemessen zurück. Während ich bei anderen Präsentationen erst nochmal nachschauen müsste, welches Unternehmen das überhaupt war, überzeugt Migros dadurch, dass dort offensichtlich jemand weiß, was man will und wohin man will.

Auch Storck zeigt neben vielen Reportingbeispielen kritik an der BI-Produktpolitik im Frontend-Bereich. Und das bei einer Ablösung einer Non-SAP BI-Umgebung. Also ein Start bei wenig Vorerfahrung. Zumindest in diesem Bereich. Noch nicht so ausgereift und aufwändig wie bei Migros, jedoch auf dem richtigen Weg.

Schaeffler kann bzgl. BW mit einer starken Strategie und großen Zahlen aufwarten. Knapp 10.000 User, bis zu 500.000 Berichtsaufrufe im Monat, 1 Mrd. Datensätze pro Tag, führten zu 8-9 TB komprimiert in HANA. Schaeffler möchte die Transformation hin zur Business Analytics Plattform. Ein Schritt, über den sich sicherlich einige Unternehmen Gedanken machen. Und sicherlich ein Traum-Use-Case für die SAP. Mixed Szenarios scheinen dort zunehmend zum Alltag zu gehören um die HANA-fähigkeiten Nutzen zu können. Aus der Präsentation geht noch nicht hervor, jedoch sind in die Präsentation einige BW/4HANA-Folien eingefügt, das Zielrelease scheint jedoch BW 7.4 gewesen zu sein. Ob man beim Ziel der Business Analytics Plattform angekommen ist, wird leider auch nicht klar. Trotzdem zeigt es, dass HANA bei großen Systemen wie diesem doch klare Effekte zeigt.

Insgesamt konnte man hier sicherlich ebenfalls einiges Mitnehmen. Und Live ist hier sicherlich deutlich besser, als nur die Folien zur Verfügung zu haben.

SAP TechEd 2016 – Was man für SAP BI & Analytics mitnehmen kann

Die im folgenden abgebildeten Screenshots sind alle aus öffentlichen, im Rahmen der SAP TechEd 2016 gehaltenden Präsentationen. Sie stellen einen aktuellen Stand der Planung dar und können sich natürlich jederzeit ändern!

Die SAP TechEd 2016 hat für die BI-Community wieder einiges geliefert, wenn auch vieles schon bekannt war. Richtig große Ankündigungen gab es aus meiner Sicht eigentlich nicht. Am ehesten interessant war noch HANA Express, welches für Entwickler eine Einstiegsmöglichkeit bietet, HANA auf dem eigenen Rechner zu betreiben. Trotzdem ist es interessant geballt zu betrachten, wie sich SAP aktuell im BI- und Analytics-Umfeld sieht und positioniert.

Um meinen Eindruck von den TechEd-Themen her mal kurz zu umreißen:

HANA, S/4 HANA, HANA Express, noch mehr HANA, Cloud, Fiori & UX, IoT und Digitalisierung im Allgemeinen. Und irgendwie war der Solution Manager doch auch recht präsent.

Bzgl. BI und Analytics wurde natürlich allerlei vorgestellt zu:

BusinessObjects BI-Platform & Lumira 2.0, BusinessObjects Cloud & Digital Boardroom, BW/4HANA, Predictive Analytics, S/4 HANA Analytics, Mobile BI, Planung und Konsolidierung in S/4HANA mit BPC, Enterprise Information Management & Agile Data Preperation, SAP HANA Datawarehouse & SAP Power Designer bis hin zu Themen wie Maschinellem Lernen, Graphenverarbeitung in HANA sowie Big Data und HANA Vora.

Grundsätzlich bekräftigt SAP in ihrer Analytics Strategy den Weg in die Cloud, jedoch auch das weitere Committment in die doch deutlich ausgereifteren On-Premise BI-Werkzeuge:

image03Quelle: SAP TechEd 2016  ANP100

Dahinter steht steht folgende SAP Analytics Vision, welche auch gut die Themen der SAP TechEd 2016 wiederspiegelt:

image02

Quelle: SAP TechEd 2016 – ANP102

Dabei möchte die SAP das HCP-basierte BusinessObjects Cloud als “analytics application factory” positionieren, welche wohl mit dem Digital Boardroom seine bisher bekannteste Ausprägung hat.

Die BusinessObjects BI-Plattform bekommt eine Fiori-likes Lifting beim BI Launchpad verpasst.

Bei den Frontends war Lumira 2.0 wichtig, welches in Q1/2017 kommen soll und in einem ersten Step Design Studio und Lumira zusammenführt. Dabei wird es nach wie vor zwei Frontendtools Lumira Discovery (ehem. Lumira) und Lumira Designer (ehem. Design Studio) geben, welche sowohl über ein Austauschformat den gleichen Bericht bearbeiten können, sowie auf der BI-Plattform mit einem gemeinsamen Add-In installiert werden. Mit den neuen gemeinsamen Release werden beide Werkzeuge auch stark überarbeitet und erweitert. Das neue Release wird nur auf der BI-Plattform laufen und unterstützt wie von der SAP auch bereits für andere BO-Werkzeuge angekündigt, nicht mehr NetWeaver oder HANA als Anwendungsplattform.

Somit sieht die BI Frontendstrategie der SAP wie folgt aus:

image04Quelle: SAP TechEd 2016 – ANP100

Predictive Analytics wurde von verschiedenen Seiten betrachtet. Unter dem Stichwort “Massive Predictive Analytics” will SAP das Werkzeug SAP BusinessObjects Predictive Analytics 3.0 sowohl als Predictive Factory (hohe Automatisierung, kein Coding, viele Modelle), wie auch als Predictive Analytics für die Masse positionieren. Dabei soll das Werkzeug Big Data-fähig, embedded und Cloud- und On-Premise-ready sein.

Die SAP hat in folgendem Vergleich typische Fragestellungen aus BI und Predictive Analytics gegenübergestellt:

image00Quelle: SAP TechEd 2016 – ANP108

Schön, dass in der gleichen Präsentation auch noch das folgende Statement zu finden ist:

“Predictive is NOT about telling the future – it is about understanding the past.”

Das schwierige an Vorhersagen ist eben nach wie vor, dass die Zukunft eben doch niemand kennt und die Vergangenheit immerhin Fakten abbildet. Letztendlich dient jede Analyse dazu, für die Zukunft Entscheidungen zu unterstützen.

Und auch in der Businessobjects Cloud kommt das Thema Predictive langsam ans Laufen. Auch wenn die Folien alleine dazu leider nur wenig hergegeben.

Beim Bereich Data Warehousing positioniert sich SAP immer stärker mit einem eigenen, HANA-basierten Ansatz unabhängig vom BW. Dabei kommt mittlerweile eine sehr Breite Palette an SAP-Werkzeugen zum Einsatz. Diese können jedoch aufgrund der losen Kopplung der Werkzeuge natürlich auch durch Nicht-SAP-Werkzeuge ersetzt werden:

image05Quelle: SAP TechEd 2016 – DMM104

Auch bei S/4HANA Analytics tut sich einiges und schaut man sich beispielsweise die folgende Übersicht an, so findet man sich mit den klassischen BI-Möglichkeiten wie BW und BusinessObjects BI (On-Premise) nur noch als einer unter Vielen wieder:image01

Quelle: SAP TechEd 2016 – ANP109

Ich denke als Fazit kann man sagen, dass sich bei der SAP im Bereich BI & Analytics an vielen Stellen viel tut. Im Frontendbereich werden auf der einen Seite Werkzeuge konsolidiert, wie jetzt bei BusinessObjects BI (Lumira 2.0/Simplification), auf der anderen Seite entstehen immer neue Werkzeuge in der Cloud oder für operatives Reporting. Bleibt abzuwarten, was sich hier die nächsten Jahre durchsetzt und ob es evtl. Auch übergreifend mal wieder zu einer Konsolidierung kommen wird.

Beim Data Warehouse öffnet man sich für Big Data und IoT mit dem BW/4HANA oder SQL-getriebenen DWH-Ansätzen, welche eine Vielzahl neuer Werkzeuge ins Spiel bringen. Diese überschneiden sich wiederum stark mit dem Thema Enterprise Information Management, welches die SAP auch immer wieder als separates Thema positioniert und mit einigen neuen Tools aufwartet.

Das Thema Predictive Analytics ist zwar an vielen Stellen zu finden. Jedoch ist hier die Entwicklung aus meiner Sicht etwas kontinuierlicher und übersichtlicher, auch wenn man hier genauso von dem eigenständigen Werkzeug, wie den Möglichkeiten in HANA, im BW oder in der BO Cloud sprechen kann. Trotz des breiten Ansatzes landet man hier doch immer wieder beim gleichen Kern.

SAP Digital Boardroom & Cloud for Analytics

Heute durfte ich mir in Walldorf bei der SAP den Digital Boardroom live anschauen und mir die Lösung Cloud for Analytics (C4A) bzw. Cloud for Planning genauer zeigen lassen.

Tatsächlich ist es so, dass der Digital Boardroom komplett auf Cloud for Planning basiert, welches vor Kurzem um weitere BI-Fähigkeiten erweitert, als Cloud for Analytics neu gelaunched wurde.

Einige Info’s die ich mitgenommen habe zu Cloud for Analytics:

  • C4A läuft in der SAP Public Cloud -> HANA Cloud Platform (HCP)
  • Läuft aktuell nur auf Chrome. Andere Browser gehen schon, werden nur bis jetzt nicht offiziell unterstützt.
  • Aktuell ist nur eine App für iOS geplant. Weitere Apps bleiben abzuwarten.
  • Bzgl. Konnektoren für On-Premise – Systemen sind SAP BW (min. 7.4) oder S/4 HANA notwendig. Prinzipiell ein aktuelles HANA-System. Bzgl. Planungsdaten gibt es eine BI-direktionale Integration mit SAP BO BPC. Es gehen aber auch Flat Files, welche in die HCP geladen werden.
  • Es wird als für viele Rollen nutzbare Lösung gesehen:
    • C-Level (Digital Boardroom, KPI’s, Scorecards)
    • Finanzplaner & Analyst (Planung, Budgetierung, Forecasting)
    • Analysten und Planer (Data Discovery, Vertriebs & Marketing Planung, Umsatzanalysen)
    • Data Scientists (Big Data, Predictive Modeling, Prescriptive & Preemptive Analytics)
    • Konsumenten (Dashboards, Budgeteingaben, Forecasts, Risikoberichte)

Bzgl. Planung (Cloud for Analytics for Planning 😉 ) wurde folgendes hervorgehoben:

  • Interessant bei dezentralen Planungsbeteiligten
  • Einfache Lösung, falls kein SAP bei Tochtergesellschaften vorhanden
  • Schnelle Lösung bei lokalen Planungsanforderungen
  • Es unterstützt deutlich stärker das Thema Collaboration als BPC heute

Speziell zum Digital Boardroom (DB) ist folgendes zu sagen:

  • Der Digital Boardroom ist ein auf Cloud vor Planning/Analytics basierender Content, der als Showcase entwickelt wurde und immer noch weiterentwickelt wird.
  • Seit Kurzem wird der Digital Boardroom tatsächlich vom SAP Vorstand genutzt
  • Der DB ermöglicht den Information Design-Ansatz nach Hichert zu nutzen
  • Der DB ist im Prinzip eine Self-Service-Anwendung, welche bei entsprechender Bereitstellung der Daten durch den Fachbereich (Controlling) erstellt und gepflegt werden kann.
  • Zukünftig soll die Lösung auf Fachbereiche heruntergebrochen werden können. Aktuell ist der DB sehr stark an Finanzkennzahlen orientiert.
  • Der DB setzt sich aus drei Bildschirmen zusammen, kann aber für Präsentationen oder Laptop auch genauso über einen Bildschirm laufen:
    •  Übersichtsbildschirm (Overview Screen)
    • Main & Exploration Screen
    • Context Screen
  • Die Visualisierungen werden dabei aus Stories, vergleichbar wie bei SAP Lumira zusammengestellt und können interaktiv über Touchscreen geändert werden.
  • Der DB umfasst einen Werttreiberbaum, welcher bei Simulationen die Auswirkungen auf verschiedenen Kennzahlen innerhalb der Werttreiberbaums anzeigt.

Es gibt vom 05.11.2015 ein nettes Video zum Digital Boardroom.