SAP Data Warehouse Cloud

Wie in meinem Blog „SAP und das Data Warehouse“ gezeigt, ist ein neuer Spieler am Markt. SAP Data Warehouse Cloud (DWC) ist aktuell (06/2019) noch nicht öffentlich verfügbar, geht aber bald in die Beta-Phase.

Ich möchte die Seite dazu nutzen, den aktuellen Stand, was hier kommen wird, zu sammeln und aufzubereiten.

Lesenswert für einen ersten Überblick ist sicherlich auch der Webcast Recap-Blogs (1/2) von Tammy Powlas.

SAP DWC ist Teil des HANA Cloud Services. Diese bestehen aktuell aus folgende Services:

DWC_1

SAP DWC wird also als Service auf Basis der SAP HANA Cloud Services zur Verfügung gestellt. Damit sind voraussichtlich auch HANA-Fähigkeiten wie die Analytics-Komponenten dort verfügbar.

Eine Frage, die sich bei sowas immer gerne stellt ist, ob das das neue SAP BW bzw. BW/4HANA in der Cloud ist. Die zugehörige FAQ macht dazu folgende Aussage:

„SAP Data Warehouse Cloud is our new approach for agile and enterprise data warehousing in the cloud. It will not replace the SAP BW (on premise), but it will provide a new modern approach for data warehouse in the cloud. Of course, we will support scenarios where customers can use the SAP Data Warehouse Cloud to extend and sometimes migrate existing SAP Business Warehouse scenarios. SAP HANA Cloud Services is not a Data Warehouse, but the underlying cloud-service.“

Ähnlich wie bei SAP Analytics Cloud scheint die Positionierung aktuell für den Business User zu sein und nur bedingt für die IT-Abteilung.

Was ich mich gefragt habe, ist dies das in 2018 propagierte „Project Blueberry“? In 2018 wurde noch klar eine gemeinsame Code-line auf Basis BW/4HANA 2.0 kommuniziert:

DWC_8
Quelle: SAP, 2018 (What’s New with BW/4HANA 1.0, SP08)

Mit der Freigabe Ende Februar 2019 war dann aber plötzlich nicht mehr viel von Project Blueberry zu hören. Eine indirekte Aussage von der SAP gab es dazu, in dem DWC als Cloud-native Entwicklung bezeichnet wurde, was aus meiner Sicht oben dargestellte „single code-line“ ausschließt. Eine ganz klare Aussage habe ich leider noch nicht gehört, allerdings sprechen bspw. die Kommentare hier doch dafür, dass Projekt Blueberry in diesem ursprünglichen Sinne tot ist.

Den besten bisherigen Einblick in DWC gab es aus meiner Sicht bei der Live-Demo zur letzten SAPPHIRE Now.

Ebenfalls wurde von Axel Meier ein LOB use case gezeigt, der bereits einiges an Informationen liefert und auch die Bulding Blocks des DWC zeigt:

DWC_3
Quelle: Axel Meier, SAP 2019

Ende Juli/Anfang August wird es eine Beta Experience geben, bei dem ein erster Zugriff auf ein System möglich sein wird. Aktuell laufen hier bereits die Vorbereitungen über Sessions mit der SAP.

Das Data Warehouse Cloud bietet auf Basis des HANA Cloud Service folgende aufbauenden Services:

  • Repository
    • Semantic Layer
      • Consumption Model
      • KPI
      • Fact
      • Dimension
      • Hierarchy
    • Data Layer
      • Virtual/Local Tables
      • Views
      • Data Store Object
      • Dataflows
      • Connections
  • Modeling
    • Graphical Data Modeling
    • SQL Editor
    • Reusable Semantics
  • Data Warehousing
  • Governance
    • Spaces – Konzept
      • Object isolation
      • Data model definition
      • Data access control
      • Assign connections
      • Resources isolation
      • Elasticity & Self-scaling
      • Pay-per-use
      • Monitoring
    • Business Catalog
      • Trusted Source
      • Intuitive Searche Function
      • Documentation
      • Data Lineage
      • Versioning and artifacts comparison

 

Meine Eindrücke bisher:

DWC_2
Tweet Link

Warum?

  • BW Workspaces: Das Konzept der „Spaces“ ist grundsätzlich in der SAP Cloud Platform verfügbar. Wie ich gesehen habe, soll eine verbindung zu zentralen Daten möglich sein, wie dies im SAP BW on HANA/BWA bzw. BW/4HANA mit BW Workspaces bereits möglich war. BW Workspaces will die SAP zwar wohl zu Gunsten von SAP Analytics Cloud aufgeben, allerdings scheint das Konzept im DWC doch nochmal einen Heimat gefunden zu haben.

    DWC_7.PNG
    Quelle: Youtube, SAP 2019
  • BW Analysis Process Designer: Das war eher eine Fehlannahme, da die Modellierung so flow-like ausgesehen hat. Eigentlich ist das aber eher eine Business-like Modellierung virtueller Datenmodelle:
    DWC_4.PNG
    Quelle: Youtube, SAP 2019
  • Smart Data Access: Wie die Übersicht der Building Blocks oben zeigt, sind „Virtual Table for federated data access“ einer dieser Bausteine.
  • SCP Open Connectors: Selten habe ich bei der SAP bisher in der Cloud eine solche Vielzahl an Konnektoren gesehen:
    DWC_5
    Link: SAP Open Connectors

    Und ebenso eine Auswahl findet sich nun auch hier:

    DWC_6
    Quelle: Youtube, SAP 2019
  • BO Universes: Der Ansatz eines semantischen Layers ist ja nicht neu und SAP hat diesen seit der Übernahme von BusinessObjects im Portfolio. Das Konzept scheint auch hier Eingang gefunden zu haben. Wie es sich heute so gehört, wohl mit Machine Learning-Unterstützung.

 

Zu SAP Analytics Cloud ist noch zu sagen, dass es den Anschein einer integrierten Funktion macht, wobei nach dem was ich gelesen habe auch andere BI-Werkzeuge auf die Daten zugreifen können werden.

Auch erwähnenswert ist, dass an Templates und einer Art Business Content gebaut wird, um den Start zu erleichtern.

Nun, noch ist DWC wie geschrieben noch nicht einmal verfügbar. Bis zur GA im Herbst 2019 wird es sicherlich noch einige Informationen geben.

 

Neue SAP Analytics Technologien und der Einfluss in das Beraterleben

Gestern habe ich folgenden Blog von Felipe de Mello Rodrigues gelesen:

Blog1

Diesen kann ich sehr gut nachfühlen. Jedoch hat mich nun der Impuls gepackt, diesen für SAP Analytics nochmal spezifischer nachzuvollziehen.

Beispielhaft kann man sich, wenn man als Partner Zugiff hat unter SAP PartnerEdge mal anschauen, was die SAP alles unter SAP Analytics Solutions einordnet:

Partner1
Quelle: SAP PartnerEdge

Das ist natürlich schon ein ganz schönes Spektrum. Als Berater muss man letztendlich sagen, man muss hier ja nicht alles können.

Ich will aber auch mal beispielhaft an Hand von typischen Re-Tweets auf meinem Twitter-Account zeigen, was sich bei den Themen so tut.

Gestern gab es ein Webinar zum Thema SAP Leonardo Machine Learning:

Tweet1
Quelle: SAP, 2019 (PDF)

Eigentlich gleich schon ein Themenfeld für sich, welches verschiedenen SAP-Technologien zusammenfasst oder zumindest berührt:

SAPLeoML
Quelle: SAP, 2018 (PDF)

Daneben hat man als ambitionierter Data Scientist natürlich auch Python und R drauf und nutzt diese im SAP-Kontext:

Tweet10
Tweet-Link

Ein Thema, welches ebenfalls im Zusammenhang mit Machine Learning seit einiger Zeit gesehen wird ist Robotic Process Automation:

Tweet2
Tweet-Link

Ebenfalls dazu kann man das Thema Conversational AI zählen, welches durch die Übernahme von Recast.AI Anfang 2018 seither an Schwung gewonnen hat:

Tweet7
Tweet-Link

Ein eher klassisches Thema ist, ob das BW eigentlich schon tot ist, weil S/4HANA Embedded Analytics hier die Themen übernehmen wird:

Tweet3
Tweet-Link

Ich denke, wie im Artikel auch vermerkt, wurde diese Frage schon ausführlich diskutiert. Die SAP sieht mit BW/4HANA dies als ausreichend beantwortet und auch die DSAG hat sich bereits 2015 klar positioniert.

Trotzdem darf man sich hier gerne mit der neuen Datengrundlage für Analytics auseinandersetzen – ABAP Core Data Services:

Tweet18
Tweet-Link

Im klassischen BW-Umfeld war das Release 2.0 von BW/4HANA ende Februar ein wichtiger weiterer Meilenstein:

Tweet16
Tweet-Link

Für Berater und Mitarbeiter im BW-Umfeld bedeutet das aber auch sich nicht mehr nur mit einer Datenbankmigration nach HANA auseinanderzusetzen oder sich Veränderungen bei einem Upgrade anzuschauen. Auf der Agenda steht nun in den nächsten Monaten und Jahren das Thema Conversion:

Tweet23
Tweet-Link

Bei vielen klassischen SAP BI-Beratern müsste das Thema SAP Analytics Cloud mittlerweile angekommen sein. Optisch haben sich die Update-Zyklen verlangsamt:

Tweet4
Tweet-Link

Allerdings zeigen die Releasestände, dass sich trotzdem ständig was tut und kontinuierlich Neuerungen geliefert werden. Aktuell Stand 08.2019 welcher nicht nur kleine Verbesserungen sondern z. B. die neue Anwendung Application Design, welche nach längerer Testphase nun für alle freigeschaltet wurde:

SAC1

Nicht das einem mit 2-wöchentlichen Updates noch langweilig wird 😉

Das Thema geht noch weiter. So ist über PAi – Predictive Analytics integrator das Veröffentlichen von in SAP Analytics Cloud Smart Predict erstellten Modellen in S/4HANA möglich:

Tweet6
Tweet-Link

Neben den verschiedenen Tools in SAP Analytics Cloud ist die Verwendung neuer Visualisierungen relativ einfach. Jedoch darf man sich gleichzeitig u. U. auch mit neuen, nicht immer nur strukturierten Datenquellen wie z. B. JSON auseinandersetzen:

Tweet13
Tweet-Link

SAP Analytics Cloud wird auch sofort bei den neusten Übernahmen wie Qualtrics als Enabler und Brücke gefeiert:

Tweet22
Tweet-Link

Auch ist das Thema SAP Analytics Cloud für die Planer im SAP BI-Umfeld zunehmend relevant und wird stärker mit S/4HANA verknüft:

Tweet17.PNG
Tweet-Link

Wer sich noch erinnert, SAP Analytics Cloud hat ja eine längere Namenshistorie. Aber alles hat soweit ich das sehe mal mit C4P – Cloud for Planning begonnen. Daher spielt das Thema in SAC nach wie vor eine wichtige Rolle:

Tweet19
Tweet-Link

Als klassischer BW-Berater muss man sich mit BW on HANA und BW/4HANA zunehmend mit HANA selbst auseinandersetzen:

Tweet5
Tweet-Link

SQL und vom gleichen Autor auch ein Update zu SQLScript ist nur ein Themenkomplex innerhalb von HANA, der hier relevant und interessant ist.

Ein Einsatzgebiet für SQL ist im Rahmen der HANA Modellierung mit Table Functions:

Tweet15
Tweet-Link

Beim Arbeiten rund um HANA und der Integration von Daten spielt dort SDI – Smart Data Integration eine zentrale Rolle:

Tweet11
Tweet-Link

SAP Data Hub ist ein riesen Thema im Big Data-Umfeld, welches wir uns aktuell z. B. auch für IoT-Themen anschauen:

Tweet8
Tweet-Link

Der SAP Data Hub ermöglicht die Erstellung und Verwaltung von Data Pipelines und bietet auch die Integration von SAP BW. Der zuletzt gelaufende OpenSAP-Kurs dazu bietet hier einen ganz guten ersten Überblick und Einstieg:

Tweet9
Tweet-Link

Auch Thomas Zurek als VP of SAP BW/4HANA + HANA Data Warehouse sieht das Zusammenspiel von BW/4HANA und Data Hub als logischen Schritt zum Intelligent Data Warehouse:

Tweet20
Tweet-Link

Auch die klassischen On-Premise BI Frontendtools wie SAP Lumira, discovery edition spielen natürlich nach wie vor eine Rolle:

Tweet14
Tweet-Link

Und auch hier muss man auf kontinuierliche Neuerungen nicht verzichten:

Tweet21
Tweet-Link

Wenn man sich jetzt anschaut, dass die dargestellten Tweets hauptsächlich von April sind, dann zeigt sich schon eine Flut an Neuigkeiten in vielen Bereichen. Daher muss natürlich jeder für sich filtern, was relevant ist. Ob man schon auf BW on HANA ist oder noch nicht oder gar BW/4HANA in irgendeiner Art und Weise angeht. Ob man im Bereich Planung ist oder sich evtl. schon intensiver mit den Möglichkeiten im Bereich Machine Learning und Data Science beschäftigt. Ob Cloud überhaupt ein Thema ist oder man seine On-Premise-Strategie bewahrt. Ob man sich eher im Backend oder im Frontend bewegt.

Zum Abschluss meines Blogs möchte ich das von Felipe de Mello Rodrigues einleitend dargestellte Bild in seinem Blog wiedergeben:

Tweet24

Forrester Wave™: Big Data Fabric – 2018 vs. 2016

Im Juni diese Jahres hat Forrester die Wave für „Big Data Fabric“ veröffentlicht. Ende 2016 gab es bereits eine entsprechende Forrester Wave. Schauen wir mal, was sich seither entwickelt hat. Neben der allgemeinen Betrachtung ist natürlich die Entwicklung von SAP hier besonders interessant.

Zunächst einmal ist der Begriff „Big Data Fabric“ nicht so einfach zu greifen.

Grob umreißt es Forrester wie folgt:

Big data fabric, an emerging platform, accelerates insights by automating ingestion, curation, discovery, preparation, and integration from data silos.

Quelle: Forrester

Als Inklusionskriterium gibt Forrester das Folgende an:

Evaluated vendors must provide big data fabric features and functionality, such as data access, data discovery, data transformation, data integration, data preparation,
data security, data governance, and data orchestration of data sources (including big data sources) to support various big data fabric workloads and use cases.

The solution must be able to ingest, process, and curate large amounts of structured, semistructured, and unstructured data stored in big data platforms such as Apache Hadoop, MPP EDW, NoSQL, Apache Spark, in-memory technologies, and other related commercial and open source projects.

The solution should be able to store metadata/catalogs for data modeling and data access to support a globally distributed data fabric.

Quelle: Ebenda

TDWI hat ebenfalls einen Versuch unternommen, den Begriff greifbar zu machen:

The term big data fabric is loosely defined at present, representing a need rather than a specific solution. A big data fabric is a system that provides seamless, real-time integration and access across the multiple data silos of a big data system.

Quelle: TDWI

Evtl. lässt es sich ja über die eingesetzten Tools noch greifbarer machen:

BDF Tools

Nun, SAP Data Hub wurde erst im Herbst 2017 gelaunched. Im Herbst 2016 wurde Altiscale von SAP übernommen. Wohl zu spät um damals noch Berücksichtigung zu finden. Die Entwicklung zeigt ein Stück weit, dass sich bei SAP auf jeden Fall einiges getan hat.

Somit ist also ein breites Technologie- und Anwendungsspektrum von SAP im Einsatz, welches auch typischerweise im Umfeld Big Data bei der SAP kommuniziert wird.

Interessant vielleicht auch ein Blick auf die zwischendurch in Q2/2017 erschienene „Forrester Wave: Big Data Warehouse“. Dort war SAP Leader u. a. mit AWS und Oracle. Dabei wurden folgende Tools evaluiert:

  • SAP HANA 2.0
  • SAP Vora 1
  • SAP BW/4HANA
  • SAP Data Services
  • SAP Cloud Platform Big Data Services

Interessant, dass der gleiche Author, Noel Yuhanna 2017 bereits BW/4HANA evaluiert, hier jetzt in 2018 für Big Data Fabric jedoch noch BW 7.5. Für Data Hub war es noch zu früh und die Enterprise Information Management (EIM)-Tools werden hier wohl zusätzlich betrachtet. Das ist leider nicht ganz eindeutig. Früher war hier Data Services durchaus noch damit gemeint. Aktuell betrachtet man ja eher unter dem Begriff die HANA-orientierten Tools rund um Smart Data Integration. Somit sind für wohl verschiedene Use Cases doch sehr ähnliche Tools im Rennen. Jedoch ist der Teilnehmerkreis dabei recht unterschiedlich. Nur SAP, Oracle, IBM, Hortenworks und Cloudera sind in beiden zu finden von jeweils 15 Anbietern.

Aber nun zu den Bewertungen von SAP vs. dem klaren Leader. Leider haben sich die Kriterien ein wenig geändert und auch der Leader von 2016, Informatica ist 2018 weit abgeschlagen und Talend, in 2016 auch schon Leader, hat hier die Rolle übernommen.

BDF Score

Es scheint recht klar, SAP kommt nicht an die Leader heran. SAP ist als Strong Performer in der Gesamtsicht eher im Mittelfeld der Anbieter zu finden. Beim Current Offering haben sich alle Werte verbessert, während die Roadmap und Vision wohl nicht mehr so ausgeprägt wahrgenommen werden wie noch 2016. Sicherlich hat die SAP bereits einige Schritte unternommen und mit Data Hub eine Lösung bereitgestellt, welche eine größere Lücke gefüllt hat. Zu den Führenden ist es jedoch noch ein weiter Weg.

Leider stehen in dem mir vorliegenden Dokument keine genaueren Definitionen zur Verfügung, was z. B. „Data Fabric Access“ bedeutet, bei dem SAP ganz gut abgeschlossen hat.

 

BI – Die alten Regeln gelten nicht mehr

Vor Kurzem veröffentlichte Wayne W. Eckerson (WE) einen Artikel darüber, wie sich die Welt im BI-Umfeld verändert (hat). Er listet einige Erkenntnisse von seiner letzten TDWI-Konferenz und versucht auch dies zu erklären. Ich (SA) versuche einmal, ausgewählte Aussagen wieder zu geben und auf meine Situation zu übersetzen.

  • “There is no need for a dimensional model.”
    • WE: Heutige BI-Werkzeuge sind so gut, dass schlechtes Design kompensiert wird.
    • SA: InfoCubes sind in einen HANA-System nicht mehr notwendig. Bei einer Modellierung in HANA muss man nur bedingt auf Performance achten und Werkzeuge wie Lumira benötigen nichtmal In-Memory sondern nutzen SAP IQ als spaltenbasierte Datenbank um performance durch den Endanwender Millionen von Datensätzen verarbeiten zu können.
  • “There is no need for ETL tools.”
    • WE: nutze Spark für ETL in der Cloud oder in Hadoop-Umgebungen
    • SA: Ebenfalls Lumira hat hier schon gezeigt, wie auch recht komplexe Transformationen sowie die Anbindung an fast beliebige Datenquellen schnell und einfach möglich sind. Mit Agile Data Preparation hat die SAP sogar ein komplett eigenes Werkzeug dafür auf den Markt gebracht.
  • “You don’t need a relational database.”
    • WE: Du kannst alle deine Data Science-Aufgaben ins S3 und mit Spark erledigen.
    • SA: Zumindest meine ersten Erfahrungen mit BO Cloud legen nahe, dass Cloud doch noch die eine oder andere Kinderkrankheit hat. Allerdings garantiert Amazon 99,999999999 % Ausfallsicherheit. Das muss man intern erstmal leisten. Das man für Data Science nicht unbedingt eine relationale Datenbank benötigt, ist aber glaube ich wirklich nichts Neues. Gerade wenn es um unstrukturierte Daten geht und um extrem große Datenmengen sind andere Ansätze gefragt.
  • “Code is not the enemy.”
    • WE:  Schreibe ETL-Code in Spark und verwalte ihn in Git Hub; es ist befreiend
    • SA: Git scheint heute im HANA oder SAP Cloud-Umfeld schon der neue Standard zu sein. In einer superagilen Welt verwundert der Erfolg von Git Hub daher nicht.
  •  “We don’t move data.”
    • WE: Wir bauen logische views in Hadoop für analytische Anwendungsfälle
    • SA: Auch HANA und vor allem S/4HANA setzen auf virtuelle Datenmodelle, welche für analytische Zwecke optimiert sind. Mit Core Data Services wird aktuell von SAP eine neue Grundlage geschaffen, dieses Konzept in der Breite umzusetzen.
  •  “We design from physical to logical, not logical to physical.”
    • WE: Wir laden Rohdaten in das System, dann bauen wir logische views für jeden Anwendungsfall; wir modellieren nicht zuerst.
    • SA: Passt zum vorherigen Punkt und unterstützt und erweitert diesen. In einem S/4HANA liegen die Daten schon vor, jedoch nicht unbedingt für analytische Zwecke. Erst durch das virtuelle Datenmodell bereite ich die „Rohdaten“ auf. In einem NoSQL-System oder Data Lake lege ich Daten ab, wie Sie kommen. In zum Teil völlig verschiedenen Schemata für die Sie ursprünglich gedacht waren. Wie ich diese für die Analyse im Sinne von Data Science benötige, kann ich vorab noch nicht sagen. Dabei kann man jedoch noch gut zu den traditionellen Ansätzen differenzieren, bei denen der Analysezweck im vorhinein recht klar ist (z. B. Analyse von Umsatzdaten nach verschiedenen Dimensionen). Schema-on-Read ist nichts, was der Fachbereich mal nebenher macht, weil er eine Fragestellung beantwortet haben möchte. Und dann gibt es auch noch agile Ansätze wie Data Vault.
  • “We design for secondary use cases, not the primary one, which has a limited shelf life.”
    • WE: Wir laden Daten und speichern diese auf Detailebene, so dass wir diese für neue Einsatzzwecke verwenden können, sobald der Bedarf dafür aufkommt.
    • SA: Die Aggregation von Daten geschieht immer für einen bestimmten Zweck. Information geht dabei verloren. Natürlich sollte es für ein HANA-System in der SAP-Welt kein Problem sein, sehr granulare Daten zu speichern. Jedoch kann dies sehr teuer sein. Mit Ansätzen wie Dynamic Tiering und Nearline Storage hat SAP Ansätze, das zu handhaben. Eine Alternative für BW könnten Ansätze wie SparrowBI sein.
  • “Your data architecture is as important or more than your data model.”
    • WE: Wie die Daten im Dateisystem abgelegt werden ist wichtig. Sonst wird man mit den Daten wenig anfangen können.
    • SA: Themen wie Datenqualität, Metadatenmanagement und Data-Lineage spielen hier eine wichtige Rolle, soll der Data Lake nicht zum Datensumpf werden.
  • “Architecture is way more important when you move to the cloud.”
    • WE: Wenn du deine Cloud nicht richtig konfigurierst, wird es evtl. teurer als gedacht.
    • SA: Mit Cloud-Konzepten herrscht weniger Erfahrung als in der On-Premise-Welt. Die leichte Verfügbarkeit der Ressourcen verführt dazu, erstmal großzügig damit umzugehen. Evtl. muss hier neu und eher elastisch gedacht werden.
  • “Applications are dependent on analytics.”
    • WE: Wir benötigen DevOps um die Entwicklung von Anwendungen und Analytic zu koordinieren.
    • SA: S/4HANA setzt massiv auf Hybrid Transactional Analytical Processing (HTAP) und verbindet immer mehr operative Anwendungen mit analytischen Funktionen.
  • “Either you evolve and change, or die.”
    • WE: Sei offen gegenüber Hadoop, Spark und der Cloud.
    • SA: Das sich SAP gegenüber den Open Source-Technologien wie Hadoop und Spark z. B. im Rahmen von HANA Vora öffnet ist ein wichtiges Zeichen. Bei Cloud versucht sich SAP als Vorreiter und setzt darauf wie auf HANA und zeigt damit auch die Richtung.

Eckerson schließt mit den Worten „The only constant is change, and now is the time to change! „. Aber Veränderung ist kein Projekt oder etwas, was man jetzt mal angehen sollte. Um konkurrenzfähig zu bleiben muss Veränderung zum integralen Bestandteil der Unternehmenskultur werden.

DSAG Technologietage – Was man für BI & Analytics mitnehmen kann

Am 21. Und 22.02.2017 waren in Mannheim die DSAG Technologietage. Das Motto lautete – „Change = Chance: Heute ist morgen schon gestern“.

Leider war ich nicht vor Ort, analysiere jedoch gerne mal die Folien, um zu sehen, was sich im Bereich BW/BI/BO/Analytics und angrenzenden Bereichen bei der SAP so tut. Gerne bekomme ich auf dem Blog auch Feedback und Ergänzungen von Teilnehmern.

Die SAP HANA Cloud Platform (HCP), hier auch als SAP Cloud Platform beschrieben, scheint aktuell das große Ding zu sein. In der Keynote von SAP CIO Thomas Saueressig nimmt diese ganz klar die führende Rolle als Plattform für die Digitale Transformation ein.

Bei der HCP wird Analytics und Business Intelligence ganz klar als fundamentales Element der Digitalisierung (Machine Learning, Real-time Analytics) sowie der Digitalen Transformation (Zusammenspiel von Business process und Business intelligence) dargestellt. Die HCP soll dabei Mission Critical Data analysieren und visualisieren. Und wenn Data richtig Big wird, wird einfach HANA Vora angeflanscht.

Auch werden auf Basis der HCP einige Machine Learning Services, sogenannte Intelligent Enterprise Applications vorgestellt:

  • Resumee Matching
  • Cash Application Intelligence
  • Ticket Intelligence

Die Referenz fehlt, es dürfte aber ganz klar das seit kurzem verfügbare SAP Clea sein.

Auf den BW/4HANA-Folien werden aktuell 4.000+ BW on HANA-Kunden von insgesamt 16.000+ dargestellt. 8.000+ auf Release 7.3/7.4. Fast der Versuch zu sagen, das 7.5-Kunden ja sowieso auf HANA gehen, was nach meiner Erfahrung ganz klar nicht unbedingt der Fall ist. Nun wenn ich vergleiche, dann sind in den letzten 1 ¼ Jahren 1.500 BW-Kunden on HANA gegangen oder haben so gestartet. Bei 1.000 Neukunden in der Zeit ist hier sicherlich ein großer Teil zu sehen, die direkt on HANA starten. Also SAP, 12.000 Kunden voraus bis 2025!

Ansonsten haben die Folien von Roland Kramer und Gordon Witzel nichts wirklich Neues zu BW/4HANA gebracht. Aber bei so einer Veranstaltung muss man vielleicht auch erst alle nochmal abholen.

Ulrich Christ und Jürgen Haupt haben eine schlanke und dynamische Modellierung mit BW/4HANA und BW powered by HANA vorgestellt. Dabei ging es ziemlich ins Detail zu den flexiblen Möglichkeiten über einen CompositeProvider mit Hilfe von Associations und transitiven Attributen neue Stammdaten über alle LSA++-Layer zu integrieren. Ähnliches wurde bereits vor etwa einem Jahr in einem First Guidance-Paper vorgestellt.

Detlef Wassermuth stellt den aktuellen Stand der Planungs-Werkzeuge von SAP vor. Dabei wird BPC klar als Schwerpunkt dargestellt und die Möglichkeiten zwischen Embedded und Standard Model diskutiert. Aber auch hier nicht wirklich Neues.

Jie Deng und Alexander Peter stellten den aktuellen Stand zu Lumira 2.0 sowie Analysis Office vor. Bzgl. Analysis wurden kurz die Neuerungen von Release 2.4 vorgestellt und die Roadmap, was kommen soll. Hierzu gab es jedoch auch bereits diverse Webinare. Genauso bei Lumira. Auch hier wurden nach meinem Gefühl keine wesentlichen Neuheiten gezeigt, die man nicht bereits hätte kennen können. Allerdings gab es eine Demo und Live habe ich jetzt selbst auch noch nicht viel gesehen.

Von Abassin Sadiq und Larissa Naujoks wurde SAP BusinessObjects Cloud vorgestellt. Aufgefallen ist mir dabei das folgende Übersichtsbild:

sapanalytix-boc-dsagtt17-01

Quelle: SAP SE, „V010 –Wer morgen nicht von gestern sein möchte: SAP BusinessObjectsCloud –SAP Analytics aus der Wolke“ von Abassin Sidiq, Larissa Naujoks

Die Frage ist, was hier wohl „Verticals“ bedeutet? Der Stern deutet darauf hin, dass es sich um eine geplante Function handelt. In der Vergangenheit war hier auch schon mal GRC zu lesen oder auch „Embedding – Analytics into Applications“ wie noch in der letzten Roadmap vom Januar 2017. Natürlich könnte unter Verticals genau das Thema Embedding gemeint sein.

In einer Fiori-Session wurde von Michael Falk folgende Folie als geplante Innovation vorgestellt:

sapanalytix-boc-dsagtt17-02

Quelle: SAP SE, „V026 – SAP Fiori Evolution“ von Michael Falk

Evtl. schließt sich hier ja auch wieder der Kreis zu dem Theme „Verticals“ bei BO Cloud.

Kundenvorträge sind natürlich immer sehr interessannt und willkommen. So hat Tjarko von Lehsten von der Swisscom AG gezeigt, wie man dort das Thema BW on HANA angeht. Dort präsentierte er, nicht zum ersten Mal, das Projekt OneBI, welches drei BW-Systeme im Greenfield-Ansatz auf eine BW on HANA/HANA Native-Plattform für den dortigen Bereich Finanzen und Controlling konsolidieren sollte. Das Projekt wurde im Rahmen des BW 7.5 Ramp-Ups in  Zusammenarbeit mit SAP durchgeführt und setzte auch gleich auf den BusinessObjects Enterprise-Tools auf.

Das Projekt hat eine Laufzeit von über 2 Jahren (5.000 Manntage), und läuft parallel zu einem OneERP-Projekt.

Trotz das das Projekt aktuell noch läuft, kann man heute schon einige Lessons Learned daraus mitnehmen:

  • Bei Realtime-Ansätzen muss man auch auf die Stammdaten achten
  • Frühzeitige Einbeziehung der Fachbereiche, Aufbau eines Play Lab
  • Schnelles und agiles natives Modellieren verlängert Test- und Go-Live-Zyklen
  • Bei agilem Projektmanagement sollten die funktionalen Anforderungen so genau wie möglich definiert werden
  • Richtlinien und Standard-Szenarien sind sehr hilfreich
  • Ein Training für BW on HANA und HANA-Technologie vor dem Projekt ist notwendig
  • ODP-DataSources und EIM (Smart Data Integration/Access) stellen wichtige Integrationsfunktionen dar
  • Man muss sich entscheiden, ob der EDW-Layer in der HANA oder im BW liegt
  • Data Streaming benötigt neue Skills und hat eine gewisse Komplexität. Es bedient auch ganz neue Anwendungsfälle.
  • Die Reduktion auf neue Objekte führt zu einer schnelleren Implementierung
  • SQL-basierte Transformationen sind schnell und stabil

Sicherlich für viele ein Traumprojekt mit der Möglichkeit, die Fähigkeiten der Systeme und Werkzeuge voll auszunutzen und deren Mehrwert im Vergleich zur „alten Welt“ zu erfahren.

Ein weiterer Erfahrungsbericht kommt von WITTENSTEIN SE. Im Vortrag „Chance und Change für BI: SAP BW im Kontext einer HANA Strategie bei der WITTENSTEIN SE“, gehalten von Pascal Kranich von WITTENSTEIN und Stefan Kahle von ISR AG.

WITTENSTEIN als mittelständisch orientiertes, produzierendes Unternehmen mit starker internationaler Ausrichtung setzt stark auf die Digitalisierung. Industrie 4.0 spielt eine große Rolle. Der Mensch als Entscheider steht im Mittelpunkt. Daraus folgt: „Business Intelligence Fähigkeiten der Organisation werden zum strategischen Wettbewerbsfaktor“.

In der Data Warehouse-Zielarchitektur laufen betriebswirtschaftliche Daten aus SAP ERP, produktionsorientierte Daten aus dem MES und Sensor- und Maschinendaten, welche zuerst in Hadoop gesammelt werden zusammen.

In der weiteren Präsentation werden verschiedene Beispiele zu Mixed Models (BW & HANA-Modellierung) dargestellt.

Die Lessons Learned von WITTENSTEIN:

  • HANA allein ist kein EDW und BW kann nicht alle Optimierungen nutzen, welche HANA bietet
  • Man hat die Qual der Wahl zwischen BW und HANA und muss klare Regeln festlegen und diese einhalten
  • Sponsorship spielt eine wichtige Rolle
  • Kommunikation ist alles
  • Organisation ist herausforderner als die Technik

Einige Parallelen finden sich in den Erfahrungen die man macht sowohl bei Swisscom wie auch bei WITTENSTEIN. Gleichzeitig hat man den Eindruck, BW on HANA ist angekommen und zeigt seinen Nutzen.

Dann ein etwas technischer Anwenderbericht über die Einführung einer Nearline-Storage (NLS)-Lösung für das BW der Münchner Stadtwerke im Rahmen einer bevorstehenden HANA-Migration einschließlich Upgrade. Die Einführung der Lösung wurde durch Roland Kramer unterstützt. Interessant dabei die doch gut aussehenden Monitoringmöglichkeiten

Trotz des eher technischen Aspekts des Projekts ist es doch interessant, das auch der Fachbereich hier ein sehr positives Feedback abgegeben hat. Leider ansonsten wenig weitere greifbare Lessons Learned.

Die Präsentation „V047 –IoT Optionen anhand konkreter Lösungs-und Kundenbeispiele“ von Smitha Rayala (SAP) zeigt hauptsächlich die Lösung „SAP Predictive Maintenance & Service“ (PdMS). Die HANA-basierte Lösung stellt sich recht komplex als Zusammenspiel von SAP-Systemen, Open Source und 3rd Party-Lösungen dar. Für die Datenintegration werden Werkzeuge wie SAP Data Services oder Smart Data Streaming genutzt und ein Multi-Temperature-Konzept mit SAP IQ für „warm data“ wird dargestellt. Ebenfalls kommen in der technischen Realisierung Hadoop und HANA Vora, sowie R zum Einsatz bzw. sind geplant. Dazu passend wird als Methodologie der CRISP-DM-Ansatz vorgestellt. Auch wenn die Folien nur wenig Details hergeben, zeigt es einfach mal ein eine konkrete Lösung im Analytics-Umfeld, welche auf den aktuellen Technologien und Ansätzen der SAP aufsetzen.

In einem zweiten Teil wird SAP Vehicle Insights als aktuell HCP-basierte Lösung vorgestellt. Auch hier zeigt sich, das im Hintergrund eine Vielzahl an Technologien und Werkzeugen der SAP zusammenspielen und Analytics einen wichtigen Bestandteil darstellt:

sapanalytix-boc-dsagtt17-03

Quelle: SAP SE, „V047 –IoT Optionen anhand konkreter Lösungs-und Kundenbeispiele“ von Smitha Rayala

Der Vorteil im HCP-Betrieb wird darin gesehen, dass man trotz des komplexen Zusammenspiels eigentlich keine Betriebskosten hat, da alles von der SAP gemanaged wird.

Von Dr. Stefan Hoffmann (SAP) präsentierte „V132 – SQL Datawarehousing gemeinsam mit Business Warehouse BW4/HANA und deren gemeinsame Nutzung mit BW Inhalten“. Da das HANA DW-Konzept vorsieht, rund um HANA als Datenbank ein größeres Toolset bevorzugt aus dem eigenen Haus einzusetzen, wurden diese auch so vorgestellt. Zuerst im Gesamtkontext, dann auch einzeln:

  • SAP Enterprise Architect Designer – zur Modellierung des semantischen und logischen Datenmodells
  • SAP HANA EIM: SDI/SDQ und ADP – oder auch SAP HANA Enterprise Information Management: Smart Data Integration/Smart Data Quality und Agile Data Preperation für ETL und Datenqualität.
  • SAP HANA Web IDE – zur Modellierung von Calculation Views
  • SAP HANA CDS Development – graphischer und scriptbasierter Editor für virtuelle Datenmodelle auf ABAP-Basis
  • SAP Data Warehousing Foundation – Data Temperature Management Strategie mit dem Data Lifecycle Manager (DLM)
  • Native DSO (NDSO) – Quasi das Standard DSO nativ auf HANA implementiert und in FlowGraphs integriert
  • SAP HANA Data Warehouse Scheduler – macht den Eindruck als wäre es die HANA-Variante der Prozessketten.

In dem Kontext sei auch das Februar-Update der SAP Data Warehouse Overview & Roadmap-Präsentation erwähnt. Darin wird auch nochmal der grundsätzliche Ansatz und die Differenzierung zum BW/4HANA erläutert. Dort wird auch ganz frisch der oben beschriebene Swisscom-Fall als Beispiel für ein Mixed Model vorgestellt.

Zusammenfassend lässt sich aus der Folien-Perspektive sagen, die Technologietage sind wohl keine Veranstaltung um große Neuigkeiten zu kommunizieren. Jedoch gab es interessante Kundenvorträge und Deep Dives wie den von Ulrich Christ und Jürgen Haupt. Auch lohnt sich wohl immer mal der Blick links und rechts von BI und BW.

SAP Core Data Service (CDS)-Views für Analytics

Mitte 2015 gab es in den Niederlanden eine Videoaufzeichnung zu einem BI Podcast zwischen Ulrich Christ (SAP Produktmanager für HANA im Bereich Data Warehousing), der auch aus den OpenSAP-Kursen zu BW-Themen bekannt ist und Jürgen Haupt, SAP Produktmanager SAP EDW, der auch sehr bekannt für das Thema LSA ist, mit dem Titel „S/4HANA Analytics with CDS views and BW as evolutionary extension„.

Ulrich Christ zeigt dabei eine Demo mit Analysis for Office auf einem CDS-Modell, welches in einem S/4HANA-System liegt. Er erklärt die Mächtigkeit im Vergleich zu Data Dictionary Views und wesentliche Elemente eines CDS:

  • Annotations – besonders interessant hier ist die Analytics Annotation.
    • SAP beschreibt diese als „Enable the analytic manager for multidimensional data consumption, performing data aggregation, and slicing and dicing data. BI frontends like Design Studio and Analysis Office can consume the data via the analytic manager.
    • Durch die Annotation wird z. B. definiert, um welche Kategorie von Daten es sich handelt  – Stammdaten (#DIMENSION) oder transaktionale Daten (#FACT, #CUBE) oder um Plandaten (#AGGREGATIONLEVEL).
    • Hier wird auch festgelegt, ob der CDS-View für die Extraktion geeignet ist und evtl. Delta-Verfahren unterstützt. Damit bildet der View beispielsweise auch die Basis für eine BW DataSource.
  • Associations – Diese dienen der Ergänzung der grundlegenden Daten. So können hier für transaktionale Daten noch Attribute oder Texte hinzugefügt werden. Im Vergleich zu einen SQL-Join sind Associations wiederverwendbar.

Ulrich Christ macht klar, dass CDS-Views langfristig die neue Grundlage für BW-DataSources in S/4HANA sind. Wie SAP in der Präsentation „SAP S/4HANA Analytics & SAP BW Data Integration“ zeigt, geht dies mittlerweile sogar noch darüber hinaus. SAP sieht CDS-Views im ABAP-Layer als Virtual Data Model (VDM), welches Daten für BI (über Transient Provider), Hybride transaktionale und analytische Anwendungen (HTAP) und weitere S/4HANA-Anwendungen Daten bereitstellt:

sapanalytix_cds01

Quelle: „SAP S/4HANA Analytics & SAP BW Data Integration

Auf HANA-Ebene hat diese Rolle im Wesentlichen HANA Live, wobei das CDS-Konzept ja mittlerweile auf HANA übertragen wurde. Eine Erklärung der Unterschiede und Gemeinsamkeiten der beiden Konzepte findet sich von Horst Keller in seinem Blog. Ein guter Überblick und Vergleich findet sich auch hier.

Von Ulrich Christ kommt dazu die Aussage, dass HANA Live durch das veränderte Datenmodell in S/4HANA evtl. nicht mehr vollständig funktionieren wird und CDS das Konzept für Operational Reporting sein wird.

In einer Präsentation der SAP TechEd 2015 werden folgende Nachteile von SQL im Vergleich zu CDS aufgezeigt:

  • Eine große semantische Lücke zwischen der konzeptionellen Anforderung und der Umsetzung in SQL
  • Die Komplexität der Anforderung führt zu einer verschlechterten Performance

Bzgl. dem Argument „Aber dann nutze ich ja gar nicht mehr die Performance einer HANA-Datenbank aus, da die Anwendungslogik auf dem Application Server läuft“ gibt die Präsentation zwei Antworten:

  • Eingebaute SQL-Funktionen/-Ausdrücke können komplexe Berechnungen in die HANA-Datenbank oder auch jede andere von SAP unterstütze Datenbank pushen.
  • CDS Table Functions nutzen native HANA-Funktionen, welche in CDS implementiert wurden.

Mittlerweile hat sich Ulrich Christ in einem Blog vom November 2016 nochmal die genaue Verwendung von CDS im Kontext BW angeschaut und einige Dinge klar gemacht:

  •  Erweiterung von BW InfoProvidern um zusätzliche Informationen -> Nein!
    • Das BW-Datenmodell ist sehr ausgereift und komplex. Dies nachzubilden wäre nicht sinnvoll. Ein Ansatz, BW-Datenmodelle für SQL zu öffnen wären HANA Calculation Views. Ein Ansatz zur Integration von Non-BW-Daten ist über den OpenODS-View möglich.
    • CDS würde das Konzept der Analyseberechtigung umgehen. Ebenfalls HANA Calculation Views und die Ableitung von HANA Privileges aus Analyseberechtigungen wären hier der Ansatz.
  • SAP BW Technischer Content -> Ja!
    • Hier wird tatsächlich seit BW 7.5 SP04 Content auf Basis von CDS-Views ausgeliefert.
  • Integration von Daten ins BW über CDS -> Ja!
    • Die Extraktion von S/4HANA-Daten über den Quellsystemtyp ODP-CDS ist möglich.
    • Über OpenODS-View können CDS-Views auch virtuell konsumiert werden.
  • BW Transformationen -> Vielleicht!
    • Ein komplexer Look-Up auf eine Z-Tabelle wäre denkbar.

Nun gut, aus meiner Sicht ist und bleibt CDS eine Technologie, welche zunehmend eine Rolle spielen wird und es gut ist, wenn man weiß, was sich tut und die CDS-Entwicklung evtl. sogar beherrscht. Hoffen wir nicht, das wie bei HANA Live der Ansatz wieder schneller weg ist, als S/4HANA in der Breite ins Laufen kommt.

BI & Machine Learning

Howard Dresner stellt in seinem aktuellen Blog die Frage „Is Artificial Intelligence the Future of Business Intelligence?

Bei SAP selbst tauchen Begriffe wie Machine Learning (ML) oder Artificial Intelligence (AI) immer wieder auf. So ist Bernd Leukert als SAP Vorstand für Produkte & Innovationen auch Aufsichtsrat des Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Bill McDermott hat in einem vor Kurzem erschienen Interview klar gesagt, dass SAP zukünftig eine führende Rolle in diesem Bereich einnehmen will. Er wird dabei wie folgt zitiert:

“We want to become the world-wide machine learning leader for corporate businesses, hands down,” …

“Our goal is to have the most intelligent business applications and we’re doing everything we can to achieve that.”

Nicht zuletzt hat SAP aktuell auf der MOOC-Plattform OpenSAP einen Kurs mit dem Titel „Enterprise Machine Learning in a Nutshell“ laufen.

Nun, schaue ich mir den OpenSAP-Kurs so an, dann sehe ich kaum Unterschiede zu dem, was ich schon 2006 zu Diplomarbeitszeiten gesehen und gelesen habe und was heute oft unter dem Label Predictive Analytics verkauft wird.

Schaut man sich die aktuellen Tools von SAP an, so findet man immer wieder die Verwendung der Automated Predictive Library (APL) und der Predictive Analysis Library (PAL) sowie der OpenSource Statistik-Bibliothek R, welche sich bei vielen Anbieter großer Beliebtheit erfreut. APL und PAL sind natürlich Teil von HANA selbst. Und im BW ist die Integration mit dem HANA Analysis Process möglich. Dann gibt es auch noch das Werkzeug SAP Predictive Analytics, welche grafische Oberflächen zur Modellierung bietet. Und auch in das noch sehr neue SAP Produkt SAP BusinessObjects Cloud hat Predictive mittlerweile Einzug gehalten.

Begriffe, welche man in dem Zusammenhang neben Künstliche Intelligenz und Maschinellem Lernen immer wieder hört, sind Data Mining, Statistik, Deep Learning und manchmal vielleicht auch noch Data Science.

Gartner beschreibt Maschinelles Lernen/Machine Learning wie folgt:

Advanced machine learning algorithms are composed of many technologies (such as deep learning, neural networks and natural-language processing), used in unsupervised and supervised learning, that operate guided by lessons from existing information. 

Lt. Gartner stellt sich Künstliche Intelligenz/Artificial Intelligence deutlich komplexer dar:

Artificial intelligence is technology that appears to emulate human performance typically by learning, coming to its own conclusions, appearing to understand complex content, engaging in natural dialogs with people, enhancing human cognitive performance (also known as cognitive computing) or replacing people on execution of nonroutine tasks. Applications include autonomous vehicles, automatic speech recognition and generation and detecting novel concepts and abstractions (useful for detecting potential new risks and aiding humans quickly understand very large bodies of ever changing information).

Gerade der hier auftauchende Begriff „Cognitive Computing“ zeigt, dass in dem Bereich aktuell viel Bewegung ist, bei dem IBM mit Watson ein Vorreiter ist. Jedoch beispielsweise auch die deutsche BITKOM das Thema für sich entdeckt hat.

Als ich 2006 meine Diplomarbeit zum Thema Data Mining (DM) schrieb, war die Welt noch etwas einfacher. Daten waren noch nicht so „Big“ oder „Smart“ und die Begriffswelt noch nicht so ausdifferenziert.

Data Mining beschrieb ich neben OLAP und Planung als Analysetechnik welches typischerweise auf einem Data Warehouse basiert:

„Data mining is the process of discovering meaningful new correlations,
patterns and trends by „mining“ large amounts of stored data using pattern
recognition technologies, as well as statistical and mathematical techniques.“
(Ashby, Simms 1998)

Bei der Herkunftsbestimmung aus diversen Büchern fand ich:

  • Statistik
  • Datenbankmanagement
  • Mustererkennung
  • Visualisierung
  • Künstliche Intelligenz – vor allem der Bereich „Maschinelles Lernen“

Viele der Begriffe versucht man heute viel deutlicher voneinander abzugrenzen, als das nach meinem Gefühl vor 10 Jahren der Fall war. Möglicherweise ist das aufgrund der weitergeführten Forschung in den Bereichen, dem technologischen Fortschritt sowie geänderter Rahmenbedingungen (z. B. 3 V’s) auch absolut sinnvoll.

Nehme ich mal die drei aus meiner Sicht am engsten miteinander verbundenen Begriffe und schaue mir mal die Trends bei Google an, zeigt sich folgendes:

ki_ml_dm01

Offensichtlich zeigen AI und DM eine gewisse Korrelation über die Zeit. Machine Learning hat dafür lange vor sich dahingedümpelt, bis die letzten Jahre der Trend doch angezogen hat, so das Machine Learning an den anderen beiden Begriffen vorbeigezogen hat. Interessant auch der Blick auf die weltweite Verteilung:

ki_ml_dm_02_welt

Möglicherweise sind die Begriffe auch noch sehr regional geprägt. Während Data Mining doch recht verbreitet zu sein scheint, ist Machine Learning wohl vor allem in Skandinavien populär.

Gartner hat im Hype Cycle für Advanced Analytics und Data Science, 2015 das Thema Machine Learning auf dem Gipfel der überhöhten Erwartungen gesehen. Direkt vor Predictive Analytics. Der Hype Cycle 2016 hat sich dazu kaum verändert.

Bei den vor Kurzem für 2017 veröffentlichten Technologie-Trends sieht Gartner das Thema AI & ML als Top 1 und meint:

AI and machine learning have reached a critical tipping point and will increasingly augment and extend virtually every technology enabled service, thing or application.

In diesem Sinne folgen an Stelle 2 und 3 auch gleich die Themen „Intelligent Apps“ und „Intelligent Things“, welche letztendlich wieder stark auf AI basieren.

Howard Dresner schließt seinen Blog mit der Überlegung, das AI im BI-Umfeld ein Thema ist, wenn sie die Daten besser analysieren kann, als ein Mensch. Jedoch warnt er auch, dass AI trotz seines Alters (Ursprünge in den 50er-Jahren) heute keine reife Technologie ist und für Fehler sehr wohl anfällig sein kann, wie bspw. Microsoft im Frühjahr 2016 erfahren musste.

Was bedeutet dies nun für den klassischen SAP BI-Berater, der mit SAP BW, BEx und evtl. BusinessObjects BI unterwegs ist? HANA kommt, aber ist eben noch nicht überall angekommen. Bis zur BusinessObjects Cloud ist es für viele vor allem in Deutschland ebenfalls noch ein langer Weg. Und SAP Predictive Analytics ist aus meiner Erfahrung von der Lizenz her recht teuer.

Ich glaube zurück zur SAP BW Data Mining Workbench und zum Analyseprozessdesigner möchte auch niemand unbedingt. Die Automated Analytics-Ansätze richten sich schon an den Business User. Muss man dann evtl. nur noch technisch und bei der Bereitstellung der Daten unterstützen? Oder braucht man gleich die Weiterbildung zum Data Scientist?

Ich denke es sind einfach auch verschiedene Skills, wie auch verschiedene Anforderungen an die IT, die hier im Spiel sind. Trivial zu beantworten ist dies deshalb sicherlich nicht. Jedoch ist aus heutiger Sicht klar, alles, was eine SAP aktuell unter Analytics zusammenfasst, kann sowieso nur im Team abgedeckt werden. Dieses aufzubauen und zu strukturieren ist vielleicht die wahre Herausforderung.