SAP Datenmanagement as a Service

Im Juni diesen Jahres hat Forrester eine neue Wave zu „Database-as-a-Service“ herausgebracht. Die vorherige erschien in 2017.

Seit etwa 2012 stellt SAP HANA auch in der SAP Cloud Platform bereite, welche ja auch eine ganze Zeit SAP HANA Cloud Platform hieß. Immerhin hat sich SAP hier als „Strong Performer“ im Vergleich 2019<->2017 auf Position gehalten. Die Leaders in 2019 sind Oracle, die hier selbst innerhalb des Leaders-Bereichs seit 2017 nochmal ganz gut aufgeholt zu haben scheinen, Amazon, Microsoft, MongoDB und Google. Während Google bereits 2017 am Leaders-Bereich gekratzt hatte, war MongoDB damals noch etwas davon entfernt.

Die Aussage ist trotzdem leider recht klar. Trotz „Strong Performer“ ist der Markt der SAP hier doch deutlich voraus. Die Marktbegleiter, welche noch hinter SAP kommen, höre ich hier zum ersten Mal.

Interessant wird es, vergleicht man die Produkte, welche SAP anbietet:

  • In 2017: SAP Cloud Platform – In der Bewertung wird hier nur der SAP HANA Service erwähnt.
  • In 2019: SAP HANA Serivce, SAP Big Data Services, Redis, PostgreSQL, MongoDB.

Die 2019-Bewertung von SAP leitet dann auch gleich ein mit den folgenden Worten:

„SAP Cloud Platform expands support for non-SAP applications.“

Leider wird darauf nicht mehr tiefer eingegangen.

Nun schaut man mal darauf, wann die Daten für 2017 zusammengetragen wurden: 21.12.2016. Das ist deshalb interessant, weil es am 16.05.2017 folgenden SAP-Blogeintrag von Manjunath Baburao (Produktmanager für SCP Datenmanagement bei SAP Labs Indien) gegeben hat: „Data Management on SAP Cloud Platform: New Environment; New Capabilities

Also die 2017 Wave erstellt wurde, gab es also wohl die Services noch nicht. Von daher ist auch verständlich, dass diese Services noch nicht bewertet werden konnten.

Die Möglichkeit für solche Services ist der Einführung der Cloud Foundry-Umgebung zu verdanken, welche neben der Neo-Umgebung den Betrieb von Open Source-Werkzeugen und Services ermöglicht hat. Im Blog wird dies wie folgt begründet:

„Introduction of the Cloud Foundry environment in the SAP Cloud Platform, brings in, new capabilities like NoSQL, Message Brokers, Object Storage to the SAP Cloud Platform. In addition to the existing relational capabilities of the platform (HANA), the Data Management portfolio on the new environment is a formidable power, which brings in the flexibility of choosing any service on the SAP Cloud Platform, based on need and the relevant use case.“

Weiter oben im Blog wird gar die Abkehr von Namen „SAP HANA Cloud Platform“ zu „SAP Cloud Platform“ wie folgt begründet:

„As indicated by the rename announcements at the Mobile World Congress 2016, the SAP Cloud Platform is much more than just HANA (hence the rename to SAP HANA Cloud Platform).“

So weit, so gut. Alles könnte nun schön sein, könnte man auf der SAP Cloud Plattform bei den Services nicht aktuell folgendes lesen:

Blog_SCP
Quelle: https://cloudplatform.sap.com/capabilities.html, 2019

Sprich, die noch 2017 gelobten und von Forrester bewerteten Möglichkeiten sind mittlerweile schon wieder obsolet.

Ebenfalls darf Manjunath Baburao hier wieder die Veränderung per Blog ankündigen:

„SAP wants to strategically invest in areas which differentiate us, such as business services; which are being built on a strong foundation of decades of business process knowledge and excellence.

Following the core principles of ‘openness‘ and ‘freedom of choice‘, the platform will partner and integrate with hyper-scale providers intensively. Customers will have the flexibility to select any hyper-scaler of their choice to procure commodity technical services like the open-source backing services. This will in-turn help customers leverage hyper-scaler technology innovations within their SAP landscapes.“

Dann wird die Aussage nochmal klarer:

„As a first step towards this strategic goal, starting July 15th, 2019, we announce the retirement of SAP ‘managed’ open-source backing services offerings – PostgreSQL, MongoDB, Redis, and RabbitMQ, from SAP Cloud Platform pricelists.“

Man mag es nun interpretieren, wie man möchte. Der Blog beschreibt es auch recht klar. Mittlerweile kann SAP diese Services weitgehend selbst anbieten.

Eine Dokumenten-orientierte NoSQL Datenbank a la MongoDB liefert HANA seit dem Release 2.0 SPS 01 mit. Messaging Services wie RabbitMQ ist mit Enterprise Messaging seit 10/2018 verfügbar. Nun, eine Key-Value Datenbank wie Redis wird evtl. durch den SAP Cloud Platform Backend service  (BaaS – Backend as a Service) ersetzt, welcher die Serverless-fähigkeiten der SAP Cloud Platform ausbauen soll, aktuell noch in Beta ist und noch für 2019 angekündigt ist.

Zum Big Data Service (fka Altiscale) habe ich zwar keine Begründung gefunden. Schaut man sich jedoch mal für Ende 2019 angekündigten HANA Cloud Service an, sieht man, dass auch hier die Alternative bzw. der Nachfolger evtl. am anlaufen ist:

HANA_Cloud_Service.PNG
Quelle: https://saphanacloudservices.com/hana-cloud/, 2019

Wie sich zeigt, ist das Umfeld sehr dynamisch und die SAP arbeitet beständig daran, ihre Services auszubauen. Ob damit beliebte Open Source-Services ersetzt werden können wird sich zeigen. Alternativ zeigt sich die SAP aber immerhin bereit Services der anderen Plattformen zu integrieren. Nicht umsonst läuft die Cloud Foundry bereits direkt auf den Hyperscalern GCP, AWS, Azure und AliCloud.

Beispiele finden sich hier:

SAP Cloud Platform offers integration with Google Cloud Platform services

How to consume AWS services on SAP Cloud Platform?

Consuming native Microsoft Azure services on SAP Cloud Platform

 

 

Research: Cloud Data Warehouse

Seit kurzem scheint das Thema „Cloud Data Warehouse“ (CDW) im Trend zu sein. Zumindest Forrester hat für Q4/2018 eine eigene Forrester Wave herausgegeben genau zu dem Thema. Darin wurden 14 Anbieter untersucht.

Forrester definiert das Cloud Data Warehouse wie folgt (frei übersetzt):

Ein sicheres, skalierbares On-Demand Self-Service Data Warehouse, welches die Datenbeschaffung, Administration, Tuning, Backup und Recovery automatisiert um Analytics und wertvolle Erkenntnisse bei gleichzeitiger Minimierung der administrativen Anforderungen zu liefern.

– The Forrester Wave™: Cloud Data Warehouse, Q4 2018

Nachdem GA für SAP Data Warehouse Cloud erst für Q4/2019 angekündigt ist, sind andere Anbieter hier schon deutlich länger auf dem Markt, z. B.:

  • Google Big Query (11/2011)
  • Amazon Redshift (10/2012)
  • Snowflake Computing (06/2015)
  • Microsoft Azure SQL Data Warehouse (07/2016)
  • Oracle – Autonomous Data Warehouse Cloud (03/2018)

In sofern ist SAP in The Forrester Wave auch nicht vertreten bzw. hat offensichtlich den Kriterien der Untersuchung nicht genügt.

Im Magic Quadrant von Gartner (01/2019 – Gartner Magic Quadrant for Data Management Solutions for Analytics) findet SAP noch seinen Platz und auch der Cloud-Trend bleibt nicht unbemerkt. Eine Abgrenzung wird von Gartner hier jedoch noch nicht vorgenommen. Somit wird BW/4HANA, HANA selbst (welche jedoch als in der Cloud verfügbar wahrgenommen wurden) sowie der SAP Cloud Platform-basierte Big Data Service analysiert. Trotz Kritikpunkten bei Themen wie der Elastizität wird beispielsweise die Multi-Cloud Strategie positiv hervorgehoben und SAP ist bei Gartner im Leader-Quadranten vor Anbietern wie Snowflake, IBM und Google zu finden.

Bei Forrester sind die Leader ganz klar Amazon Web Services (AWS), Snowflake, Google und auch noch Oracle.

2017 hat BARC im ihrer Reseach Study „BI and Data Management in the Cloud: Issues and Trends“ folgende Feststellung gemacht (frei übersetzt):

Unternehmen betreiben eher BI (Frontend)-Anwendungen in der Cloud als Data Warehouses, Data Marts oder Datenintegration.

Data Management-Lösungen benötigen IaaS und PaaS sowie die Prüfung von Datenschutz, Datensicherheit und unternehmenspolitischer Aspekte.

In der BARC Research Study „Datenmanagement im Wandel“ von 2014 zeigt sich ein noch viel nüchterneres Bild:

  • Bei der Frage, was sich aktuell konkret verändert, antworteten nur 6% mit „Rückgriff auf cloud-basierte Data Warehouse“
  • Die Frage nach dem Umgang mit Self-Service BI beantworteten gerade mal 2% mit „Auslagerung in die Cloud“
  • Im Vergleich zu anderen Ansätzen war die Lösung „Cloud-basierte Data Warehouse-Lösungen“ zur einfacheren Umsetzung von DWH-Anforderungen weit abgeschlagen. Wichtiger waren „In-Memory Datenbanksysteme“, „Automatisiertes DWH“, uvam.

Im Whitepaper „Cloud Data Warehouse Trends for 2019“ wird nun jedoch die Frage aufgeworfen, ob das CDW gar der Schlüssel zur Digitalen Transformation ist. Die Antwort folgt schnell. Das CDW wird als wichtiger erster Schritt zum datengetriebenen Unternehmen gesehen.

Lt. Whitepaper sind die Top-Gründe für das CDW:

  • Flexibles Kostenmodell
  • Vorteil der Nutzung von Cloud-Features
  • Bessere Performance

Typische Anwendungsfälle sind:

  • Kundenanalysen für das Marketing
  • Finanzanalysen
  • Vertriebsunterstützung
  • Anbindung an einen Data Lake für Analytics
  • Kundenserviceanalysen
  • IT-Analytics

Die größten Herausforderungen dabei sind:

  • Data Governance
  • Integration von Daten aus unterschiedlichen Quellen
  • Daten in das Data Warehouse zu bekommen
  • Einfacher Datenzugriff für den Anwender
  • Kosten

Nun gut, es zeigt sich, dass Thema Cloud Data Warehouse ist nicht neu. Der Self-Service Trend hat jedoch das Angebot sicherlich verändert. So positioniert SAP sein angekündigtes SAP Data Warehouse Cloud mit der Zielgruppe Business Analyst, wie auch schon SAP Analytics Cloud.

Persönlich denke ich, als BI-Berater wird man deshalb nicht arbeitslos. Aber Aufgaben werden sich verändern. Die Fachbereiche werden mündiger und können einen immer größeren Bereich selbst abdecken. Das ist gut, weil es die faktenbasierte Entscheidungsfähigkeit bei richtiger Strategie stärkt. Denn eines ist klar. Excel ist und bleibt das beliebteste Tool für BI und ist dank Office 365 auch in der Cloud verfügbar mit Power Pivot und Power BI als Verstärkung. Ob das gut ist, ist eine ganz andere Frage.

Die Herausforderungen sind immer neue Datenquellen, gerade wegen der Cloud. Die Harmonisierung und semantisch saubere Integration der Daten überfordert Fachbereiche oder führt dort zur Spezialistenbildung. Die zunehmende Dynamik im Internet wie auch die zunehmende Agilität in Unternehmen erfordert eine schnelle BI-Adaption und Konzept-Know-How im Umgang mit historischen Daten. Daten sind nicht mehr nur strukturiert, sondern das, was bisher Big Data und NoSQL geleistet hat, wird zunehmend integriert und erhöht die Anforderungen. Basistechnologien wie SAP HANA liefern heute Funktionalitäten wie Text, Spatial, Predictive Analytics oder Graph-Verarbeitung, um höheren Nutzen aus den Daten zu ziehen. Die Komplexität der nutzbaren Methoden nimmt damit immer weiter zu. Die Vielfalt verfügbarer Komponenten und neuer oder unterschiedlicher Schnittstellen ebenso. Die Anforderung an die Datenqualität werden deutlich steigen und eine ganzheitliche Sicht auf das Unternehmen rückt eher in die Ferne als Realität zu werden.

Für Unternehmen mit einfachen operativen Systemen und überschaubaren Anforderungen an Reporting und Datenanalysen werden es also leicht haben, jedoch auch nur geringen Nutzen aus einer zunehmen Digitalisierung ziehen. Für alle anderen ist Self Service und zunehmende Data Literacy eine Notwendigkeit um irgendwie noch mithalten zu können, da die IT-Fachkräfte nicht schnell genug vom Baum wachsen werden.

SAP Data Warehouse Cloud

Wie in meinem Blog „SAP und das Data Warehouse“ gezeigt, ist ein neuer Spieler am Markt. SAP Data Warehouse Cloud (DWC) ist aktuell (06/2019) noch nicht öffentlich verfügbar, geht aber bald in die Beta-Phase.

Ich möchte die Seite dazu nutzen, den aktuellen Stand, was hier kommen wird, zu sammeln und aufzubereiten.

Lesenswert für einen ersten Überblick ist sicherlich auch der Webcast Recap-Blogs (1/2) von Tammy Powlas.

SAP DWC ist Teil des HANA Cloud Services. Diese bestehen aktuell aus folgende Services:

DWC_1

SAP DWC wird also als Service auf Basis der SAP HANA Cloud Services zur Verfügung gestellt. Damit sind voraussichtlich auch HANA-Fähigkeiten wie die Analytics-Komponenten dort verfügbar.

Eine Frage, die sich bei sowas immer gerne stellt ist, ob das das neue SAP BW bzw. BW/4HANA in der Cloud ist. Die zugehörige FAQ macht dazu folgende Aussage:

„SAP Data Warehouse Cloud is our new approach for agile and enterprise data warehousing in the cloud. It will not replace the SAP BW (on premise), but it will provide a new modern approach for data warehouse in the cloud. Of course, we will support scenarios where customers can use the SAP Data Warehouse Cloud to extend and sometimes migrate existing SAP Business Warehouse scenarios. SAP HANA Cloud Services is not a Data Warehouse, but the underlying cloud-service.“

Ähnlich wie bei SAP Analytics Cloud scheint die Positionierung aktuell für den Business User zu sein und nur bedingt für die IT-Abteilung.

Was ich mich gefragt habe, ist dies das in 2018 propagierte „Project Blueberry“? In 2018 wurde noch klar eine gemeinsame Code-line auf Basis BW/4HANA 2.0 kommuniziert:

DWC_8
Quelle: SAP, 2018 (What’s New with BW/4HANA 1.0, SP08)

Mit der Freigabe Ende Februar 2019 war dann aber plötzlich nicht mehr viel von Project Blueberry zu hören. Eine indirekte Aussage von der SAP gab es dazu, in dem DWC als Cloud-native Entwicklung bezeichnet wurde, was aus meiner Sicht oben dargestellte „single code-line“ ausschließt. Eine ganz klare Aussage habe ich leider noch nicht gehört, allerdings sprechen bspw. die Kommentare hier doch dafür, dass Projekt Blueberry in diesem ursprünglichen Sinne tot ist.

Den besten bisherigen Einblick in DWC gab es aus meiner Sicht bei der Live-Demo zur letzten SAPPHIRE Now.

Ebenfalls wurde von Axel Meier ein LOB use case gezeigt, der bereits einiges an Informationen liefert und auch die Bulding Blocks des DWC zeigt:

DWC_3
Quelle: Axel Meier, SAP 2019

Ende Juli/Anfang August wird es eine Beta Experience geben, bei dem ein erster Zugriff auf ein System möglich sein wird. Aktuell laufen hier bereits die Vorbereitungen über Sessions mit der SAP.

Das Data Warehouse Cloud bietet auf Basis des HANA Cloud Service folgende aufbauenden Services:

  • Repository
    • Semantic Layer
      • Consumption Model
      • KPI
      • Fact
      • Dimension
      • Hierarchy
    • Data Layer
      • Virtual/Local Tables
      • Views
      • Data Store Object
      • Dataflows
      • Connections
  • Modeling
    • Graphical Data Modeling
    • SQL Editor
    • Reusable Semantics
  • Data Warehousing
  • Governance
    • Spaces – Konzept
      • Object isolation
      • Data model definition
      • Data access control
      • Assign connections
      • Resources isolation
      • Elasticity & Self-scaling
      • Pay-per-use
      • Monitoring
    • Business Catalog
      • Trusted Source
      • Intuitive Searche Function
      • Documentation
      • Data Lineage
      • Versioning and artifacts comparison

 

Meine Eindrücke bisher:

DWC_2
Tweet Link

Warum?

  • BW Workspaces: Das Konzept der „Spaces“ ist grundsätzlich in der SAP Cloud Platform verfügbar. Wie ich gesehen habe, soll eine verbindung zu zentralen Daten möglich sein, wie dies im SAP BW on HANA/BWA bzw. BW/4HANA mit BW Workspaces bereits möglich war. BW Workspaces will die SAP zwar wohl zu Gunsten von SAP Analytics Cloud aufgeben, allerdings scheint das Konzept im DWC doch nochmal einen Heimat gefunden zu haben.

    DWC_7.PNG
    Quelle: Youtube, SAP 2019
  • BW Analysis Process Designer: Das war eher eine Fehlannahme, da die Modellierung so flow-like ausgesehen hat. Eigentlich ist das aber eher eine Business-like Modellierung virtueller Datenmodelle:
    DWC_4.PNG
    Quelle: Youtube, SAP 2019
  • Smart Data Access: Wie die Übersicht der Building Blocks oben zeigt, sind „Virtual Table for federated data access“ einer dieser Bausteine.
  • SCP Open Connectors: Selten habe ich bei der SAP bisher in der Cloud eine solche Vielzahl an Konnektoren gesehen:
    DWC_5
    Link: SAP Open Connectors

    Und ebenso eine Auswahl findet sich nun auch hier:

    DWC_6
    Quelle: Youtube, SAP 2019
  • BO Universes: Der Ansatz eines semantischen Layers ist ja nicht neu und SAP hat diesen seit der Übernahme von BusinessObjects im Portfolio. Das Konzept scheint auch hier Eingang gefunden zu haben. Wie es sich heute so gehört, wohl mit Machine Learning-Unterstützung.

 

Zu SAP Analytics Cloud ist noch zu sagen, dass es den Anschein einer integrierten Funktion macht, wobei nach dem was ich gelesen habe auch andere BI-Werkzeuge auf die Daten zugreifen können werden.

Auch erwähnenswert ist, dass an Templates und einer Art Business Content gebaut wird, um den Start zu erleichtern.

Nun, noch ist DWC wie geschrieben noch nicht einmal verfügbar. Bis zur GA im Herbst 2019 wird es sicherlich noch einige Informationen geben.

 

Neue SAP Analytics Technologien und der Einfluss in das Beraterleben

Gestern habe ich folgenden Blog von Felipe de Mello Rodrigues gelesen:

Blog1

Diesen kann ich sehr gut nachfühlen. Jedoch hat mich nun der Impuls gepackt, diesen für SAP Analytics nochmal spezifischer nachzuvollziehen.

Beispielhaft kann man sich, wenn man als Partner Zugiff hat unter SAP PartnerEdge mal anschauen, was die SAP alles unter SAP Analytics Solutions einordnet:

Partner1
Quelle: SAP PartnerEdge

Das ist natürlich schon ein ganz schönes Spektrum. Als Berater muss man letztendlich sagen, man muss hier ja nicht alles können.

Ich will aber auch mal beispielhaft an Hand von typischen Re-Tweets auf meinem Twitter-Account zeigen, was sich bei den Themen so tut.

Gestern gab es ein Webinar zum Thema SAP Leonardo Machine Learning:

Tweet1
Quelle: SAP, 2019 (PDF)

Eigentlich gleich schon ein Themenfeld für sich, welches verschiedenen SAP-Technologien zusammenfasst oder zumindest berührt:

SAPLeoML
Quelle: SAP, 2018 (PDF)

Daneben hat man als ambitionierter Data Scientist natürlich auch Python und R drauf und nutzt diese im SAP-Kontext:

Tweet10
Tweet-Link

Ein Thema, welches ebenfalls im Zusammenhang mit Machine Learning seit einiger Zeit gesehen wird ist Robotic Process Automation:

Tweet2
Tweet-Link

Ebenfalls dazu kann man das Thema Conversational AI zählen, welches durch die Übernahme von Recast.AI Anfang 2018 seither an Schwung gewonnen hat:

Tweet7
Tweet-Link

Ein eher klassisches Thema ist, ob das BW eigentlich schon tot ist, weil S/4HANA Embedded Analytics hier die Themen übernehmen wird:

Tweet3
Tweet-Link

Ich denke, wie im Artikel auch vermerkt, wurde diese Frage schon ausführlich diskutiert. Die SAP sieht mit BW/4HANA dies als ausreichend beantwortet und auch die DSAG hat sich bereits 2015 klar positioniert.

Trotzdem darf man sich hier gerne mit der neuen Datengrundlage für Analytics auseinandersetzen – ABAP Core Data Services:

Tweet18
Tweet-Link

Im klassischen BW-Umfeld war das Release 2.0 von BW/4HANA ende Februar ein wichtiger weiterer Meilenstein:

Tweet16
Tweet-Link

Für Berater und Mitarbeiter im BW-Umfeld bedeutet das aber auch sich nicht mehr nur mit einer Datenbankmigration nach HANA auseinanderzusetzen oder sich Veränderungen bei einem Upgrade anzuschauen. Auf der Agenda steht nun in den nächsten Monaten und Jahren das Thema Conversion:

Tweet23
Tweet-Link

Bei vielen klassischen SAP BI-Beratern müsste das Thema SAP Analytics Cloud mittlerweile angekommen sein. Optisch haben sich die Update-Zyklen verlangsamt:

Tweet4
Tweet-Link

Allerdings zeigen die Releasestände, dass sich trotzdem ständig was tut und kontinuierlich Neuerungen geliefert werden. Aktuell Stand 08.2019 welcher nicht nur kleine Verbesserungen sondern z. B. die neue Anwendung Application Design, welche nach längerer Testphase nun für alle freigeschaltet wurde:

SAC1

Nicht das einem mit 2-wöchentlichen Updates noch langweilig wird 😉

Das Thema geht noch weiter. So ist über PAi – Predictive Analytics integrator das Veröffentlichen von in SAP Analytics Cloud Smart Predict erstellten Modellen in S/4HANA möglich:

Tweet6
Tweet-Link

Neben den verschiedenen Tools in SAP Analytics Cloud ist die Verwendung neuer Visualisierungen relativ einfach. Jedoch darf man sich gleichzeitig u. U. auch mit neuen, nicht immer nur strukturierten Datenquellen wie z. B. JSON auseinandersetzen:

Tweet13
Tweet-Link

SAP Analytics Cloud wird auch sofort bei den neusten Übernahmen wie Qualtrics als Enabler und Brücke gefeiert:

Tweet22
Tweet-Link

Auch ist das Thema SAP Analytics Cloud für die Planer im SAP BI-Umfeld zunehmend relevant und wird stärker mit S/4HANA verknüft:

Tweet17.PNG
Tweet-Link

Wer sich noch erinnert, SAP Analytics Cloud hat ja eine längere Namenshistorie. Aber alles hat soweit ich das sehe mal mit C4P – Cloud for Planning begonnen. Daher spielt das Thema in SAC nach wie vor eine wichtige Rolle:

Tweet19
Tweet-Link

Als klassischer BW-Berater muss man sich mit BW on HANA und BW/4HANA zunehmend mit HANA selbst auseinandersetzen:

Tweet5
Tweet-Link

SQL und vom gleichen Autor auch ein Update zu SQLScript ist nur ein Themenkomplex innerhalb von HANA, der hier relevant und interessant ist.

Ein Einsatzgebiet für SQL ist im Rahmen der HANA Modellierung mit Table Functions:

Tweet15
Tweet-Link

Beim Arbeiten rund um HANA und der Integration von Daten spielt dort SDI – Smart Data Integration eine zentrale Rolle:

Tweet11
Tweet-Link

SAP Data Hub ist ein riesen Thema im Big Data-Umfeld, welches wir uns aktuell z. B. auch für IoT-Themen anschauen:

Tweet8
Tweet-Link

Der SAP Data Hub ermöglicht die Erstellung und Verwaltung von Data Pipelines und bietet auch die Integration von SAP BW. Der zuletzt gelaufende OpenSAP-Kurs dazu bietet hier einen ganz guten ersten Überblick und Einstieg:

Tweet9
Tweet-Link

Auch Thomas Zurek als VP of SAP BW/4HANA + HANA Data Warehouse sieht das Zusammenspiel von BW/4HANA und Data Hub als logischen Schritt zum Intelligent Data Warehouse:

Tweet20
Tweet-Link

Auch die klassischen On-Premise BI Frontendtools wie SAP Lumira, discovery edition spielen natürlich nach wie vor eine Rolle:

Tweet14
Tweet-Link

Und auch hier muss man auf kontinuierliche Neuerungen nicht verzichten:

Tweet21
Tweet-Link

Wenn man sich jetzt anschaut, dass die dargestellten Tweets hauptsächlich von April sind, dann zeigt sich schon eine Flut an Neuigkeiten in vielen Bereichen. Daher muss natürlich jeder für sich filtern, was relevant ist. Ob man schon auf BW on HANA ist oder noch nicht oder gar BW/4HANA in irgendeiner Art und Weise angeht. Ob man im Bereich Planung ist oder sich evtl. schon intensiver mit den Möglichkeiten im Bereich Machine Learning und Data Science beschäftigt. Ob Cloud überhaupt ein Thema ist oder man seine On-Premise-Strategie bewahrt. Ob man sich eher im Backend oder im Frontend bewegt.

Zum Abschluss meines Blogs möchte ich das von Felipe de Mello Rodrigues einleitend dargestellte Bild in seinem Blog wiedergeben:

Tweet24

Forrester Wave™: Big Data Fabric – 2018 vs. 2016

Im Juni diese Jahres hat Forrester die Wave für „Big Data Fabric“ veröffentlicht. Ende 2016 gab es bereits eine entsprechende Forrester Wave. Schauen wir mal, was sich seither entwickelt hat. Neben der allgemeinen Betrachtung ist natürlich die Entwicklung von SAP hier besonders interessant.

Zunächst einmal ist der Begriff „Big Data Fabric“ nicht so einfach zu greifen.

Grob umreißt es Forrester wie folgt:

Big data fabric, an emerging platform, accelerates insights by automating ingestion, curation, discovery, preparation, and integration from data silos.

Quelle: Forrester

Als Inklusionskriterium gibt Forrester das Folgende an:

Evaluated vendors must provide big data fabric features and functionality, such as data access, data discovery, data transformation, data integration, data preparation,
data security, data governance, and data orchestration of data sources (including big data sources) to support various big data fabric workloads and use cases.

The solution must be able to ingest, process, and curate large amounts of structured, semistructured, and unstructured data stored in big data platforms such as Apache Hadoop, MPP EDW, NoSQL, Apache Spark, in-memory technologies, and other related commercial and open source projects.

The solution should be able to store metadata/catalogs for data modeling and data access to support a globally distributed data fabric.

Quelle: Ebenda

TDWI hat ebenfalls einen Versuch unternommen, den Begriff greifbar zu machen:

The term big data fabric is loosely defined at present, representing a need rather than a specific solution. A big data fabric is a system that provides seamless, real-time integration and access across the multiple data silos of a big data system.

Quelle: TDWI

Evtl. lässt es sich ja über die eingesetzten Tools noch greifbarer machen:

BDF Tools

Nun, SAP Data Hub wurde erst im Herbst 2017 gelaunched. Im Herbst 2016 wurde Altiscale von SAP übernommen. Wohl zu spät um damals noch Berücksichtigung zu finden. Die Entwicklung zeigt ein Stück weit, dass sich bei SAP auf jeden Fall einiges getan hat.

Somit ist also ein breites Technologie- und Anwendungsspektrum von SAP im Einsatz, welches auch typischerweise im Umfeld Big Data bei der SAP kommuniziert wird.

Interessant vielleicht auch ein Blick auf die zwischendurch in Q2/2017 erschienene „Forrester Wave: Big Data Warehouse“. Dort war SAP Leader u. a. mit AWS und Oracle. Dabei wurden folgende Tools evaluiert:

  • SAP HANA 2.0
  • SAP Vora 1
  • SAP BW/4HANA
  • SAP Data Services
  • SAP Cloud Platform Big Data Services

Interessant, dass der gleiche Author, Noel Yuhanna 2017 bereits BW/4HANA evaluiert, hier jetzt in 2018 für Big Data Fabric jedoch noch BW 7.5. Für Data Hub war es noch zu früh und die Enterprise Information Management (EIM)-Tools werden hier wohl zusätzlich betrachtet. Das ist leider nicht ganz eindeutig. Früher war hier Data Services durchaus noch damit gemeint. Aktuell betrachtet man ja eher unter dem Begriff die HANA-orientierten Tools rund um Smart Data Integration. Somit sind für wohl verschiedene Use Cases doch sehr ähnliche Tools im Rennen. Jedoch ist der Teilnehmerkreis dabei recht unterschiedlich. Nur SAP, Oracle, IBM, Hortenworks und Cloudera sind in beiden zu finden von jeweils 15 Anbietern.

Aber nun zu den Bewertungen von SAP vs. dem klaren Leader. Leider haben sich die Kriterien ein wenig geändert und auch der Leader von 2016, Informatica ist 2018 weit abgeschlagen und Talend, in 2016 auch schon Leader, hat hier die Rolle übernommen.

BDF Score

Es scheint recht klar, SAP kommt nicht an die Leader heran. SAP ist als Strong Performer in der Gesamtsicht eher im Mittelfeld der Anbieter zu finden. Beim Current Offering haben sich alle Werte verbessert, während die Roadmap und Vision wohl nicht mehr so ausgeprägt wahrgenommen werden wie noch 2016. Sicherlich hat die SAP bereits einige Schritte unternommen und mit Data Hub eine Lösung bereitgestellt, welche eine größere Lücke gefüllt hat. Zu den Führenden ist es jedoch noch ein weiter Weg.

Leider stehen in dem mir vorliegenden Dokument keine genaueren Definitionen zur Verfügung, was z. B. „Data Fabric Access“ bedeutet, bei dem SAP ganz gut abgeschlossen hat.

 

BI – Die alten Regeln gelten nicht mehr

Vor Kurzem veröffentlichte Wayne W. Eckerson (WE) einen Artikel darüber, wie sich die Welt im BI-Umfeld verändert (hat). Er listet einige Erkenntnisse von seiner letzten TDWI-Konferenz und versucht auch dies zu erklären. Ich (SA) versuche einmal, ausgewählte Aussagen wieder zu geben und auf meine Situation zu übersetzen.

  • “There is no need for a dimensional model.”
    • WE: Heutige BI-Werkzeuge sind so gut, dass schlechtes Design kompensiert wird.
    • SA: InfoCubes sind in einen HANA-System nicht mehr notwendig. Bei einer Modellierung in HANA muss man nur bedingt auf Performance achten und Werkzeuge wie Lumira benötigen nichtmal In-Memory sondern nutzen SAP IQ als spaltenbasierte Datenbank um performance durch den Endanwender Millionen von Datensätzen verarbeiten zu können.
  • “There is no need for ETL tools.”
    • WE: nutze Spark für ETL in der Cloud oder in Hadoop-Umgebungen
    • SA: Ebenfalls Lumira hat hier schon gezeigt, wie auch recht komplexe Transformationen sowie die Anbindung an fast beliebige Datenquellen schnell und einfach möglich sind. Mit Agile Data Preparation hat die SAP sogar ein komplett eigenes Werkzeug dafür auf den Markt gebracht.
  • “You don’t need a relational database.”
    • WE: Du kannst alle deine Data Science-Aufgaben ins S3 und mit Spark erledigen.
    • SA: Zumindest meine ersten Erfahrungen mit BO Cloud legen nahe, dass Cloud doch noch die eine oder andere Kinderkrankheit hat. Allerdings garantiert Amazon 99,999999999 % Ausfallsicherheit. Das muss man intern erstmal leisten. Das man für Data Science nicht unbedingt eine relationale Datenbank benötigt, ist aber glaube ich wirklich nichts Neues. Gerade wenn es um unstrukturierte Daten geht und um extrem große Datenmengen sind andere Ansätze gefragt.
  • “Code is not the enemy.”
    • WE:  Schreibe ETL-Code in Spark und verwalte ihn in Git Hub; es ist befreiend
    • SA: Git scheint heute im HANA oder SAP Cloud-Umfeld schon der neue Standard zu sein. In einer superagilen Welt verwundert der Erfolg von Git Hub daher nicht.
  •  “We don’t move data.”
    • WE: Wir bauen logische views in Hadoop für analytische Anwendungsfälle
    • SA: Auch HANA und vor allem S/4HANA setzen auf virtuelle Datenmodelle, welche für analytische Zwecke optimiert sind. Mit Core Data Services wird aktuell von SAP eine neue Grundlage geschaffen, dieses Konzept in der Breite umzusetzen.
  •  “We design from physical to logical, not logical to physical.”
    • WE: Wir laden Rohdaten in das System, dann bauen wir logische views für jeden Anwendungsfall; wir modellieren nicht zuerst.
    • SA: Passt zum vorherigen Punkt und unterstützt und erweitert diesen. In einem S/4HANA liegen die Daten schon vor, jedoch nicht unbedingt für analytische Zwecke. Erst durch das virtuelle Datenmodell bereite ich die „Rohdaten“ auf. In einem NoSQL-System oder Data Lake lege ich Daten ab, wie Sie kommen. In zum Teil völlig verschiedenen Schemata für die Sie ursprünglich gedacht waren. Wie ich diese für die Analyse im Sinne von Data Science benötige, kann ich vorab noch nicht sagen. Dabei kann man jedoch noch gut zu den traditionellen Ansätzen differenzieren, bei denen der Analysezweck im vorhinein recht klar ist (z. B. Analyse von Umsatzdaten nach verschiedenen Dimensionen). Schema-on-Read ist nichts, was der Fachbereich mal nebenher macht, weil er eine Fragestellung beantwortet haben möchte. Und dann gibt es auch noch agile Ansätze wie Data Vault.
  • “We design for secondary use cases, not the primary one, which has a limited shelf life.”
    • WE: Wir laden Daten und speichern diese auf Detailebene, so dass wir diese für neue Einsatzzwecke verwenden können, sobald der Bedarf dafür aufkommt.
    • SA: Die Aggregation von Daten geschieht immer für einen bestimmten Zweck. Information geht dabei verloren. Natürlich sollte es für ein HANA-System in der SAP-Welt kein Problem sein, sehr granulare Daten zu speichern. Jedoch kann dies sehr teuer sein. Mit Ansätzen wie Dynamic Tiering und Nearline Storage hat SAP Ansätze, das zu handhaben. Eine Alternative für BW könnten Ansätze wie SparrowBI sein.
  • “Your data architecture is as important or more than your data model.”
    • WE: Wie die Daten im Dateisystem abgelegt werden ist wichtig. Sonst wird man mit den Daten wenig anfangen können.
    • SA: Themen wie Datenqualität, Metadatenmanagement und Data-Lineage spielen hier eine wichtige Rolle, soll der Data Lake nicht zum Datensumpf werden.
  • “Architecture is way more important when you move to the cloud.”
    • WE: Wenn du deine Cloud nicht richtig konfigurierst, wird es evtl. teurer als gedacht.
    • SA: Mit Cloud-Konzepten herrscht weniger Erfahrung als in der On-Premise-Welt. Die leichte Verfügbarkeit der Ressourcen verführt dazu, erstmal großzügig damit umzugehen. Evtl. muss hier neu und eher elastisch gedacht werden.
  • “Applications are dependent on analytics.”
    • WE: Wir benötigen DevOps um die Entwicklung von Anwendungen und Analytic zu koordinieren.
    • SA: S/4HANA setzt massiv auf Hybrid Transactional Analytical Processing (HTAP) und verbindet immer mehr operative Anwendungen mit analytischen Funktionen.
  • “Either you evolve and change, or die.”
    • WE: Sei offen gegenüber Hadoop, Spark und der Cloud.
    • SA: Das sich SAP gegenüber den Open Source-Technologien wie Hadoop und Spark z. B. im Rahmen von HANA Vora öffnet ist ein wichtiges Zeichen. Bei Cloud versucht sich SAP als Vorreiter und setzt darauf wie auf HANA und zeigt damit auch die Richtung.

Eckerson schließt mit den Worten „The only constant is change, and now is the time to change! „. Aber Veränderung ist kein Projekt oder etwas, was man jetzt mal angehen sollte. Um konkurrenzfähig zu bleiben muss Veränderung zum integralen Bestandteil der Unternehmenskultur werden.

DSAG Technologietage – Was man für BI & Analytics mitnehmen kann

Am 21. Und 22.02.2017 waren in Mannheim die DSAG Technologietage. Das Motto lautete – „Change = Chance: Heute ist morgen schon gestern“.

Leider war ich nicht vor Ort, analysiere jedoch gerne mal die Folien, um zu sehen, was sich im Bereich BW/BI/BO/Analytics und angrenzenden Bereichen bei der SAP so tut. Gerne bekomme ich auf dem Blog auch Feedback und Ergänzungen von Teilnehmern.

Die SAP HANA Cloud Platform (HCP), hier auch als SAP Cloud Platform beschrieben, scheint aktuell das große Ding zu sein. In der Keynote von SAP CIO Thomas Saueressig nimmt diese ganz klar die führende Rolle als Plattform für die Digitale Transformation ein.

Bei der HCP wird Analytics und Business Intelligence ganz klar als fundamentales Element der Digitalisierung (Machine Learning, Real-time Analytics) sowie der Digitalen Transformation (Zusammenspiel von Business process und Business intelligence) dargestellt. Die HCP soll dabei Mission Critical Data analysieren und visualisieren. Und wenn Data richtig Big wird, wird einfach HANA Vora angeflanscht.

Auch werden auf Basis der HCP einige Machine Learning Services, sogenannte Intelligent Enterprise Applications vorgestellt:

  • Resumee Matching
  • Cash Application Intelligence
  • Ticket Intelligence

Die Referenz fehlt, es dürfte aber ganz klar das seit kurzem verfügbare SAP Clea sein.

Auf den BW/4HANA-Folien werden aktuell 4.000+ BW on HANA-Kunden von insgesamt 16.000+ dargestellt. 8.000+ auf Release 7.3/7.4. Fast der Versuch zu sagen, das 7.5-Kunden ja sowieso auf HANA gehen, was nach meiner Erfahrung ganz klar nicht unbedingt der Fall ist. Nun wenn ich vergleiche, dann sind in den letzten 1 ¼ Jahren 1.500 BW-Kunden on HANA gegangen oder haben so gestartet. Bei 1.000 Neukunden in der Zeit ist hier sicherlich ein großer Teil zu sehen, die direkt on HANA starten. Also SAP, 12.000 Kunden voraus bis 2025!

Ansonsten haben die Folien von Roland Kramer und Gordon Witzel nichts wirklich Neues zu BW/4HANA gebracht. Aber bei so einer Veranstaltung muss man vielleicht auch erst alle nochmal abholen.

Ulrich Christ und Jürgen Haupt haben eine schlanke und dynamische Modellierung mit BW/4HANA und BW powered by HANA vorgestellt. Dabei ging es ziemlich ins Detail zu den flexiblen Möglichkeiten über einen CompositeProvider mit Hilfe von Associations und transitiven Attributen neue Stammdaten über alle LSA++-Layer zu integrieren. Ähnliches wurde bereits vor etwa einem Jahr in einem First Guidance-Paper vorgestellt.

Detlef Wassermuth stellt den aktuellen Stand der Planungs-Werkzeuge von SAP vor. Dabei wird BPC klar als Schwerpunkt dargestellt und die Möglichkeiten zwischen Embedded und Standard Model diskutiert. Aber auch hier nicht wirklich Neues.

Jie Deng und Alexander Peter stellten den aktuellen Stand zu Lumira 2.0 sowie Analysis Office vor. Bzgl. Analysis wurden kurz die Neuerungen von Release 2.4 vorgestellt und die Roadmap, was kommen soll. Hierzu gab es jedoch auch bereits diverse Webinare. Genauso bei Lumira. Auch hier wurden nach meinem Gefühl keine wesentlichen Neuheiten gezeigt, die man nicht bereits hätte kennen können. Allerdings gab es eine Demo und Live habe ich jetzt selbst auch noch nicht viel gesehen.

Von Abassin Sadiq und Larissa Naujoks wurde SAP BusinessObjects Cloud vorgestellt. Aufgefallen ist mir dabei das folgende Übersichtsbild:

sapanalytix-boc-dsagtt17-01

Quelle: SAP SE, „V010 –Wer morgen nicht von gestern sein möchte: SAP BusinessObjectsCloud –SAP Analytics aus der Wolke“ von Abassin Sidiq, Larissa Naujoks

Die Frage ist, was hier wohl „Verticals“ bedeutet? Der Stern deutet darauf hin, dass es sich um eine geplante Function handelt. In der Vergangenheit war hier auch schon mal GRC zu lesen oder auch „Embedding – Analytics into Applications“ wie noch in der letzten Roadmap vom Januar 2017. Natürlich könnte unter Verticals genau das Thema Embedding gemeint sein.

In einer Fiori-Session wurde von Michael Falk folgende Folie als geplante Innovation vorgestellt:

sapanalytix-boc-dsagtt17-02

Quelle: SAP SE, „V026 – SAP Fiori Evolution“ von Michael Falk

Evtl. schließt sich hier ja auch wieder der Kreis zu dem Theme „Verticals“ bei BO Cloud.

Kundenvorträge sind natürlich immer sehr interessannt und willkommen. So hat Tjarko von Lehsten von der Swisscom AG gezeigt, wie man dort das Thema BW on HANA angeht. Dort präsentierte er, nicht zum ersten Mal, das Projekt OneBI, welches drei BW-Systeme im Greenfield-Ansatz auf eine BW on HANA/HANA Native-Plattform für den dortigen Bereich Finanzen und Controlling konsolidieren sollte. Das Projekt wurde im Rahmen des BW 7.5 Ramp-Ups in  Zusammenarbeit mit SAP durchgeführt und setzte auch gleich auf den BusinessObjects Enterprise-Tools auf.

Das Projekt hat eine Laufzeit von über 2 Jahren (5.000 Manntage), und läuft parallel zu einem OneERP-Projekt.

Trotz das das Projekt aktuell noch läuft, kann man heute schon einige Lessons Learned daraus mitnehmen:

  • Bei Realtime-Ansätzen muss man auch auf die Stammdaten achten
  • Frühzeitige Einbeziehung der Fachbereiche, Aufbau eines Play Lab
  • Schnelles und agiles natives Modellieren verlängert Test- und Go-Live-Zyklen
  • Bei agilem Projektmanagement sollten die funktionalen Anforderungen so genau wie möglich definiert werden
  • Richtlinien und Standard-Szenarien sind sehr hilfreich
  • Ein Training für BW on HANA und HANA-Technologie vor dem Projekt ist notwendig
  • ODP-DataSources und EIM (Smart Data Integration/Access) stellen wichtige Integrationsfunktionen dar
  • Man muss sich entscheiden, ob der EDW-Layer in der HANA oder im BW liegt
  • Data Streaming benötigt neue Skills und hat eine gewisse Komplexität. Es bedient auch ganz neue Anwendungsfälle.
  • Die Reduktion auf neue Objekte führt zu einer schnelleren Implementierung
  • SQL-basierte Transformationen sind schnell und stabil

Sicherlich für viele ein Traumprojekt mit der Möglichkeit, die Fähigkeiten der Systeme und Werkzeuge voll auszunutzen und deren Mehrwert im Vergleich zur „alten Welt“ zu erfahren.

Ein weiterer Erfahrungsbericht kommt von WITTENSTEIN SE. Im Vortrag „Chance und Change für BI: SAP BW im Kontext einer HANA Strategie bei der WITTENSTEIN SE“, gehalten von Pascal Kranich von WITTENSTEIN und Stefan Kahle von ISR AG.

WITTENSTEIN als mittelständisch orientiertes, produzierendes Unternehmen mit starker internationaler Ausrichtung setzt stark auf die Digitalisierung. Industrie 4.0 spielt eine große Rolle. Der Mensch als Entscheider steht im Mittelpunkt. Daraus folgt: „Business Intelligence Fähigkeiten der Organisation werden zum strategischen Wettbewerbsfaktor“.

In der Data Warehouse-Zielarchitektur laufen betriebswirtschaftliche Daten aus SAP ERP, produktionsorientierte Daten aus dem MES und Sensor- und Maschinendaten, welche zuerst in Hadoop gesammelt werden zusammen.

In der weiteren Präsentation werden verschiedene Beispiele zu Mixed Models (BW & HANA-Modellierung) dargestellt.

Die Lessons Learned von WITTENSTEIN:

  • HANA allein ist kein EDW und BW kann nicht alle Optimierungen nutzen, welche HANA bietet
  • Man hat die Qual der Wahl zwischen BW und HANA und muss klare Regeln festlegen und diese einhalten
  • Sponsorship spielt eine wichtige Rolle
  • Kommunikation ist alles
  • Organisation ist herausforderner als die Technik

Einige Parallelen finden sich in den Erfahrungen die man macht sowohl bei Swisscom wie auch bei WITTENSTEIN. Gleichzeitig hat man den Eindruck, BW on HANA ist angekommen und zeigt seinen Nutzen.

Dann ein etwas technischer Anwenderbericht über die Einführung einer Nearline-Storage (NLS)-Lösung für das BW der Münchner Stadtwerke im Rahmen einer bevorstehenden HANA-Migration einschließlich Upgrade. Die Einführung der Lösung wurde durch Roland Kramer unterstützt. Interessant dabei die doch gut aussehenden Monitoringmöglichkeiten

Trotz des eher technischen Aspekts des Projekts ist es doch interessant, das auch der Fachbereich hier ein sehr positives Feedback abgegeben hat. Leider ansonsten wenig weitere greifbare Lessons Learned.

Die Präsentation „V047 –IoT Optionen anhand konkreter Lösungs-und Kundenbeispiele“ von Smitha Rayala (SAP) zeigt hauptsächlich die Lösung „SAP Predictive Maintenance & Service“ (PdMS). Die HANA-basierte Lösung stellt sich recht komplex als Zusammenspiel von SAP-Systemen, Open Source und 3rd Party-Lösungen dar. Für die Datenintegration werden Werkzeuge wie SAP Data Services oder Smart Data Streaming genutzt und ein Multi-Temperature-Konzept mit SAP IQ für „warm data“ wird dargestellt. Ebenfalls kommen in der technischen Realisierung Hadoop und HANA Vora, sowie R zum Einsatz bzw. sind geplant. Dazu passend wird als Methodologie der CRISP-DM-Ansatz vorgestellt. Auch wenn die Folien nur wenig Details hergeben, zeigt es einfach mal ein eine konkrete Lösung im Analytics-Umfeld, welche auf den aktuellen Technologien und Ansätzen der SAP aufsetzen.

In einem zweiten Teil wird SAP Vehicle Insights als aktuell HCP-basierte Lösung vorgestellt. Auch hier zeigt sich, das im Hintergrund eine Vielzahl an Technologien und Werkzeugen der SAP zusammenspielen und Analytics einen wichtigen Bestandteil darstellt:

sapanalytix-boc-dsagtt17-03

Quelle: SAP SE, „V047 –IoT Optionen anhand konkreter Lösungs-und Kundenbeispiele“ von Smitha Rayala

Der Vorteil im HCP-Betrieb wird darin gesehen, dass man trotz des komplexen Zusammenspiels eigentlich keine Betriebskosten hat, da alles von der SAP gemanaged wird.

Von Dr. Stefan Hoffmann (SAP) präsentierte „V132 – SQL Datawarehousing gemeinsam mit Business Warehouse BW4/HANA und deren gemeinsame Nutzung mit BW Inhalten“. Da das HANA DW-Konzept vorsieht, rund um HANA als Datenbank ein größeres Toolset bevorzugt aus dem eigenen Haus einzusetzen, wurden diese auch so vorgestellt. Zuerst im Gesamtkontext, dann auch einzeln:

  • SAP Enterprise Architect Designer – zur Modellierung des semantischen und logischen Datenmodells
  • SAP HANA EIM: SDI/SDQ und ADP – oder auch SAP HANA Enterprise Information Management: Smart Data Integration/Smart Data Quality und Agile Data Preperation für ETL und Datenqualität.
  • SAP HANA Web IDE – zur Modellierung von Calculation Views
  • SAP HANA CDS Development – graphischer und scriptbasierter Editor für virtuelle Datenmodelle auf ABAP-Basis
  • SAP Data Warehousing Foundation – Data Temperature Management Strategie mit dem Data Lifecycle Manager (DLM)
  • Native DSO (NDSO) – Quasi das Standard DSO nativ auf HANA implementiert und in FlowGraphs integriert
  • SAP HANA Data Warehouse Scheduler – macht den Eindruck als wäre es die HANA-Variante der Prozessketten.

In dem Kontext sei auch das Februar-Update der SAP Data Warehouse Overview & Roadmap-Präsentation erwähnt. Darin wird auch nochmal der grundsätzliche Ansatz und die Differenzierung zum BW/4HANA erläutert. Dort wird auch ganz frisch der oben beschriebene Swisscom-Fall als Beispiel für ein Mixed Model vorgestellt.

Zusammenfassend lässt sich aus der Folien-Perspektive sagen, die Technologietage sind wohl keine Veranstaltung um große Neuigkeiten zu kommunizieren. Jedoch gab es interessante Kundenvorträge und Deep Dives wie den von Ulrich Christ und Jürgen Haupt. Auch lohnt sich wohl immer mal der Blick links und rechts von BI und BW.