BARC Score Data Discovery 2017 vs. 2018

BARC hat für 2018 einen neuen BARC Score für Data Discovery veröffentlicht. Fast genau ein Jahr nach Veröffentlichung des ersten BARC Scores zu dem Thema kommt somit die Neuauflage.  Mit dem Neuzugang Datameer sind in 2018 dreizehn Anbieter zu finden.

Was das Thema ausmacht, jedoch auch wie SAP (mit SAP Analytics Cloud) und auch Microsoft (mit MS Power BI) hier abschneiden, möchte ich im Folgenden etwas genauer betrachten.

BARC hat eine eigene Definition für den Begriff Data Discovery:

„Data Discovery is the business user driven and iterative process of discovering patterns and outliers in data“

– BARC, 2017

Wikipedia fast den Begriff etwas pragmatischer:

„Der Begriff Data Discovery („Datenentdeckung“) gilt als Schlagwort für weiterentwickelte Business-Intelligence-Werkzeuge, die mehr Bedienerfreundlichkeit und Flexibilität sowie höchstmögliche Autonomie der Anwender gewährleisten sollen. Der Schwerpunkt liegt in der Visualisierung der Datenanalyse.“

Wikipedia, 19.09.2018

BARC fasst unter Data Discovery drei wesentliche Komponenten zusammen:

  • Data Preparation
  • Visual Analysis
  • Guided Advanced Analytics

An diesen Aspekten muss man sich auch messen lassen, um im BARC Score aufzutauchen.

2015 beschreibt Rita Sallam von Gartner im News-Beitrag Gartner Says Power Shift in Business Intelligence and Analytics Will Fuel Disruption“ Smart Data Discovery. Die Vorstellung von BARC und Gartner dürften sich hiermit weitgehend treffen.

Mitte 2017 greift Rita Sallam das Thema erneut auf und gibt der seitherigen Entwicklung einen neuen Namen: Augmented Analytics – mit Machine Learning und Conversational Analytics als neue Treiber.

Im Vergleich der Überblicksartikel sowie weiterer große Textteile im BARC Score fällt auf, dass sich hier im Prinzip nicht viel geändert hat und für BARC Copy & Paste offensichtlich weitgehend ausgereicht hat.

Inklusionskriterien und Evaluationskriterien haben sich zum Vorjahr im Wesentlichen nicht verändert. Zu den oben genannten drei Aspekten der ersten Score-Achse „Portfolio Capabilities“ kommt noch der Aspekt „Platform“ hinzu. Die individuelle Verarbeitung von Daten sowie die Verbreitung inkonsistenter Analyseergebnisse haben in der Vergangenheit zu einem Vertrauensverlust geführt. Deshalb bewertet BARC auch den Aspekt, lokale und globale Governance zu unterstützen sowie die Kollaboration rund um die Daten zu ermöglichen, ohne den Anwender im Fachbereich zu sehr einzuschränken.

In der Zweiten Score-Achse „Market Execution“ gab es eine kleine Anpassung. Wurde 2017 der Aspekt „Financials“ noch mit Medium bewertet, ist die Gewichtung in 2018 nur noch Low. Unter Financials versteht BARC Marktkapitalisierung, EBITDA, Cash, Profitabilität usw. Es ist anzunehmen, dass die großen Anbieter darunter etwas leiden. Jedoch ist dies hier nur eines von acht Kriterien.

Der BARC Score beginnt in sofern interessant, als das es keinen „Dominator“ rechts oben mit auf beiden Achsen extrem starken Wertungen gibt. Offensichtlich haben alle Tools auch Ihre Schwächen.

Wie 2017 finden sich im zweitbesten Bereich „Market Leaders“ Tableau und MicroStrategy. Neu hinzugestoßen in 2018 ist Qlik mit Qlik Sense. Vergleicht man mal mit den aktuellen Gartner Magic Quadrant für Analytics & BI, überraschen die Market Leader wenig. Der Fokus mag nicht genau der gleiche sein, was es interessant macht zu sehen, warum Power BI von Microsoft zwar auch im BARC Score stark ist (beste Market Execution), jedoch im Bereich Portfolio Capabilities zu den anderen zurück bleibt und somit nur im nachfolgenden „Challenger“-Bereich landet. Microsoft findet sich dort recht nahe zu SAP, welche zwar immer noch Challenger ist, jedoch im Vergleich zu 2017 in der weiteren Entwicklung wohl nicht ganz mit Microsoft mithalten konnte.

 

Bewertung von Microsoft Power BI 

Analytix_MSPowerBI

Beispiel für MS Power BI Desktop (eigene Darstellung)

Produktlink

Update Power BI-Service für Juli & August 2018

MS Power BI (PBI) ist ein Desktop BI-Tool mit cloudbasiertem BI-Service für die Veröffentlichung und Verteilung von BI-Inhalten. Eine On-Premise-Version (Berichtsserver) ist aktuell in Arbeit und bereits einsetzbar.

Treiber für PBI ist die starke Verbreitung von Microsoft sowie der sehr günstige Einstiegspreis. Die Sprache DAX erlaubt komplexe Funktionen in der Datenvorbereitung, erschwert jedoch den einfachen User u. U. die Nutzung. Die Stärke liegt in den Visualisierungsmöglichkeiten. Advanced Analytics steht bedingt zur Verfügung, R kann für fortgeschrittene User integriert werden.

Während BARC das im Unternehmen oft vorhandene Microsoft-Wissen als klare Stärke ansieht, ist die Kundenzufriedenheit in 2017 doch eher niedrig. In 2018 hat sich Microsoft hier aufgrund regelmäßiger Updates deutlich verbessert.

Stärken:

  • Quick Insights für geführte fortgeschrittene Analysen (nur 2017)
  • Natural Language Query-Funktionen für Visualisierungen (Q&A)
  • Integration in die Microsoft-Produktwelt
  • Nachvollziehbarkeit aller Datenvorbereitungsschritte, sowie diese zu ändern oder rückgängig zu machen
  • Gute Führung innerhalb der Datenvorbereitung (nur 2018)

Herausforderungen/Schwächen:

  • Datenimporte (Volumen) sowie der Live-Zugriff auf Quellen ist noch recht eingeschränkt
  • Datenvorbereitung und Modellierung ist nur im Desktop möglich
  • In der Datenvorbereitung sind nicht alle Funktionen über Wizards oder kontextsensitive Aktionen abgedeckt (2018)
  • Automatisierte Insights sind nur in der Cloud verfügbar und brachten in den Testfällen keine signifikanten Muster hervor.

 

Bewertung von SAP Analytics Cloud

Analytix_SAPAnalyticsCloud

Beispiel für SAP Analytics Cloud (eigene Darstellung)

Produktlink

Aktuelles Update (2 Wochen-Rythmus)

SAP vollzieht aktuell einen Wechsel im Bereich Data Discovery. Bisher war SAP Lumira als Desktop-Werkzeug das führende Produkt in diesem Bereich.  In 2018 hat die Strategie komplett zu SAP Analytics Cloud (SAC) gewechselt. SAC wird von BARC als Produkt mit einer vollständigen Vision für Data Discovery angesehen. Einschließlich Datenvorbereitung, visuelle Analyse, fortgeschrittene Analysen sowie als einziges der getesteten Werkzeuge Planung und Budgetierung. Jedoch ist der Reifegrad in bestimmten Bereichen noch nicht sehr ausgeprägt.

Der Umfang an Konnektoren ist bei SAC deutlich geringer als bei anderen Anbietern. Jedoch ist die Datenvorbereitung noch schwach ausgeprägt und ein grundlegendes Datenprofiling ist zwar möglich, jedoch aktuell nur bedingt hilfreich.

Advanced Analytics ist mit den Smart Discovery-Funktionen eine starke Säule des Produkts. Auf Basis der Testdaten konnten jedoch keine in den Daten verfügbaren Muster identifizieren.

Die Führung bei der Datenexploration wird aktuell nicht als ausreichend und flexibel genug angesehen. Jedoch gibt es anständige Visualisierungsmöglichkeiten kombiniert mit guten Kollaborations-, Kommentierungs- und Storytellingmöglichkeiten.

Stärken:

  • Breite BI- & Analytics-Fähigkeiten, integriert in einem Angebot
  • Die Möglichkeit, Ad-hoc Datenmodelle sowie zentrale Datenmodelle in Lösungen zu nutzen
  • Eine gute Führung bei fortgeschrittenen Analysen mittels „Smart Discovery“
  • Konnektivität und vordefinierte Inhalte für SAP-Datenquellen und -Anwendungen

Herausforderungen/Schwächen:

  • SAC ist nur in der Cloud verfügbar und immernoch ein relativ junges Produkt mit in einigen Bereichen eingeschränkten Möglichkeiten
  • Konnektoren fokussieren auf SAP
  • R-Integration ist nur für Datenvisulisierung, jedoch nicht für die Datenvorbereitung verfügbar
  • SAC ist die einzige Lösung im Anbieterfeld, welche in mehreren Bereichen keine Ergebnisse liefern konnte
  • Geringe Wahrnehmung außerhalb der SAP Kundenbasis

 

Fazit

Nun, das Urteil bzw. die Schwächen bei SAP Analytics Cloud erscheinen aktuell sehr hart. SAP hat hier aktuell einen Strategiewechsel hinter sich und liefert in hoher Geschwindigkeit neue Features aus. SAP hat eine große Vision mit SAC, jedoch aktuell noch viele Schwächen. Die aktuelle Roadmap macht das ganze nur noch ambitionierter. Nicht untypisch für SAP fokussiert SAP erstmal auf SAP. Das ist Stärke und Fluch zugleich.

MS Power BI steht aktuell stark da und wird schon länger von Microsoft als führendes Frontend-Werkzeug fokussiert. Auch hier hatte man eine Lernkurve, welche deutlich früher begonnen hat und ist daher z. B. SAP heute in einigen Bereiche noch klar voraus. Auch der Community-Support macht heute bei MS einen besseren Endruck im Vergleich zur SAP.

Einerseits ist es schön, hier doch recht unterschiedliche Fokussierungen und Entwicklungspfade zu sehen. Anbieter wie Qlik und Tableau sind in dem Umfeld bereits lange unterwegs und spielen ihre Erfahrung als Stärke aus. Andererseits zeigen sich ähnliche Releasezyklen im Rahmen agiler Entwicklungsmethoden und oberflächlich betrachtet unterscheiden sich die Tools in den Möglichkeiten erstmal nur bedingt. Cloud ist ein großer Enabler für Innovation und gefühlt wird jede neue Technologie reingebuttert, um dem Kunden einen Mehrwert zu bieten und sich von der Konkurrenz abzuheben.

Advertisements

Old School vs. Modern BI

Wird BI heute anders angegangen, als noch vor einigen Jahren? Was hat sich verändert? Wo geht die Entwicklung hin?

Nun, als Berater sehe ich ganz kleine und auch ziemlich große Unternehmen und wie diese dort BI machen. Folgende Aspekte sind mir in letzter Zeit zunehmen aufgefallen, was heute (Modern) doch schon häufig anders ist als zu den Zeiten, als ich mit BI gestartet habe (so 2006…).

OldSchool_Modern_BI

Sicherlich hat sich einiges geändert. Die Tools sind zunehmend Self-Service-like, alles muss ziemlich fancy aussehen, man ist total agil und möchte intern viel mehr selbst machen. Unternehmen haben BI und Analytics für sich entdeckt, sei es um an der Digitalen Transformation teilzuhaben oder einfach nur alle Prozesse optimiert und transparent zu haben. Daten generieren Wert und steuern indirekt oder auch direkt, strategisch, taktisch oder operativ das Business.

Nun, heute gibt es sicher noch genug Unternehmen auf beiden Seiten. Ob eine Seite über die Zeit gewinnen wird, wird sich zeigen. Wahrscheinlich wird es kein komplettes Zurückfallen auf die Old School geben. Trotzdem gibt es dort Stärken, die sich evtl. erst in der nächsten Krise zeigen. Möglicherweise hat man bis dahin genug von der modernen Seite gelernt, um für sich den Besten persönlichen Modus zu finden.

 

 

Self Service BI am Beispiel SAP Lumira – aus IT-Sicht

Lumira ist ein interessantes BI-Werkzeug und im letzten Gartner Magic Quadrant für BI und Analytics Platforms repräsentierte es im Schwerpunkt SAP. Gartner sieht mit dem Schwenk von IT-zentrierter BI hin zu fachbereichszentrierter BI die Vollendung einer seit Jahren andauernden Entwicklung.

In gewisser Weise ist Lumira (aktuell im Release 1.31) sehr mächtig. Kein anderes BI-Werkzeug von SAP bietet vergleichbare Möglichkeiten bei der Akquisition und Transformation von Daten. Auch im Bereich Visualisierung/Explorative Datenanalyse hat Lumira wirklich seine Stärken. Die bisher kommunizierten Arbeitsschritte in Lumira waren je nach Release etwas abweichend: (Hier 2 Alternativen):

  1. Acquire Data / Acquiring Data
  2. Enrich Data / Preparing Data
  3. Build Visualizations / Visualizing Data
  4. Explore Data / Composing Stories
  5. Share with your teammates / Sharing Insights

Gerade der letzte Schritt war stark mit Lumira Cloud verbunden. Da Lumira Cloud wegen SAP BusinessObjects Cloud nicht mehr weiter entwickelt wird, steht diese Option nicht mehr zur Verfügung und man kann seinen Bericht oder seine Story „nur“ noch auf dem Server for Teams oder der SAP BI Plattform sichern.

Natürlich kann man ein Lumira nur bestimmten Key- oder Power-User an die Hand geben kann, um die Sache etwas unter Kontrolle zu halten und nicht für jeden seinen persönlichen Bericht in einem BI-System managen zu müssen. Dieser stellt dann für die Masse der User ein Dokument auf der BI-Plattform zur Verfügung. Dort verfügen die User nur über sehr eingeschränkte Anpassungsmöglichkeiten.

Im Folgenden eine Analyse der einzelnen Schritte in Lumira, deren Bedeutung und einer Bewertung aus IT-Sicht:

SSBI_Lumira

SAP Lumira hat wirklich seine Stärken. Jedoch muss man sich der Grenzen bewusst sein. Wäre in einem Unternehmen die IT entsprechend aufgestellt, so sollten Möglichkeiten wie Lumira nur in Kombination mit klassischen BI-Ansätzen für bestimmte Anwender und Situationen genutzt werden. Das Lumira unter diesem Namen mit Design Studio im Release 2.0 verschmilzt, macht es eher zu einem zukünftigen Werkzeug für Rapid Prototyping, erleichtert jedoch den Übergang in eine IT-gesteuerte Umgebung.

Eine mögliche Alternative hieße, dass letztendlich der Fachbereich seine eigene IT aufbaut. Das kann funktionieren, muss aber bewusst vom Unternehmen so gewollt sein. Den dadurch optimiert sich die Abteilung zwar für sich, schafft aber einen Graben zwischen sich und anderen Abteilungen, da Kennzahlen, Information Design und Datenbasis lokal und nicht vergleichbar sind.

Eine andere Alternative wäre, die IT agil bzw. Bi-modal aufzustellen. Wahrscheinlich besteht letztendlich ein großes Problem darin, dass die IT-Abteilungen bzw. BI-Teams selten die Kapazität haben, schnell genug auf Anforderungen/Änderungen zu reagieren. Auch wenn dies wünschenswert wäre, da damit das volle Potential von BI durch technisch ausgereifte Lösungen ausgenutzt werden könnte. Ob sich der Konflikt zwischen „verstehe die Technik“ und „verstehe den User/das Business“ jedoch jemals auflöst ist fraglich. Den die Technik alleine macht noch keine gute Business Intelligence aus.

Das BICC hat seine Erwartungen wohl nicht erfüllt, ist nicht überall realisierbar oder entwickelt sich vielleicht nicht schnell genug weiter. Vielleicht ist es letztendlich doch der letzte Notanker um BI zu retten.

Letztendlich muss hier im Rahmen einer Business-, IT und BI-Strategie hier ein passender Weg für jedes Unternehmen gefunden werden. Vorausgesetzt, solche Strategien sind überhaupt im Unternehmen vorhanden…

Analysis Path Framework (APF)

Das Analysis Path Framework ist eine Fiori-Anwendung auf Basis der HANA Datenbank.

Es ermöglicht über vorkonfigurierte Pfade eine Schritt für Schritt-Analyse von Daten.

Weiterführende Informationen finden sich im SCN bspw. hier und hier.

Obwohl ursprünglich eher für ein Suite on HANA bzw. S/4 HANA-System gedacht, gibt es ebenso die Möglichkeit, das APF auf einem BW on HANA zu betreiben.

APF ist im SCN lebendig, obwohl ich immer feststelle, dass es kaum jemand im BI-Umfeld kennt.

Die SAP hat für Q3/2016 ein ausführliches Roll-Out-Dokument zur Verfügung gestellt.

 

SAP Lumira

SAP Lumira ist ein relativ neues Werkzeug der SAP im Umfeld Business Intelligence. Es fällt in die Kategorie Data Discovery, Agile Visualisierung oder Self Service Visualisierung und zielt direkt auf den Endanwender im Fachbereich.

Mit SAP Lumira Server wurde mittlerweile auch die Möglichkeit geschaffen, SAP Lumira in die BO-Plattform zu integrieren (seit Kurzem auch ohne eine eigene HANA-Datenbank) und gewisse Regeln im Umgang mit dem Werkzeug festzulegen.

SAP Lumira ermöglicht die Analyse und Integration verschiedener Datenquellen, wobei HANA hierfür eine der ersten möglichen Datenquellen war und ein Zugriff auf das SAP BW erst zu einem deutlich späteren Zeitpunkt ermöglicht wurde.

SAP Lumira wird relativ agil und mit kurzen Releasezyklen von zunächst etwa 2 Monaten veröffentlicht. Zuletzt waren es eher 3-4 Monate.

Im Mai 2016 wurde die Konvergenz von SAP Design Studio und SAP Lumira zu voraussichtlich einem Lumira 2.0-Release in Q4/2016 verkündet.

Regelmäßig gibt es im SCN Updates zu den Neuerungen:

SAP Lumira 1.27

SAP Lumira 1.28 (seit 19.08.2015)

SAP Lumira 1.29 (seit 20.11.2015)

SAP Lumira 1.30 (seit 24.03.2016)

SAP Lumira 1.31 (seit 14.06.2016)

SAP Lumira 1.31.1 (seit 12.08.2016?)

SAP HANA Information Consumer

Der SAP HANA Information Composer ist ein webbasiertes Werkzeug, welches für den Endanwender im Fachbereich gedacht ist und keine nur wenig technisches Know How voraussetzt.

Es ist in der Kategorie Self Service-Datenmanagement einzuordnen. Dem Anwender wird ermöglicht, lokale Daten (bspw. aus Excel) in die SAP HANA Datenbank zu laden und mit bereits vorhandenen Daten zu kombinieren.

Der SAP HANA Information Composer steht damit im Gegensatz zum SAP HANA Modeler, der innerhalb des SAP HANA Studio’s die Modellierung von Daten für den IT-Bereich ermöglicht.

Ähnliche Ansätze wie beim SAP HANA Information Composer finden sich bei den SAP BW Workspaces (speziell bspw. die Integration mit bestehenden Daten) oder auch bei SAP Lumira (speziell bspw. Data Cleansing-Funktionen).