Big Data - ZiBESO AG

May 8, 2018 | Author: Anonymous | Category: N/A
Share Embed


Short Description

Download Big Data - ZiBESO AG...

Description

Wolfgang Martin Team

Copyright Dieses Dokument wurde von S.A.R.L Martin / Dr. Wolfgang Martin verfasst. Alle Daten und Informationen wurden mit größter Sorgfalt recherchiert und zusammengestellt. Eine Garantie in Bezug auf Vollständigkeit und Richtigkeit wird ausgeschlossen. Alle Rechte am Inhalt dieses Dokuments, auch die der Übersetzung, liegen bei den Autoren. Daten und Information bleiben intellektuelles Eigentum der S.A.R.L. Martin im Sinne des Datenschutzes. Kein Teil des Werkes darf in irgendeiner Form (Druck, Photokopie, Mikrofilm oder einem anderen Verfahren) ohne schriftliche Genehmigung durch S.A.R.L Martin reproduziert oder unter Verwendung elektronischer Verfahren verarbeitet, vervielfältigt oder verbreitet werden. S.A.R.L Martin übernimmt keinerlei Haftung für eventuelle aus dem Gebrauch resultierende Schäden.

Copyright © S.A.R.L. Martin, Annecy, 2004 – 2015

Disclaimer Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen etc. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. In diesem Werk gemachte Referenzen zu irgendeinem spezifischen kommerziellen Produkt, Prozess oder Dienst durch Markenname, Handelsmarke, Herstellerbezeichnung, etc. bedeutet in keiner Weise eine Empfehlung oder Bevorzugung durch die S.A.R.L Martin.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 2

Wolfgang Martin Team

Vorwort Das vorliegende White Paper „Performance Management und Analytik“ erscheint jetzt im August 2014 im zwölften Jahr mit der Version 11.1 Im Januar 2004 habe ich dieses White Paper gemeinsam mit Richard Nußdorfer mit der Version 1.0 begonnen. Nach dem Tode von Richard Nußdorfer im Oktober 2008 habe ich unser Werk fortgesetzt. Die vorliegende Ausgabe beschreibt Konzepte, Business-Architekturen und technische Architekturen von Performance Management und Analytik. Performance Management ist definiert als ein Geschäftsmodell, das einem Unternehmen ermöglicht, Unternehmensziele und Geschäftsprozesse kontinuierlich aufeinander abzustimmen und konsistent zu halten. Es arbeitet als ein Closed-loop-Modell, um die Leistung („Performanz“) von Geschäftsprozessen auf operativer, taktischer und strategischer Ebene aktiv zu managen, i.e. zu planen, zu überwachen und zu steuern. Vom Standpunkt des Business ist diese Aufgabe auf allen Ebenen prinzipiell gleichartig, aber aus technischer Sicht treffen hier zwei unterschiedliche Technologien für Performance Management von verschiedenen Entwicklungsrichtungen aufeinander: Traditionelle Business Intelligence trifft auf Business Process Management (BPM) und konvergiert im Modell einer serviceorientierten Architektur (SOA). Nach einigen Jahren mit unterschiedlichen Bezeichnungen wie CPM (Corporate Performance Management), BPM (Business Performance Management) oder EPM (Enterprise Performance Management) habe ich mich ab der Version 6.0 entschlossen, nur noch von „Performance Management“ zu sprechen, und nutze den Begriff gemäß der oben gegebenen Definition als Dachbegriff für CPM, BPM und EPM. Ab der Version 6.1 habe ich konsequenterweise auch den Begriff „Enterprise Information Management“ durch „Information Management“ ersetzt. Analytik (vom griechischen: ἀναλύειν analyein = auflösen) ist definiert als die Durchführung einer systematischen Untersuchung eines Sachverhaltes oder eines Gegenstandes hinsichtlich aller bestimmenden Faktoren oder Komponenten. Der Untersuchungsprozess als solches ist die Analyse.1 Er dient der Ableitung von Wissen aus internen und externen Daten und Information für Unternehmenssteuerung ganz im Allgemeinen. Analytik wird immer wichtiger, denn das Datenvolumen explodiert. Das Volumen des World Wide Web wird 2013 auf 4 Zettabyte (1021 B = 1 Milliarde TB) geschätzt und soll sich alle zwei Jahre verdoppeln Willkommen im Big Data. Die wesentlichen Treiber dieser Datenexplosion sind Social Media, Sensoren, Server-Logs, Web-Clickstreams, das mobile Internet und das Internet der Dinge. Im Big Data steckt großes Potential, vor allem viel Wissen, das man sich „nur“ erschließen muss. Aber das Potential an Wissen ist nicht so einfach zu erschließen, denn die Vielfalt und Verschiedenheit der Quellen von riesigen, unüberschaubaren und fragmentierten Daten macht es schwierig, die Daten zu identifizieren, zu extrahieren, zu speichern, zu verwalten und zu analysieren. Hier braucht man neue Ansätze und Technologien für Analytik.

1

siehe http://de.wikipedia.org/wiki/Analytik

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 3

Wolfgang Martin Team

Zielsetzung des White Papers. Unternehmen, die Performance-Management- oder Analytik-Lösungen entwickeln wollen, werden sich entscheiden müssen, welche Plattform sie für diesen Schritt wählen werden, welche Best-of-Breed-Produkte benötigt werden und wie sie Performance Management und Analytik betreiben wollen, On Premise oder per Cloud. Dieses White Paper soll Sie bei der Entwicklung von Konzepten und bei der Entscheidungsfindung unterstützen. Der Verfasser ist seit 1984 im kommerziellen IT-Business in Managementfunktionen, als Analyst und strategischer Berater tätig. Davor war er von 1973 bis 1984 als Wissenschaftler tätig. Er verbindet so Wissenschaft und Praxis und hat sich mit strategischen Überlegungen und Zukunftsentwicklungen in der IT und den Auswirkungen auf das Business von 1996 bis 2001 als Analyst bei der Meta Group und danach als unabhängiger Analyst auseinandergesetzt. Das vorliegende White Paper gliedert sich in zwei Teile. Der hier vorliegende erste, allgemeine Teil beschäftigt sich damit, Konzepte, Vorteile und Nutzen von Performance Management und Analytik zu beschreiben und - damit verbunden - die Referenz-Architektur. Der zweite Teil beschäftigt sich mit im Markt gängigen Anbieter-Lösungen für Performance Management und Analytik. Um den Lesern eine praktische Übersicht über den aktuellen Markt zu geben, wurden zu ausgewählten Anbietern spezielle Beschreibungen aufgestellt. Derzeit verfügbar sind Kompendien zu2: arcplan, BOARD, Clueda, Cortex, Cubeware, epoq, geoXtend, IBM, Informatica, Kapow Software, Lixto, Metasonic, PitneyBowes/MapInfo, Panoratio, SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller, USU. Die Version 11.0 dieses White Papers ist im August 2014 erschienen. Die hier vorliegende Version 11.1 ist eine überarbeitete, weiterentwickelte und aktualisierte Version. Neu sind das Kapitel 3.5 zu „Agile Methoden in BI-Projekten“, das Kapitel 5.5 zu „Prädiktive Analytik“ und das Kapitel 7.4 zu „Hadoop – eine technische Antwort auf Big-Data-Herausforderungen“. Ergänzt wurde das Kapitel 2 „Von Business Intelligence zu Performance Management und Analytik“, insbesondere hier der Vorspann und die Kapitel 2.2 „Die Digitalisierung der Welt“ und 2.4 „Nutzenpotenziale von Big Data“. Weitere Ergänzungen gibt es in den Kapiteln 3.1 „Prozess- und service-orientierte BI“, 5.3 „Datenvisualisierung“, 5.7 „Textanalytik“, 6.5 „Metaund Stammdaten-Management“ und 9.2 „Analytik versus traditioneller BI“. Wie immer wurden die Kapitel 1 (Zusammenfassung), 10.3 bis 10.5 (Anbieterverzeichnis) und 12 (Glossar) auf den neuesten Stand gebracht. Über Anregungen, Kommentare, Kritik aber auch über Lob freute sich der Verfasser. Annecy, im März 2015 Dr. Wolfgang Martin, Wolfgang Martin Team

Kostenfreier Download auf http://www.wolfgang-martin-team.net in den Sektionen „White Paper“ und „Research Notes“ 2

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 4

Wolfgang Martin Team Biographie des Verfassers:

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 5

Wolfgang Martin Team

Inhaltsverzeichnis

1

Zusammenfassung (Management Summary) ............................................................................... 9

2

Von Business Intelligence zu Performance Management und Analytik .................................... 17

3

4

2.1

Die Mängelliste traditioneller Business Intelligence......................................................... 18

2.2

Die Digitalisierung der Welt ............................................................................................... 20

2.3

Big Data und Echtzeit ......................................................................................................... 23

2.4

Nutzenpotenziale von Big Data .......................................................................................... 25

2.5

Prozess- und Service-Orientierung – BI als Service ......................................................... 29

2.6

Service-Orientierung – eine Voraussetzung für Cloud-Computing ............................... 34

2.7

Mobile BI .............................................................................................................................. 37

Strategien, Prozesse, Menschen, Metriken und Governance ..................................................... 41 3.1

Prozess- und service-orientierte Business Intelligence ..................................................... 41

3.2

Die Governance: Rollen, Verantwortlichkeiten und Rechte ........................................... 48

3.3

Das Arbeiten mit Performance Management und Analytik ............................................ 51

3.4

Das Business-Intelligence-Kompetenzzentrum................................................................. 54

3.5

Agile Methoden in BI-Projekten ........................................................................................ 57

3.6

Rollen in der Big-Data-Analytik ........................................................................................ 60

Methoden und Technologien ....................................................................................................... 62 4.1

Die fachlichen Elemente von Performance Management ................................................ 62

4.2

Von Business Intelligence zu Performance Management und Analytik......................... 65

4.3

Performance Management und Analytik in einer SOA ................................................... 68

4.4

Performance Management und Analytik trifft Enterprise 2.0 (Social Business) .......... 70

4.5

Planung im digitalen Unternehmen ................................................................................... 73

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 6

Wolfgang Martin Team 5

6

7

8

9

Analytik – Basis für Performance Management ......................................................................... 76 5.1

Analytische Services ............................................................................................................ 77

5.2

Data Discovery ..................................................................................................................... 81

5.3

Datenvisualisierung ............................................................................................................. 84

5.4

Web-Analyse ........................................................................................................................ 87

5.5

Prädiktive Analytik ............................................................................................................. 89

5.6

Trends im Data Mining ....................................................................................................... 92

5.7

Textanalytik ......................................................................................................................... 97

5.8

Location Intelligence – Die Bedeutung des „Wo“........................................................... 102

5.9

Big Data trifft Performance Management und Analytik ............................................... 104

Information Management .......................................................................................................... 110 6.1

Die Aufgaben von Information Management ................................................................. 110

6.2

Vom Data Warehouse zur Datenintegration................................................................... 113

6.3

Informations-Services ....................................................................................................... 117

6.4

Agile Integrations- und Extraktionswerkzeuge im Big Data......................................... 119

6.5

Meta- und Stammdaten-Management ............................................................................. 121

6.6

Datenqualität – Vorsorge tut Not..................................................................................... 127

6.7

Entity Identity Resolution................................................................................................. 135

6.8

Information Governance – Schlüssel zu erfolgreichem Information Management .... 138

6.9

Die Zusammenarbeit von Data Stewards und Data Scientists ...................................... 141

Auf die Latenz kommt es an ....................................................................................................... 144 7.1

Business Activity Monitoring und Complex Event Processing ..................................... 144

7.2

Analytische Datenbanken ................................................................................................. 148

7.3

NoSQL-Datenhaltungs- und -Datenbanksysteme........................................................... 150

7.4

Hadoop – eine technische Antwort auf Big-Data-Herausforderungen......................... 153

7.5

Hadoop, NoSQL und das Data Warehouse ..................................................................... 156

7.6

Big Data: Datenstrukturen und Latenz ........................................................................... 160

Ethische Aspekte von Analytik ................................................................................................... 162 8.1

Big Data – Big Brother ...................................................................................................... 162

8.2

Governance im Umgang mit Big-Data-Analytik ............................................................ 164

Resümee: Performance Management und Analytik versus traditionelle BI ............................ 166 9.1

Performance Management versus traditionelle BI......................................................... 166

9.2

Analytik versus traditionelle BI ....................................................................................... 167

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 7

Wolfgang Martin Team 10

Der Performance-Management-/Analytik-Markt und seine Spieler .................................... 169 10.1

Trends in Performance Management und Analytik ...................................................... 169

10.2

Taxonomie des Marktes für Performance Management und Analytik ........................ 173

10.3

Klassifikation der Anbieter von analytischen Datenbanken ......................................... 174

10.4

Klassifikation der Performance-Management-/Analytik-Anbieter .............................. 176

10.5

Klassifikation der Anbieter von Information Management .......................................... 179

10.6

Entwicklung von Big Data: Marktschätzungen.............................................................. 180

10.7

Grundsätze zur PM/Analytik-Plattform- und Werkzeugauswahl ................................ 182

10.8

Roadmap für die Nutzer von Big Data ............................................................................ 184

11

Schlusswort und Literaturverzeichnis ................................................................................... 187

12

Glossar und Liste der Abkürzungen ...................................................................................... 189

13

Die Sponsoren......................................................................................................................... 203

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 8

Wolfgang Martin Team

1 Zusammenfassung (Management Summary) “In the Age of Analytics, as products and services become ‘lighter’ (i.e., less physical and more digital), manufacturing and distribution costs—while still important—will be augmented with new metrics—the costs of know, the flow of know, and the costs of not knowing.” Thornton May3, Futurist, Executive Director, and Dean of the IT Leadership Academy Performance Management und Analytik sind Methoden, Verfahren und Werkzeuge der Steuerung im Unternehmen. Sie werden geradezu unabdinglich, wenn Umsätze langsamer wachsen oder gar stagnieren und zurückgehen, wenn Budgets immer knapper werden, die Marktdynamik ansteigt und der Wettbewerbsdruck immer weiter zunimmt. Dann steigen die Anforderungen an das Management signifikant. Das Aufspüren von Profit, rigorose Kosteneinsparungen, die Intensivierung von Kundenkontakten und effektvoller Einsatz der wenigen noch verfügbaren Mittel und Ressourcen sind absolute Chefsache. Geopolitische Unsicherheiten machen das Planen noch schwieriger, gleichzeitig noch wichtiger denn je. Dazu kommen immer neue Regulierungen wie im Finanzberichtswesen und in der Bilanzkonsolidierung. Nur Unternehmen, die ihren Kurs jederzeit, flexibel und vor allem schnell zu ändern können, die die Kraft zur Innovation haben und die sich jederzeit neu erfinden können, sind in der Lage im heutigen „digitalen Zeitalter“ zu überleben. Die digitalisierte Welt Die Digitalisierung der Welt wird getrieben von Innovationen in der Informationstechnologie: Cloud, Social, Mobile, Big Data und das Internet der Dinge revolutionieren die Welt, in der wir leben, genauso grundlegend wie seinerzeit die Dampfmaschine, die die Gesellschaft, die Wirtschaft, die politischen Systeme bis hin zu Staatensystemen aufbrach und neu ordnete. Im Mittelpunkt dieser Umwälzungen steht – damals wie heute – der Mensch, dessen Lebens- und Arbeitsbedingungen sich entsprechend umwälzen. Das digitale Zeitalter ist gleichzeitig das Zeitalter nach der Wirtschaftskrise in 2008. Manche sprechen auch vom „New Normal“. Denn heute ist und wird nichts mehr so sein wie vorher. "Strategy, as we knew it, is dead," sagte bereits 2010 Walt Shill, Leiter des nordamerikanischen Management Consulting von Accenture.4 Es geht in den Unternehmen um Flexibilität im operativen Geschäft und um die Geschwindigkeit, mit der sich auftuende Gelegenheiten ergriffen und umgesetzt werden können. Wenn Strategien und Forecasts wöchentlich oder sogar täglich zu ändern und anzupassen sind, dann muss das so sein und funktionieren. Die Digitalisierung der Unternehmen treibt die Geschwindigkeit noch weiter: Das mobile Internet macht Information allgegenwärtig. Soziale Medien sorgen für eine bisher nicht gekannte Verbreitungsgeschwindigkeit von Information. Im aufkommenden Internet der Dinge beginnt eine Maschine-zu-Maschine und Roboter-zu-Roboter-Kommunikation, die in Echtzeit riesige Datenvolumen produziert. Willkommen in der digitalen Welt! 3

Thornton May: „The New Know“, Innovation Powered by Analytics, 2009

4

Siehe Wall Street Journal (25. Jan.2010) http://online.wsj.com/article/SB10001424052748703822404575019283591121478.html#printMode

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 9

Wolfgang Martin Team Mit anderen Worten: Traditionelle Steuerung im Unternehmen stößt an ihre Grenzen, da jetzt die alten Prinzipien von „operational excellence“ nicht mehr ausreichen. Operational excellence bewirkte eine Industrialisierung des Unternehmens. Industrialisierung bedeutet Automation und Standardisierung. So werden Geschäftsprozesse beschleunigt und optimiert, so erhöht man den Durchsatz und verbessert die Qualität. Das brauchen wir heute und morgen, aber wir brauchen in der digitalen Welt noch mehr. Eine Steuerung erfordert jetzt zusätzlich Agilität, die man über die traditionellen Unternehmensziele Effektivität und Effizienz, die man durch Industrialisierung erreicht, hinaus braucht. Agilität bedeutet die Fähigkeit einer Organisation zum permanenten Wandel und die Anpassungsfähigkeit der eigenen Geschäftsmodelle und Prozesse an die Markt- und Kundendynamik. Auf das schnelle und richtige Agieren in Zeiten des Wandels und Unsicherheit kommt es an. Richtiges Agieren bezeichnet man heute vielfach auch als „smartes Verhalten“, i.e. sich intelligent verhalten. Da auch der Lebenszyklus von Strategien und Prozessen immer kürzer wird, werden Änderungen in immer schnelleren Zyklen notwendig. Unternehmenssteuerung heute und morgen muss agil und smart sein, um als Unternehmen nicht nur zu überleben, sondern auch zu prosperieren. Steuerung im Unternehmen beruht daher nicht nur auf den traditionellen Instrumenten der Unternehmensführung (Planung, Durchführung, Kontrolle und Steuerung), sondern umfasst drei weitere Komponenten: Governance, Risiko-Management und Compliance. Governance bezeichnet die verantwortungsvolle, nachhaltige und auf langfristige Wertschöpfung ausgerichtete Organisation und Steuerung von Aktivitäten und Ressourcen im Unternehmen. Risiko-Management bezeichnet alle Aktivitäten der Risikoerkennung, Risikoverminderung und Risikovermeidung. Compliance bedeutet die Erfüllung der von der Unternehmensleitung gemachten Vorgaben („Policies“) sowie der rechtlichen und regulativen Vorgaben. Weitere und strengere Regulationen sind in Zeiten der aktuellen Krisen zu erwarten. Unternehmenssteuerung heute muss diesen Anforderungen gerecht werden. Agilität, Industrialisierung, Compliance und ein smartes Verhalten sind heute im digitalen Zeitalter für ein Unternehmen entscheidend, ob man zu den Gewinnern oder Verlierern auf dem globalen Markt zählt. Ein weiterer großer Vorteil von Industrialisierung, Agilität, Compliance und smartem Verhalten ist die Fähigkeit, innovative Ideen zügig umsetzen zu können. Neue Produkte und Dienste sowie neue Tarife lassen sich in kürzester Zeit in den Markt bringen. Traditionelle Prozesse wie das Mahnwesen können kundenorientiert werden und verloren geglaubte Umsätze wieder aktivieren. Im Cross-/Up-Selling lässt sich durch den Einsatz des Wissens über den Kunden neues Umsatzpotenzial erschließen. Frühzeitiges Erkennen von Risiken und Problemen vermeidet Ausschuss und Retouren. So wird die Wettbewerbskraft entscheidend gesteigert: Man verblüfft den Mitbewerb und begeistert seine Kunden. Digitale Unternehmen besitzen genau diese Fähigkeiten und haben das Potenzial zur Innovation. Das digitale Unternehmen Ein digitales Unternehmen entsteht durch digitale Transformation innerhalb des Unternehmens. Das bedeutet konkret, dass Informationstechnologie nicht mehr nur die Funktion von Support-Prozessen hat, sondern der Innovation des Geschäftsmodells und der

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 10

Wolfgang Martin Team Geschäftsprozesse dient. Neue digitale Geschäftsmodelle und Prozesse bedeuten neue Umsatzquellen und disruptive Wettbewerbsvorteile. Das Produktportfolio wird durch digitale Produkte ergänzt, und Information wird als strategischer Vorteil genutzt. Mit anderen Worten: Das Unternehmen erfindet sich neu. Die zweite wesentliche Eigenschaft eines digitalen Unternehmens ist: Es beherrscht digitale Kommunikation: Immer wieder neu entstehende Medien und Kanäle werden kontinuierlich in die Unternehmenskommunikation mit allen Geschäftspartnern und auf allen Ebenen integriert. Nur so kann man digitalen Kunden folgen und alle Spuren in der digitalen Welt aufspüren. Neben dem notwendigen kulturellen Wandel basiert der Weg zu einem digitalen Unternehmen, das industrialisiert und agil ist und regelkonformes(Compliance) und smartem Verhalten zeigt, auf einem umfassenden Ansatz zu einem service-basierten Geschäftsprozess-Management. Im Zuge einer solchen Prozess- und ServiceOrientierung wird aber oft das Prinzip „Kein Prozess ohne Daten“ übersehen. In der digitalen Welt ist das eigentlich eine Selbstverständlichkeit: Parallel zu einem Prozess- und Service-Management muss im Rahmen von Prozess-Orientierung daher ein Information Management aufgebaut werden. In der digitalen Welt steuert man in der Tat mit Daten. Früher gab es Währungen, in der Kunden landesspezifisch für Produkte und Dienstleistungen bezahlten. Im Zuge der Digitalisierung werden Daten die neue Währung. Gibst du (Kunde) mir Deine Daten, dann gebe ich (Facebook, Google und andere) dafür eine „kostenlose“ Dienstleistung. Daten wurden so immer mehr zur Währung in der virtuellen Welt des Internets. Digitalisierung schafft den Durchbruch: Durch die Verschmelzung der virtuellen mit der realen Welt werden Daten zur Weltwährung. Daten in der virtuellen Welt werden beispielsweise durch entsprechende Sensordaten durch eine Raumkoordinate angereichert. Die Lokalisierungs- und Navigationsdaten der Smartphones und anderer Geräte erlauben es, den Kunden zu lokalisieren und ihm ortsbezogene Services anzubieten. Folglich gehören die größten Datensammler wie Apple, Facebook und Google zu den am höchsten bewerteten Unternehmen in der Welt. Das ist kein Wunder, denn wer Daten mittels Analytik einsetzt, hat die Macht, in die Erlebniswelt der Kunden zielgerichtet einzugreifen. Smart Data (auf den Kunden bezogene und entsprechend gefilterte Daten aus dem Big Data) macht aus den Kunden die lange ersehnten gläsernen Kunden. Umgekehrt steht die Macht der Daten den Kunden zur Verfügung. Denn in der digitalen Welt sind Preise, Produkteigenschaften und Dienstleistungen transparent. Folglich ist der digitale Markt transparent, transparenter noch als der traditionelle Markt. Das nutzen Kunden zur Jagd nach den besten Angeboten. Ein Flug von Berlin nach Rom kann preiswerter sein als eine Taxifahrt von Spandau nach Kreuzberg. So wird in 2015 und in den folgenden Jahren ein Kampf um die Macht stattfinden. Der Kunde will mehr und mehr mit Daten zahlen und die Unternehmen werden immer hungriger auf Daten, um den Kunden mit besseren Kundenerlebnissen zur Preisgabe von immer mehr Daten zu verleiten. Information Management In den vergangenen Jahren haben Unternehmen Information Management nur im Kontext von Business Intelligence (BI) gesehen. In umfangreichen Business-Intelligence-Projekten

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 11

Wolfgang Martin Team und Initiativen wurde daran gearbeitet, Information verfügbar zu machen, um eine auf Fakten basierte Steuerung im Unternehmen zu unterstützen. Die Erfahrungen haben aber vielfach gezeigt, dass Information zwar oft vorhanden sind, aber nicht in den Kontext der Geschäftsprozesse gebracht wurden und daher nur von beschränktem Nutzen für die Steuerung im Unternehmen waren. Um den Nutzen von BI zu erhöhen und um hier einen Durchbruch zu erzielen, muss ein neuer Weg beschritten werden: Information muss in den Kontext von Geschäftsprozessen und Business-Services gestellt werden. Das ist die Grundidee von Performance Management. Dazu braucht man ein über das traditionelle BI hinausgehendes Information Management. In einem digitalen Unternehmen gehören Prozess-Management, Management und Information Management zusammen.

Performance

Business Process Management (BPM) dient dem Managen des Lebenszyklus von Geschäftsprozessen und von Business-Services: Von Analyse und Design über Ablauf und Ausführung bis zum Planen, Überwachen, Steuern und Anreichern der Prozesse und Services. Performance Management ist definiert als ein Geschäftsmodell, das einem Unternehmen ermöglicht, Unternehmensziele und Geschäftsprozesse kontinuierlich aufeinander abzustimmen und konsistent zu halten. Das Planen, Überwachen und Steuern von Prozessen und Services ist Aufgabe von Performance Management innerhalb von BPM. Analytik bezeichnet sowohl den Prozess zur Gewinnung von Information und der Ableitung eines Modells zur Nutzung von Information (beispielsweise prädiktive Modelle aus einem Data-Mining-Prozess) als auch das Anreichern von Geschäftsprozessen und BusinessServices durch solche Modelle. Die Idee ist, „smarte“ Prozesse und Services zu schaffen. Die Zielsetzung von Information Management ist es, vertrauenswürdige Daten zu schaffen. Die Aufgaben von Information Management sind die Definition der Daten (die Unternehmens-Terminologie), die Modellierung der Daten (die Unternehmens-Semantik), das Meta- und Stammdaten-Management (Transparenz und Nachvollziehbarkeit), das Datenqualitäts-Management (Relevanz und Korrektheit), die Datenintegration und die Datensicherheit und -Schutz. Performance Management ist ein wichtiger Schritt in Richtung des optimalen Planens, Überwachens und Steuerns von Geschäftsprozessen und Business-Services auf der Ebene von Operationen, Taktiken und Strategien. Performance Management basiert auf dem Prinzip der Zuordnung von Metriken („Kennzahlen“) zu Prozessen. Performance Management beginnt schon mit der Modellierung und dem Design operativer Prozesse. Metriken müssen gleichzeitig und parallel mit den operativen Prozessen abgeleitet und entwickelt werden. Ziele müssen messbar gemacht werden. Zielerreichung muss kontinuierlich kontrolliert werden, und es müssen Maßnahmen getroffen werden, um die Leistung der Prozesse ständig und auch in Echtzeit zu kontrollieren. Das schafft Performance Management, weil es als Kreislaufmodell („closed loop“) Teil von BPM ist.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 12

Wolfgang Martin Team Performance Management ist unter den herrschenden Bedingungen der nächste strategische Schritt in Richtung agiler Steuerung im Unternehmen, damit ich mein Unternehmen fit mache, um die Herausforderungen der Transformation in ein digitales Unternehmen zu meistern. Der Leitspruch lautet: „Man kann nur managen, was man auch messen kann“. Service-Orientierung Mit anderen Worten: Prozesse und Services stellen die Wettbewerbskraft des Unternehmens dar. Daher stehen sie im Fokus des Managements. Gewinnen oder Verlieren im Markt hängt sowohl von der Innovationskraft als auch von der Qualität, Flexibilität und Compliance der Geschäftsprozesse ab sowie davon, wie smart diese Prozesse sind. Die erforderliche Flexibilität erhält man insbesondere durch eine Service-Orientierung der Prozesse: Prozesse werden aus Business-Services zusammengesetzt. Dabei kommt es auch auf die geeignete IT-Unterstützung mit der richtigen Infrastruktur an. Eine service-orientierte Architektur (SOA) als Infrastruktur für BPM, Performance und Information Management ist erforderlich, um den Lebenszyklus von Geschäftsprozessen in einem Kreislaufmodell zu managen. BPM, Performance Management, Analytik und Information Management auf einer SOA ermöglichen automatisierte, standardisierte, zuverlässige, revisionssichere und anpassungsfähige Prozesse mit Compliance über Geschäftsfunktionen, Abteilungen und sogar Unternehmen hinweg. So spart man Kosten, begeistert Kunden und Mitarbeiter und erhöht den Umsatz. Dank einer SOA werden Prozesse von den zugrunde liegenden IT-Systemen und -Anwendungen unabhängig: Ein Unternehmen kann Prozesse im Einklang mit der Marktdynamik und den Bedürfnissen der Kunden ändern und segelt so immer am Wind. SOA bedeutet deshalb im Endeffekt „Software for Change“. Eine SOA ist auch Voraussetzung, um Cloud Computing als Bereitstellungsmodell für Analytik und Performance nutzen zu können. Die Service-Orientierung erlaubt das Einsetzen von ergänzenden SaaS-Funktionen oder auch den Einsatz von PaaS für Analytik und Performance Management in einem hybriden Cloud-Modell. Analytik Außerdem macht eine SOA "intelligente", also smarte Prozesse möglich: Analytik kann in Prozesse und Business-Services eingebettet werden. Analytik ist der Schlüssel für die Planung, Überwachung und Steuerung sowohl der Prozesse als auch ihrer Leistung („Performance“). Die Aufgabe lautet: Probleme sollen rechtzeitig erkannt werden, um dem Problem gegensteuernde Maßnahmen rechtzeitig einzuleiten. Das schafft Frühwarnsysteme ohne die ein Risiko-Management nicht machbar ist. Ein Beispiel aus dem täglichen Leben erläutert, wie prädiktive Modelle als Frühwarnsysteme arbeiten: In einem Kaufhaus werden die Verkaufsflächen rechtzeitig disponiert, geliefert und nachgefüllt, bevor Produkte vergriffen sind. So wird das Problem vermieden, dass ein Kunde mit Kaufabsicht ein leeres Regal vorfindet und das Produkt nicht kaufen kann. Analytik ist heute in der digitalisierten Welt mit ihrem Big Data wichtiger denn je. Big Data bedeutet nicht nur ein riesiges, immer grösser werdendes Datenvolumen durch

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 13

Wolfgang Martin Team Digitalisierung, sondern auch einen Mix aus strukturierten und poly-strukturierten5 Daten mit komplexen Beziehungen untereinander. Ein Unternehmen verfügt bereits über große Mengen strukturierter (in der Regel rund 20% aller Unternehmensdaten) und polystrukturierter Daten (die machen rund 80% aller Unternehmensdaten aus). Die wahre Flut von Daten wartet im Web auf uns. Es ist aber nicht nur die schiere Menge an Daten, die eine Herausforderung darstellt, sondern auch die Menge und Diversität der Quellen: Portale, Web-Applikationen, Social Media, Videos, Fotos und mehr, eben Web-Content aller Art. Dazu kommen als weitere Datenquellen Lokalisierungs- und Navigationsdaten aus dem mobilen Internet, die neue Wege einer ortsbezogenen Interaktion ermöglichen, und dann noch Sensoren- und Maschinendaten. Sensoren dienen der Überwachung von Maschinen und (Industrie-) Prozessen und erzeugen Datenströme, die Analysen in Echtzeit erfordern. Das ist im Endeffekt das Basiskonzept auch von fahrerlosen Autos wie dem Google-Auto. Die Analyse von Maschinendaten erlaubt eine weitgehende Automatisierung der Steuerung und Optimierung der entsprechenden Prozesse. Die Analyse solcher neuen Datenquellen im Verbund mit den Unternehmensdaten erlaubt Einsichten, auf die man sonst nicht gekommen wäre: Analytik schlägt Intuition. Die Analyse solcher Daten erfordert aber auch eine Ethik im Umgang mit diesen Daten. Im Endeffekt gibt der Kunde seine Daten freiwillig den Unternehmen wie sein soziales Profil an Facebook oder sein Suchprofil an Google. Dafür will er aber auch Leistung erhalten, die er sonst nicht bekommt: Google gibt ihm beispielsweise Information, die sonst nicht oder nur schwer auffindbar wäre. Aber die Facebooks und Googles dieser Welt wie auch die Regierungen, die ja auch eifrig Daten über die Bürger sammeln, müssen umgekehrt auch Garantien bieten, dass mit diesen Daten nur zum Wohle des Kunden und des Bürgers gehandelt wird. Das bestimmt die Ethik im Umgang mit Daten und Datenanalysen. Daher sind die entscheidenden Themen Schutz der Privatsphäre, Datensicherheit, Transparenz, Verhältnismäßigkeit und Mehrwert. Unternehmen und Regierungen, die diese Prinzipien im Rahmen ihrer Ethik leben, werden zufriedene und treue Kunden und Bürgers haben. Big Data treibt jetzt eine Technologie-Innovation. Dazu zählen neue Technologien zur Echtzeitanalytik, eine neue Klasse von Integrationswerkzeugen zur agilen Web- und CloudIntegration und auch der Einsatz innovativer Datenbank-Technologien, um die Petabytes, sogar Exabytes von Daten auswerten zu können, da durch die schiere Menge an Daten die bisher im Markt dominierenden relationalen Datenbanksysteme an ihre Grenzen stoßen: Es etablieren sich so „Analytische Datenbanken“ und „NoSQL-Datenhaltungssysteme6“, die innovative Algorithmen zum Zugriff- und Speicher-Management mit innovativen Ansätzen wie Spalten-Orientierung und innovativer Hardware-Technologie wie In-MemoryVerarbeitung miteinander verbinden. Die traditionellen BI-Werkzeuge erweisen sich ebenfalls als unzureichend für Big-DataAnalytik. Data Discovery, eine interaktive Variante von Analytik, steht jetzt ganz vorne in der Bedeutung. Dazu gehören Filtern und Visualisieren von Daten, kollaborative Werkzeuge zur Teamarbeit, intuitive Benutzerschnittstellen und eine neue Generation von Geräten wie die Der Ausdruck “poly-strukturiert” ersetzt den bisher üblichen Begriff “unstrukturiert. Das macht Sinn, denn auch in „unstrukturierten“ Daten lassen sich unterschiedliche Strukturen identifizieren. 5

6

NoSQL = not only SQL, SQL = sequential query Language.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 14

Wolfgang Martin Team Tablets, damit man in den Fachabteilungen produktiver und erfolgreicher arbeiten kann. Im Fokus steht jetzt auch Location Intelligence, die Erweiterung von Business Intelligence um die Dimension „Raum“. Denn im mobilen Internet konvergieren jetzt Information, Zeit und Raum. Die Lokalisierungsdaten aus Smartphones und Navigationsgeräten erlauben eben ganz neue Typen von Analysen. Dazu kommen neue analytische Methoden und Verfahren zur Analyse auch poly-strukturierter Daten, beispielsweise Textanalytik. Textanalytik verbindet linguistische Verfahren mit Suchmaschinen, Text Mining, Data Mining und Algorithmen des maschinellen Lernens. Das alles ergibt ein komplett neues Arsenal für Analytik im Unternehmen. Solche neuen Methoden und Technologien erfordern auch neue Rollen wie die der Data Scientists, die als Mittler zwischen der IT und den Fachabteilungen den weiteren Ausbau der Zusammenarbeit treiben, die Verarbeitung von Big Data fördern und helfen, die Potenziale von Big Data auch zu realisieren. Das erfordert neue Skills und eine Neuorientierung der IT: Die IT muss in den Zeiten von Big Data den Hauptfokus auf Data Management legen. Performance Management und Analytik versus traditioneller Business Intelligence. Der Unterschied besteht nicht nur darin, dass man jetzt mit dem Big Data umgehen muss, sondern auch darin, dass jetzt im Zuge von Performance Management und Analytik Entscheidungen in den Kontext von Prozessen und Services gestellt werden und so auch operativ umgesetzt werden können. Mit traditionellen Business-Intelligence-Werkzeugen (etwa Berichtswesen, Ad-hoc-Abfragen, OLAP (online analytical processing), Data Mining etc.) war es immer schwierig, die richtige Information zum richtigen Zeitpunkt am richtigen Ort für den aktuellen Zweck zu haben. Diese traditionellen Werkzeuge gaben nicht das her, was man wollte: Ergebnisse, die man direkt auf Geschäftsprozesse und Strategien anwenden und umsetzen konnte. Der Return on Investment (ROI) solcher Werkzeuge war in der Regel sehr niedrig, wenn er überhaupt messbar war. Traditionelle Business-Intelligence-Werkzeuge waren zudem meist schwer zu handhaben. Nur eine Handvoll Experten war in der Lage, aus den traditionellen Werkzeugen die richtige Information herauszuziehen. Management-Entscheidungen und Maßnahmen wurden daher eher auf Grund von Vermutungen getroffen, weniger auf Grund von Fakten. Hier wurden inzwischen viele dieser Probleme beseitigt. „Selbst-Bedienungs-BI (Self-Service-BI)“, vor allem auch im Rahmen von Data Discovery, erlaubt heute, dass auch gelegentliche Nutzer von Analytik und Performance Management die Fakten und die Information bekommen, die sie im Rahmen einer BI-Governance benötigen. Die Benutzerschnittstellen sind in Richtung Social Media Interfaces weiterentwickelt worden und erlauben eine Nutzung à la Facebook und Twitter. Mobile Lösungen auf Smartphones und Tablets haben hier den Weg gezeigt, wie Software-Ergonomie zu sein hat. Zur Ergonomie gehören nicht nur die Bedienbarkeit der Werkzeuge, sondern auch die Möglichkeiten der Automation von Arbeitsschritten und analytischen Prozessen. Die Schwachstellen in der heutigen Praxis mit Business Intelligence wie manuelle Informationsbereitstellung und manuelle Analyse werden durch zuverlässige und sichere Automation abgelöst. Das Anreichern von Prozessen durch Analytik mit Hilfe einer SOA stellt

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 15

Wolfgang Martin Team ein weiteres Mittel zur besseren Handhabung dar: Ein Mashing-up7 von analytischen Services mit operativen und kollaborativen Services wird ohne weitere Integrationsaufwände und total flexibel möglich. Das schafft innovative Geschäftsprozesse und Business-Services in einer neuen Qualität, die über traditionelle Workflow-Modelle deutlich hinausgeht, eben smart. Fazit: Analytik und Performance Management sind eine wesentliche Grundlage von Steuerung im Unternehmen zur Umsetzung der Management-Prinzipien in digitalen Unternehmen: Industrialisierung, Agilität, Compliance und smartes Verhalten. Sie sind die konsequente Weiterentwicklung der traditionellen Business Intelligence. Mit Hilfe von Analytik lässt sich auch Big Data erschließen und wertvolles Wissen zur Steuerung im Unternehmen ableiten. Mit Hilfe von Performance Management kann dieses Wissen über eine Service- und Prozess-Orientierung von den Unternehmensstrategien bis zum operativen Tagesgeschäft hin umgesetzt und in allen Aktivitäten eines Unternehmens eingesetzt werden. Man schafft ein smartes (intelligentes) Unternehmen. Hierin liegt der Nutzen und Wert von Analytik und Performance Management. Die Bereitstellung von Analytik und Performance Management erfolgt heute entweder durch On-Premise-Software oder Cloud Computing. Beide Modelle stehen heute gleichberechtigt nebeneinander dar und können im Sinne einer hybriden Cloud auch miteinander verbunden werden.

7

„Mash-up“

(engl. für Vermanschung) bezeichnet die Erstellung neuer Inhalte durch die nahtlose (Re-)

Kombination bereits bestehender Inhalte.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 16

Wolfgang Martin Team

2

Von Business Intelligence zu Performance Management und Analytik

Performance Management und Analytik können als die Nachfolger von Business Intelligence verstanden werden. Daher betrachten wir hier zunächst die Entstehung des Begriffs Business Intelligence, die Ziele, die man mit Business Intelligence verfolgt hat, und welche Probleme zu lösen und Herausforderungen zu meistern waren. Die älteste bekannte Quelle, in der der Begriff Business Intelligence (BI) verwendet wird, stammt aus dem Jahre 1958. Im Oktober-Heft des IBM-Journals schreibt Hans Peter Luhn über „A Business Intelligence System“. 1989 greift Howard Dresner, seinerzeit Analyst bei der Gartner Group, den Begriff wieder auf, und es ist die Gartner Group, die in den 90er Jahren diesen Begriff benutzt, verbreitet und bekannt macht. In Zusammenhang mit Business Intelligence etabliert sich parallel in den 90er Jahren auch das Konzept eines Data Warehouse, das ab 1995/96 auch Einzug in deutschsprachigen Markt hält. Gleichzeitig findet auch der erste Technologiewechsel statt: Mainframe-Architekturen von BI-Lösungen werden durch Client-Server-Architekturen abgelöst. Im Zeitraum 2005/06 wird der Begriff BI immer mehr in Frage gestellt, und es tauchen alternative Begriffe wir „Business Analytik“ und „Performance Management“ auf, die die unterschiedlichen Aufgaben in der traditionellen BI gut unterscheiden. Zudem findet auch wieder ein Technologiewechsel statt: Aus Client-Server-Architekturen wird jetzt eine ServiceOrientierte Architektur. Um das Jahr 2010 taucht wieder ein neuer Begriff auf: „Big Data“ und verbreitet sich rasch. Auch dieser neue Begriff, der neue Anwendungsfelder insbesondere für Analytik bedeutet, kommt mit neuen technologischen Strukturen: dem Cloud und Mobile Computing. Heute münden diese Entwicklungen in eine Digitalisierung der Welt und führen zum digitalen Unternehmen. Jetzt ist Analytik allgegenwärtig! Trotz all dieser Entwicklungen und Fortschritte gibt es heute immer noch unterschiedliche Auffassungen, was BI ist: Sogar innerhalb eines Unternehmen gibt es zum Teil unterschiedliche Vorstellungen zu BI und welchen Nutzen sie bringt. Da ist folgende weitgehend anerkannte Definition hilfreich zum Verständnis, was Business Intelligence ist und was sie bedeutet: Als Business Intelligence bezeichnet man die Fähigkeit, Bereitschaft und Fertigkeit, das Geschäft zu kennen und zu verstehen – oder detaillierter ausgedrückt: Unter Business Intelligence verstehen wir alle Strategien, Prozesse und Technologien, bei denen aus Daten Information und aus Information erfolgskritisches Wissen gewonnen wird, so dass Entscheidungen auf Basis von Fakten getroffen werden, die Aktionen zur Unternehmensund Prozesssteuerung auslösen. Der Anspruch des Konzeptes Business Intelligence ist also, Entscheidungen auf Fakten zu stellen und bessere Entscheidungen zu treffen. BI soll Antworten geben auf Fragen wie:

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 17

Wolfgang Martin Team 

Wissen Sie, welche Ihrer Lieferanten zur Erreichung Ihrer Produktionsziele absolut notwendig sind? Wird deren Lieferunfähigkeit Ihre Produktion stunden- oder gar tagelang zum Stillstand bringen?



Wissen Sie, welchen Anteil Ihr Unternehmen an den Geschäftseinnahmen Ihrer Lieferanten hat? Nutzen Sie diese Information, um von den Lieferanten günstige Konditionen zu erhalten?



Wissen Sie, mit welchen Kunden Sie den größten Gewinn machen? Bieten Sie diesen Kunden einen überragenden Service, um sie zu binden? Sind Sie in der Lage, Ihren Kunden zum geeigneten Zeitpunkt höherwertige bzw. andere Produkte zu verkaufen (UpSelling/Cross-Selling)?



Wissen Sie bereits im ersten Quartal, dass Sie Ihr Vertriebsziel im vierten Quartal nicht erreichen werden, weil sie nicht genügend Interessenten (Leads) haben?



Wissen Sie, wie viele Einnahmen Ihnen tatsächlich verloren gehen, weil Ihre Kunden in Stoßzeiten telefonisch nicht zu Ihrem Call-Center durchkommen?



Wissen Sie, wie viele Geschäfte Ihnen entgehen, weil Sie Cross-Selling-Möglichkeiten im Direktverkauf, im Handel oder über Internetshops nicht voll ausnutzen?



Wissen Sie, wie viel Geld das für Ihr Unternehmen bedeutet? Wissen Sie, wie Sie dieses Geld finden, bekommen und dauerhaft behalten können?

BI mit Hilfe von Softwareunterstützung betreiben wir seit den 70/80er Jahren. Haben wir in dieser Zeit die Antworten gefunden? Nicht immer, denn das Problem ist, wie man all diese guten Dinge sowohl operativ im Tagesgeschäft als auch auf strategischer Ebene nutzen, umsetzen und leben kann. Das ist vielfach noch nicht gelungen. Besonders am Anfang der 2000er Jahre trat eine große Ernüchterung ein, was das Thema Business Intelligence betrifft. Das gab einen Schub zu einem neuen Ansatz für Business Intelligence: Performance Management und Analytik. So kann man Business Intelligence mit neuem Leben füllen.

2.1

Die Mängelliste traditioneller Business Intelligence

Traditionelle Business Intelligence diente der Entscheidungsunterstützung im Rahmen strategischer Planung und taktischer Analyse. Die Zielsetzung traditioneller Business Intelligence war schon richtig: Entscheidungen auf Fakten zu stellen. Leider hat das in vielen Fällen nicht den erwarteten Mehrwert und die gewünschte Akzeptanz gebracht. Berichte, Kennzahlen, analytische Applikationen etc., was hat es genutzt? Das Problem ist, wie man all diese guten Dinge im Unternehmen nutzen und umsetzen kann, denn Information erzeugt nur dann Wert, wenn man sie nutzt und einsetzt. Was stimmte nicht an traditioneller Business Intelligence? 

Business Intelligence war Bottom-up und nicht prozessorientiert. Das führte zu einem ungenügenden Einbeziehen der Fachabteilungen. Die wirklichen geschäftlichen prozessorientierten Anforderungen wurden nicht adressiert. Damit hat traditionelle Business Intelligence den Mangel an geschäftlich orientierter Relevanz.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 18

Wolfgang Martin Team 

Business Intelligence war ausschließlich ein Informationsbereitstellungsmodell zur Entscheidungsunterstützung (Bill Inmons „Informationsfabrik“; Inmon, 1996). Damit waren Daten und die analytischen Prozesse zur Erzeugung von Information untrennbar miteinander verbunden. Die Konsequenz ist: Inflexibilität und Komplexität. So wird jede Innovation an der Quelle erstickt. Die Akzeptanz sinkt drastisch.



Business Intelligence konnte Entscheidungen zwar unterstützen, es fehlte aber die Rückkopplungskomponente, das Treffen von Maßnahmen. Kennzahlen, die nicht im Kontext von Prozessen stehen, bringen kaum Wert, da sie nicht zu Maßnahmen zur Prozesssteuerung umsetzbar sind. Beispiel: Ist auf der strategischen Ebene eine Kennzahl im roten Bereich, dann müssen – in der Regel immer noch vom Menschen – Entscheidungen getroffen werden, die taktische und operative Maßnahmen bedeuten. So wird Information genutzt, basierend auf Fakten entschieden und ein deutlich höherer Mehrwert erzeugt als im traditionellen Business Intelligence Modell ohne Rückkopplungskomponente.



Operative Aspekte von Business Intelligence wurden nicht mit einem kohärenten Ansatz abgedeckt. Traditionelle Business Intelligence forderte ein Data Warehouse als die einzige Quelle von zuverlässiger, qualitativ hochstehender Information. Damit konnte Business Intelligence nicht im operativen Umfeld eingesetzt werden und wirkte nur im isolierten Raum taktischer und strategischer Analysen. Die potentielle Wertschöpfung durch Echtzeitanalysen wurde außen vorgelassen.



Business Intelligence war retrospektiv. Der Fokus lag auf Analyse und Diagnose. Das Potential prädiktiver Modelle zum rechtzeitigen Erkennen und Vermeiden von Problemen und Risiken wurde nicht genutzt. Beispiel: In einem mittelständischen Fertigungsunternehmen wird die Qualität der Produktion nach Abschluss einer Schicht analysiert. So werden die möglichen Schwachstellen einer Produktion schnellstens identifiziert, so dass Maßnahmen ergriffen werden können, die sicherstellen, dass diese Fehlerquellen für die folgende Schicht eliminiert werden. Pro-aktive BI erzeugt einen deutlichen Mehrwert, den es auszuschöpfen gilt.



Business-Intelligence-Werkzeuge haben vielfach den Informationsverbraucher nicht ausreichend mit Information versorgt. Daher hatte man entweder das Problem, dass Information nicht zugänglich war (oder gar versteckt und zurückgehalten wurde), oder man hatte das Problem einer Datenflut („information for the masses“). Das führt wieder zu einem drastischen Sinken der Akzeptanz.



Business Intelligence war ein werkzeugbezogener Ansatz, der auf proprietären Technologien basierte. Jede analytische Komponente spielte ihre eigene Rolle in einem isolierten Umfeld. Das hat Inkompatibilität und Inkonsistenz geschaffen und zu isolierten Informationssilos geführt. Auf der Vorstandsebene passten dann die Zahlen nicht zusammen.

Diese Mängelliste zeigt deutlich auf: Es war an der Zeit, Business Intelligence neu zu erfinden. Denn die alte Idee, Entscheidungen auf Fakten zu stellen, ist ja nicht falsch. Das haben die Verfechter von Business Intelligence zwar immer so gesehen, aber jetzt kommt

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 19

Wolfgang Martin Team als wichtigster Treiber für eine Evolution und gleichsam Neuentdeckung von Business Intelligence der grundlegende Wandel in den Märkten hinzu: Wir sind in der digitalisierten Weltangekommen, die Big Data produziert und im Big Data lebt. Information ist zu einem der wichtigster Güter geworden: Unternehmen sind heute „daten-gesteuert“.

2.2

Die Digitalisierung der Welt

Die Wirtschaftskrise 2008 führte zu fundamentalen Änderungen der Märkte und Marktmechanismen mit entsprechenden Auswirkungen auf die Unternehmen weltweit. Nach dieser Krise ist und wird nichts mehr so sein wie vorher. Zugenommen haben deutlich und nachhaltig Komplexität und Dynamik im Business. Jetzt geht es im Unternehmen um Flexibilität im operativen Geschäft und um die Geschwindigkeit, mit der sich auftuende Gelegenheiten ergriffen und „smart“8 umgesetzt werden können. Treiber ist zum einen die neue Verteilung der Macht zwischen den alten gesättigten und den neuen aufstrebenden und expandierenden Märkten und zum anderen die ständig steigende Vernetzung der Welt. Vordenker wie Peter Hinssen haben hierfür den Begriff des New Normal geprägt. “A number of new rules will apply in the New Normal. Consumers will have zero tolerance for digital failure. They will expect to get internet access anytime, anyplace. Internet and connectivity will be just as ubiquitous as electricity. Consumers will demand fulfillment of their information needs instantaneously. The effect on companies will be tremendous.”9 Dieses Zitat von Peter Hinssen nimmt gleich den zweiten nahezu parallel stattgefundene technische Revolution mit ins Kalkül: Die Digitalisierung der Welt. Wir sind in der digitalen Welt angekommen: Informationstechnik, Kommunikation, Wirtschaft und soziale Bereiche konvergieren. Das mobile Internet macht Information allgegenwärtig und immer verfügbar. Es ist vor allem auch schnell. Information rast um die Weltkugel dank sozialer Netze wie Facebook und Twitter. Im mobilen Internet konvergieren Information, Zeit und Raum. Das ist es, was die digitale Welt schafft und ausmacht. Konsequenterweise müssen sich Unternehmen darauf einstellen und sich zum digitalen Unternehmen wandeln. Die Herausforderungen im New Normal sind das Meistern der Volatilität und der Geschwindigkeit der Märkte. Es gibt kaum noch Stabilität. Unvorhersehbarkeit und zunehmende Veränderungsgeschwindigkeit sind zur zentralen Herausforderung des Managements geworden. Agilität und smartes Verhalten im Business sind angesagt. Nicht agil und nicht smart zu sein bedeutet im heutigen Markt schlicht und einfach Geschäft und Marktpositionen zu verlieren. Das stellt das Management vor neue Aufgaben: Traditionelle Steuerung im Unternehmen funktioniert nicht mehr. Information wird zur entscheidenden Ressource zur Bewältigung von Komplexität und Dynamik der digitalen Welt. (Abb. 1)

8

Zur Definition von „smart“ siehe Glossar.

9

„The New Normal“ von Peter Hinssen (2010) http://www.peterhinssen.com/books/the-new-normal/synopsis

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 20

Wolfgang Martin Team

Märkte und Markttrends Internet der Dinge

Komplexität der Systeme

Digitalisierung Big Data

“The New Normal”

Marktdynamik

Volatilität

Volatilität neue expandierende Märkte

Social Media, Mobile, M2M, R2R

Globalisierung

alte saturierte Märkte © 2015 S.A.R.L. Martin

1

Abbildung 1: Das „New Normal“ wird durch drei Kräfte bestimmt, der Globalisierung der Märkte, der Digitalisierung der Welt und der Volatilität der Märkte. Die Konsequenz: Nichts ist mehr so, wie es einmal war. Die Globalisierung schafft Spannungen und Verwerfungen, die Volatilität schafft Unsicherheit und Ungewissheit, und die Digitalisierung hat zudem alles in einem bislang unvorstellbaren Masse beschleunigt, produziert Big Data und ändert das alte Weltbild disruptiv. (M2M = Maschine-zu-Maschine; R2R = Roboter-zu-Roboter)

Traditionelle Steuerung im Unternehmen beruhte auf Erfahrungswissen trotz eines teilweise sogar massiven Einsatzes von Business-Intelligence-Methoden und Werkzeugen zur Entscheidungsunterstützung. Entscheidungen wurden so intuitiv aus Erfahrungen der Vergangenheit in die gegenwärtige Situation übertragen und auf die Zukunft angewendet. Das funktioniert im New Normal nicht mehr, denn Erfahrungswissen führt nur dann zu „richtigen“ Entscheidungen, wenn das Unternehmensmodell von Vergangenheit, Gegenwart und Zukunft übereinstimmen. Das ist im New Normal aber nicht die Regel. Aufgrund der zunehmenden Komplexität und Dynamik sind Erfahrungen aus der Vergangenheit nicht mehr uneingeschränkt auf die Gegenwart geschweige denn auf die Zukunft übertragbar. Erfahrungswissen zu nutzen, führt im New Normal in der Regel zu falschen Entscheidungen. Falsche Entscheidungen sind fatal in der heutigen Marktdynamik, denn eine Revision von falschen Entscheidungen ist im New Normal nicht mehr machbar: Die Zeit ist einfach nicht mehr da! Falsche Entscheidungen trifft man auch, wenn man zu spät entscheidet. Frühzeitig und rechtzeitig Probleme zu erkennen, so dass man noch rechtzeitig und smart gegensteuern kann, ist insbesondere im New Normal unabdinglich. Richtige Entscheidungen basieren also auf rechtzeitiger Information und auf einem Verstehen der Dynamik des Unternehmensmodells, das ein Abbild entsprechend der Marktlage darstellt. Im Old Normal war das Unternehmensmodell stabil: Stabile Märkte, vor allem Wachstumsmärkte, erlauben, ein Unternehmen mit einer Strategie und einer Organisationsstruktur über einen langen Zeitraum kontinuierlich und gleichmäßig zu managen und zu steuern. Hier war Erfahrungswissen sehr wertvoll und erlaubte ein gutes Navigieren in „ruhigen Wassern“. Der Wert von Information zur Steuerung im Unternehmen

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 21

Wolfgang Martin Team wurde zwar erkannt und Information war wichtig, aber keineswegs immer ausschlaggebend. Das zeigte sich in der Bereitstellung von Berichten, die keiner nutzte. Das zeigte sich in der Nutzung von Spreadsheets, in denen Zahlen so lange „massiert“ wurden, bis Information und Erfahrungswissen übereinstimmten. Das zeigte sich in mangelnder Akzeptanz von Dashboards und analytischen Werkzeugen. Das zeigte sich in der im vorigen Kapitel beschriebenen Mängelliste traditioneller Business Intelligence. Man kam im Old Normal ja auch „ohne“ durch. Das Geschäft lief vielfach wie von alleine, wenn es einmal richtig aufgesetzt war. In der digitalen Welt ist alles anders. Wegen der Dynamik der Märkte und des Geschäftes muss jenseits von Erfahrungswissen schnell entschieden werden. Jetzt kommt es darauf an, im richtigen Augenblick die richtige Information zu haben, die für eine zu treffende Entscheidung die richtige Relevanz hat. Das ist gar nicht so einfach, denn diese richtige Information ist aus einem riesigen Volumen irrelevanter und damit überflüssiger Information herauszufiltern.

Die Digitalisierung der Welt reale Welt

virtuelle Welt

Konvergenz durch Digitalisierung

Die 5 Big DataDomänen

Daten = Interaktionen, Beobachtungen plus Transaktionen © 2015 S.A.R.L. Martin

2

Abbildung 2: Die Digitalisierung der Welt schafft eine Konvergenz von realer und virtueller Welt. Daraus entstehen die fünf Big-Data-Domänen, die strukturierte und poly-strukturierte Daten sowie Datenströme liefern, aus denen sich Big Data zusammensetzt. Die Daten entstehen entweder aus Interaktionen, Beobachtungen oder Transaktionen. Transaktionsdaten gibt es seit dem Beginn des Informationszeitalters, Interaktionsdaten kommen seit den Anfängen des Internets in den 90er Jahren mehr und mehr dazu, und die Beobachtungsdaten sind eine Folge der Digitalisierung. Das erzeugt nicht nur ein Mehr an Daten und detailliertere Daten, sondern gibt auch die Möglichkeit, die verschiedenen Daten-Domänen miteinander und mit Unternehmensdaten zu verknüpfen. Insbesondere so entstehen neue Einsichten, die die wichtigsten Treiber von Innovation darstellen.

Das ist schwieriger denn je, denn die Digitalisierung der Welt schafft ein weitere Herausforderung: Es werden mehr und mehr Daten produziert, was zum Phänomen „Big Data“ geführt hat. Die wesentlichen Treiber dieser Datenexplosion durch die Digitalisierung

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 22

Wolfgang Martin Team der Welt sind die Social Media, Maschinen und Sensoren, Server Logs, Web-Clickstreams, das mobile Internet und das Internet der Dinge. (Abb. 2)

2.3

Big Data und Echtzeit

Die „Big-Data-Herausforderung“: Immer mehr Nutzer wollen in nahezu Echtzeit die Daten aus der immer mehr ausufernden Datenflut und aus immer mehr und unterschiedlichsten Quellen analysieren. Diese Big-Data-Herausforderung wird in Abbildung 3 visualisiert. Sie beschreibt recht gut, was Big Data ist und was es bedeutet:

Die Big Data-Ausbreitung „Velocity“ (Geschwindigkeit)

MB

GB

PB

Volumen

Big Data: Ausbreitung in 3 Dimensionen mit wachsender Geschwindigkeit

Varietät 3

TB

© 2015 S.A.R.L. Martin

Quelle: Tech Target & Diya Soubra

Abbildung 3: Die 3 „V“-Dimensionen von Big Data zeigen die technologische Entwicklung im Verlauf der Zeit. Das ist die Basis für das 4. „V“ = Value: Daten sind in der heutigen Infonomik Treiber von Wertschöpfung.



Extremes und anhaltendes Wachstum des Datenvolumens. Allein im Jahr 2012 hat die Menschheit 2,8 ZB neue Daten produziert. (1 Zetta Byte = 1 Milliarde Terabytes). Bis 2020 soll die jährliche Datenproduktion nach Schätzungen von IDC auf 40 ZB steigen. All diese Daten sind zudem mehrheitlich poly-strukturiert.



Die Anzahl der Datenquellen nimmt massiv zu. Es sind nicht nur die Social Media, sondern auch maschinell erzeugte Daten wie die Lokalisierungs- und Navigationsdaten aus dem mobilen Internet oder Messdaten aus intelligenten Ablesegeräten (Telefonie, Strom, Gas, Wasser, RFID etc.).

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 23

Wolfgang Martin Team 

Die Anzahl der Mitarbeiter, die Information brauchen und wollen steigt rasant an. Die in dieser extremen Menge von Daten verborgene Information und das darin verborgene Wissen wollen sich mehr und mehr Unternehmen und innerhalb der Unternehmen mehr und mehr Fachbereiche zu nutzen machen.



Information hat den größten Wert, wenn sie neu und aktuell ist. Denn Dinge in der digitalisierten Welt passieren jetzt und überall. Daher braucht man Information in Echtzeit, hier und jetzt.

Jeder dieser vier Trends an sich ist eine große Herausforderung an die Informationstechnologie. Jetzt gilt es aber diese vier Anforderungen gemeinsam zu meistern, sonst gibt es keine Antworten und Erkenntnisse! Damit ist klar, dass die traditionellen Business-Intelligence-(BI)-Technologien zum Analysieren von Daten nicht mehr ausreichen, ja, man kann sogar sagen, zum Teil obsolet geworden sind. Diese Herausforderungen, die Big Data an uns stellt, kommen nun zu den alten Mängeln der traditionellen BI als weitere Anforderungen an die „neue“ BI hinzu und erzwingen weitere Innovationen. Diese Innovationen passieren in der Tat jetzt und heute auf allen Ebenen von BI, auf der Datenhaltungsebene, auf der Information Management-Ebene und auf der Ebene der BIWerkzeuge. Das wird in den folgenden Kapiteln beschrieben. Hinzu kommt, dass heute im New Normal Information in Echtzeit zur Verfügung stehen muss, damit Entscheidungen rechtzeitig getroffen werden können, denn nur so kann man proaktiv mittels Kennzahlen Unternehmen und Prozesse überwachen und steuern. Beispiel: Angenommen, ein Einflussfaktor im Geschäftsmodell eines Unternehmens ist „Liefertreue“. Dann muss Liefertreue messbar gemacht werden. Beispielsweise könnte man festsetzen, dass 90 Prozent aller Lieferungen innerhalb von zwei Tagen erfolgen sollen. Das ergibt eine strategische Kennzahl für diesen Prozess. Eine operative Kennzahl für diesen Prozess könnte der „Lagerbestand“ gemessen an einem festgelegten Mindestbestand in einem Warenlager sein. Falls der Lagerbestand unter die Mindestmenge fällt, wird eine Nachbestellung automatisch ausgelöst: Das Auskommen der Kennzahl Lagerbestand löst also eine Entscheidung aus, die eine Maßnahme in Gang setzt. Diese Kennzahl ist daher eine operative Steuerungsinformation. Sie arbeitet proaktiv als Frühwarngröße, da durch die Maßnahme das Problem „ausverkauft“ verhindert wird. So wird ein Problem rechtzeitig erkannt und das Risiko eines Ausverkaufs wird minimiert. Basierend auf den im Beispiel diskutierten Konzepten kann man jetzt auch „Echtzeit“ definieren. Definition: Echtzeit im Business bedeutet die richtige Information zum richtigen Zeitpunkt am richtigen Ort zum richtigen Zweck verfügbar zu haben. Die „Echtzeit“-Forderung im Business hat also nichts mit der Uhrzeit zu tun. Was für „Echtzeit“ entscheidend ist, ist die Verfügbarkeit von Information in der Geschwindigkeit, mit der sie benötigt wird. Monatliche, wöchentliche oder tägliche Informationsbereitstellung kann also durchaus „Echtzeit“ sein, wenn der zugrundeliegende Prozess entsprechend langsam

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 24

Wolfgang Martin Team abläuft (Beispiel: Fahrplan-Information bei Buchung versus Verspätungs-Information bei der Reise). Daher spricht man auch besser nicht von „Echtzeit“, sondern von „Rechtzeitigkeit“. Das Beispiel zeigt weiter, dass Kennzahlen nicht nur diagnostische Aufgaben haben wie früher in der traditionellen Business Intelligence, sondern insbesondere auch vorausschauenden Charakter im Sinne von Vorhersage („Forecasting“) haben. Mittels solcher Kennzahlen erhalten Prozesse die Fähigkeit, proaktiv, korrektiv und präventiv zu agieren: Probleme und Risiken werden rechtzeitig erkannt und behandelt bevor Schäden auftreten. Das ist Geschäftssteuerung in Echtzeit. So spart man nachhaltig Zeit, Ressourcen und Kosten.

2.4

Nutzenpotenziale von Big Data

In den Daten aus den vielfältigen und verschiedenen Datenquellen von Big Data steckt großes Potenzial, vor allem viel Wissen, das man sich „nur“ erschließen muss. Aber das Potenzial an Wissen ist nicht so einfach zu erschließen, denn ein solcher verwobener Mix aus riesigen, unüberschaubaren und fragmentierten Daten macht es schwierig, die Daten zu identifizieren, zu extrahieren, zu speichern, zu verwalten und zu analysieren. Bevor wir uns aber die dazu notwendigen Schritte und Vorgehensweisen anschauen, wollen wir die Nutzenpotenziale verstehen und erkennen, wie wir vom Big Data profitieren können. Beginnen wir dazu mit zwei Beispielen. Beispiel: Big Data im Handel. Im Handel kämpft man schon lange mit sehr großen Datenmengen, den Kassenbon-Daten beispielsweise. In den Kassenbon-Daten steckt viel Kundenwissen, denn sie eignen sich gut, um die Produktprofitabilität pro Kunden auszurechnen. Das ist eine wichtige Kennzahl zur Steuerung von personalisierten Kampagnen und Echtzeit-Produktempfehlungen, also eine im analytischen CRM typische Kennzahl im Handel für die Outbound- und InboundKundenkommunikation. Nur konnte man mit den traditionellen BI-Werkzeugen diese Kunden/Produkt-Profitabilität-Kennzahl nicht ausrechnen, da das zugrunde liegende Datenvolumen zu groß war und die Analysen einfach zu lange dauerten, um beispielsweise im Rahmen von Kundeninteraktionen Empfehlungen in Echtzeit auszusprechen. Mit Big-Data-Technologien lässt sich das Problem lösen. Beispiel: Stimmungsanalysen in den Social Media. Insbesondere die Konsumgüterhersteller interessieren sich für die Meinungen aller Marktteilnehmer zu den eigenen Produkten und Marken ebenso im Vergleich dazu zu den Produkten und Marken der Mitbewerber. Hier bieten die Social Media neue und ergiebige Quellen. Neben der Chance, Zielgruppen mit chirurgischer Präzision zu bearbeiten, bringen Social Media aber auch Risiken: In Blogs, Foren und Tweets wird schlicht und einfach alles über Produkte und Unternehmen gesagt – inklusive echter Lügen: Expertenforen können schnell und nachhaltig Werbesprüche entzaubern. Zur Auswertung all dieser Kommunikation in den Social Media beginnt man mit dem Identifizieren und Extrahieren der relevanten Quellen im Big Data. Dann gilt es, diese Quellen auszuwerten. Das liefert nicht nur statistische Information, wo und wie viele Spuren sich im Web und in den Social Media befinden, sondern mit Hilfe von BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 25

Wolfgang Martin Team Stimmungsanalysen (sentiment analysis) lässt sich auch die Tonalität der Beiträge bestimmen. Auf Basis eines Social-Media-Monitoring kann im nächsten Schritt eine Social-Media-Interaktion aufgebaut werden. Das Unternehmen kann jetzt auf relevante Beiträge sofort reagieren und intervenieren. Das bringt Vorteile vor allem im Kundenservice oder bei der Einführung neuer Produkte im Markt, da sich sofort eine Kommunikation mit Communities im Web aufbauen und unterhalten lässt. So sind beispielsweise schon in verschiedenen Service-Call Centern die Agenten auch zu Social-Media-Agenten geworden, die jetzt eine Multikanal-Kommunikation mit den Kunden über die traditionellen und die Social-Media-Kanäle führen können. Das ist der Schritt von Outbound- und Inbound-Kundenkommunikation zur UnboundKundenkommunikation. So schafft man eine gesteigerte Time-to-Market und eine höhere Kundenbindung bei einer vergleichsweise überschaubaren Investition. Wenn man sich diese Beispiele genauer anschaut, dann lassen sich fünf Nutzenaspekte von Big Data erkennen. 1. Transparenz durch Big Data. Nicht nur Hersteller von Konsumgütern interessieren sich für Stimmungsanalysen in Social Media, sondern auch die Touristik-Branche. Eine Hotelkette interessiert sich beispielsweise für das elektronische Feedback ihrer Gäste und/oder für die Bewertungen der Mitbewerber. Auch eine ganz neue Art der Wettbewerbsbeobachtung ist mittels der öffentlich zugänglichen Satellitenbilder machbar. Man kann so Hinweise über Fabrikkapazitäten erhalten, rechtzeitig Expansionen erkennen oder auch topologische Beschränkungen, die Expansionen des Mitbewerbers behindern können. Alles wird möglich, wenn all diese Daten im Unternehmen zugreifbar und auswertbar werden. In der Verbindung mit den Unternehmenskundendaten erhält man so nicht nur eine 360°-Sicht auf den Kunden, wie immer im CRM gefordert, sondern sogar eine 360°-Sicht auf den gesamten Markt: Mitbewerber, Kunden der Mitbewerber, Presse, Marktmultiplikatoren etc. Denn im Big Data spiegelt sich ja der Markt mit allen Marktteilnehmern wieder. Um von diesem Nutzenaspekt zu profitieren, muss das „Silo-Denken“ in den Unternehmen endlich aufhören. Das Sammeln von Fachabteilungs-bezogenen Daten ist nicht ausreichend, um Kunden- und Marktwissen durch Big Data aufzubauen. Im Finanzwesen ist es immer noch üblich, Daten über die Finanzmärkte, über den Zahlungsverkehr und das Kreditwesen getrennt zu halten und nicht über Abteilungsgrenzen hinweg zu nutzen. Das hindert den Aufbau kohärenter Kundensichten und das Verstehen der Beziehungen und Beeinflussungen zwischen Finanzmärkten. 2. Generieren von Hypothesen und Testen aller Entscheidungen. Big-Data-Analytik ist in vielen Projekten ein Versuch, an der klassischen statistischen Methode der Stichprobenerhebung vorbeizukommen. Man stellt sich auf den Standpunkt N = alle, indem man annimmt, dass die vorliegende (sehr große) Datenmenge ein Phänomen vollständig beschreibe. Diese Annahme wird häufig kritisiert, und das zu recht, denn wenn man beispielsweise eine Stimmungsanalyse auf Basis von Tweets durchführt, so gibt eine solche Analyse höchstens die Stimmung im Twitter-Kanal wieder, aber keinesfalls im Markt. Wie in den meisten Fällen gilt hier eben nicht, dass die Stichprobe der analysierten Tweets auch „alle“ Meinungen der Marktteilnehmer wiedergibt. Im Gegenteil, man kann sogar mit ziemlicher Sicherheit annehmen, dass eine Meinung von Marktteilnehmern, die

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 26

Wolfgang Martin Team twittern, sich sehr wohl von der Marktmeinung anderer Marktteilnehmer unterscheiden wird. Leute, die twittern, haben nun mal ein eigenes Profil, das sie durchaus von anderen Marktteilnehmern unterscheidet. Es gibt noch einen weiteren Punkt zu kritisieren. Big-Data-Analysen liefern nur Korrelationen, die aber nicht unbedingt Ursache-Wirkungs-Beziehungen in der realen Welt darstellen. Mit anderen Worten, die Ergebnisse von Big-Data-Analysen allein stellen noch keinen Wert für das Unternehmen dar, da wir ohne weitere Untersuchungen nicht wissen, ob sie tatsächlich auf reale Sachverhalte zutreffen. Solche Big-Data-Analysen liefern also Ergebnisse, die sich anzweifeln lassen und die man sehr vorsichtig interpretieren sollte. Hier lässt sich aber aus der Not eine Tugend machen: Man betrachtet die Ergebnisse als Hypothesen und unterwirft die den klassischen statistischen Methoden des Testens. Big-Data-Analysen dienen in diesem Sinne einer Erweiterung des klassischen wissenschaftlichen Analyseansatzes: Sie generieren Hypothesen in Ergänzung zu Hypothesen, die von menschlichen Experten aufgestellt werden. Das ist natürlich besonders dann interessant, wenn man zu Hypothesen kommt, auf die menschliche Experten nicht gekommen wären, da ihnen die dazu notwendigen Einsichten fehlten.

Big-Data-Methoden Ansätze von Big-Data-Analytik:   

Stelle Fragen und stelle Dinge infrage. Analysen geben Antworten. Beschleunige auf Basis der Analysen die Entscheidungsfindung. Transformiere Prozesse und Modelle auf Basis getroffener Entscheidungen.

Big Data Messen der Wirkung Big-Data-Methodik: Iteratives Ableiten und Testen von Hypothesen.

© 2015 S.A.R.L. Martin

4

Abbildung 4: Big-Data-Analytik kommt mit neuen Methoden, die die klassische wissenschaftliche Analytik ergänzen. So dienen Big-Data6analysen insbesondere dazu, Hypothesen zu generieren, die dann den klassischen statistischen Testverfahren unterworfen werden können. Da solche durch Big Data generierten Hypothesen aufgrund von bisher nicht vorhandenen oder nicht zugänglichen Daten und der Verknüpfung von Daten aus unterschiedlichsten Quellen aufgestellt werden, bieten sie neue Einsichten in beobachtete Phänomene und liefern Hypothesen, auf die menschliche Experten nicht gekommen sind.

So bietet Big-Data-Analytik die Möglichkeit, das Treffen von Entscheidungen grundlegend zu ändern: Big-Data generierte Hypothesen werden zuerst mittels kontrollierter

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 27

Wolfgang Martin Team Experimente getestet, und dann werden Entscheidungen und Maßnahmen auf Basis von getesteten Fakten getroffen (Abb. 4). So lassen sich auch Ursache-Wirkungsbeziehungen von reinen Korrelationen unterscheiden. Internet-Unternehmen wie Amazon und eBay waren mit bei den ersten, die solche kontrollierten Experimente nutzten, um die Konversionsraten von Besuchern ihrer Webseiten zu steigern. Dazu wurden gezielt bestimmte Strukturen, Funktionen und Verbindungen auf Webseiten geändert und die Wirkung entsprechend gemessen. So konnten die Faktoren ermittelt werden, die die Konversionsraten steigern. Mittels des mobilen Internets werden diese Konzepte des kontrollierten Testens von Änderungen von Webseiten heute auch in der realen Welt machbar. So kann jetzt beispielsweise die Wirkung von Außenwerbung bezogen auf den Standort gemessen und entsprechend optimiert werden. Das wird durch die Klickraten auf den QR-Codes auf Werbeflächen ermöglicht. So lässt sich durch Nutzung von Big-Data-Analytik auch ein cross-mediales Marketing aufbauen. Ein weiteres Beispiel für diese Verschmelzung der virtuellen mit der realen Welt geben Video-Aufzeichnungen von Kundenbewegungen in Kombination mit Kundeninteraktionen und Bestellmustern, die sich in Transaktionsdaten verbergen. Durch kontrollierte Experimente lassen sich so Produkt-Portfolios und -Platzierungen sowie Preise kontinuierlich und gezielt verbessern. Daraus folgt eine Kosteneinsparung durch mögliche Reduktionen des Produktangebots ohne Risiko des Verlustes von Marktanteilen und sowie eine Steigerung der Marge durch den Verkauf höherwertiger Produkte. 3. Personalisierung in Echtzeit. Kunden- und Marktsegmentierung hat eine lange Tradition. Jetzt mit Big Data gibt es völlig neue Möglichkeiten durch EchtzeitPersonalisierung von Kundeninteraktionen. Im Handel kennen wir solche Strategien bereits von den Big-Data-Vorreitern wie Amazon und eBay, aber auch von sozialen Netzen, wo uns Freundschaften vorgeschlagen werden. Natürlich profitiert man auch in anderen Branchen von solchen personalisierten Kundeninteraktionen, beispielsweise im Versicherungswesen. Hier können Versicherungspolicen auf den Kunden individuell zugeschnitten werden. Als Datenbasis dazu dienen kontinuierlich angepasste Profile der Kundenrisiken, Änderungen in der Vermögenslage oder auch Lokalisierungsdaten. Kraftfahrzeuge können mit speziellen Sendern ausgerüstet werden, so dass sie über eine Lokalisierung im Falle eines Diebstahls wiedergefunden werden können. 4. Prozess-Steuerung und Automatisierung. Big Data erweitert den Einsatz von Analytik zur Prozess-Steuerung und Automatisierung. So können Sensordaten von Produktionsstraßen zur Autoregulierung von Produktionsprozessen genutzt werden. Damit lassen sich Kosteneinsparungen durch optimalen Materialeinsatz und durch Vermeidung von menschlichen Eingriffen erzielen, wobei gleichzeitig der Durchsatz erhöht werden kann. Proaktive Wartung ist ein anderes Einsatzgebiet. Maschinen können kontinuierlich über Sensoren überwacht werden, so dass auftretende Unregelmäßigkeiten sofort erkannt werden und rechtzeitig beseitigt werden können, bevor Schäden auftreten oder es zum Stillstand kommt. Hier besteht der Nutzen nicht nur im Vermeiden von Risiken, sondern auch in den durch kontinuierliches Funktionieren der Maschinen erzielten Margen. Andere Beispiele stammen aus der Konsumgüter-Branche. Getränke oder auch Speiseeis-Hersteller nutzen die täglichen Wettervorhersagen, um die eigenen

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 28

Wolfgang Martin Team Nachfrageplanungsprozesse an das aktuelle Wetter anzupassen. Dabei sind die Messdaten zur Temperatur, zur Niederschlagsmenge und zur täglichen Sonnenscheindauer entscheidend. Dieses Wissen erlaubt eine Prozessoptimierung durch die Verbesserung der Vorhersagewerte zwar nur um einige Prozent. Eine solche manchmal nur geringfügige Verbesserung schlägt sich aber vielfach in deutlich gesteigerten Profiten nieder. 5. Innovative Informations-gesteuerte Geschäftsmodelle. Big Data erlaubt auch neue, innovative Geschäftsmodelle auf der Basis von Information. Preis-Information wurde früher vielfach vertraulich behandelt. Heute in den Zeiten des Internets und Internethandel sind Preise in der Regel öffentlich verfügbar. Das erlaubt den Internet- und anderen Händlern die Preise des Mitbewerb zu überwachen und rechtzeitig auf Preisänderungen zu reagieren. Das erlaubt aber auch den Kunden, sich über die Preise zu informieren und so den besten Preis für ein gewünschtes Produkt zu erzielen. Darauf haben sich einige Anbieter spezialisiert, die über Konsolidierung, Aggregieren und Analyse von Preisinformation ihr eigenes Geschäftsmodell gefunden haben. Das gilt nicht nur im Handel, sondern auch im Gesundheitswesen, wo durch solche Informationsbroker Behandlungskosten transparent gemacht werden. Natürlich darf man nicht die Kritik an Big Data vernachlässigen, denn ein mehr an Information bedeutet nicht unbedingt gleichzeitig bessere Information. Auch macht die Quellenvielfalt Probleme, was die Vergleichbarkeit der Daten angeht, denn unterschiedliche Quellen erzeugen durchaus auch Daten in unterschiedlicher Qualität und Beschaffenheit. Für den Statistiker erhebt sich dann auch noch die Frage, ob und wie Information aus dem Big Data überhaupt repräsentativ sein kann. Trotz der Kritik an Big Data: die Big-Data-Vorreiter Amazon, eBay, Facebook und Google zeigen, dass Big-Data-Potenziale existieren und geldwerten Vorteil bringen können. Bei aller Skepsis zum Hype um Big Data: Die IT-Anbieter investieren große Summen und erwarten viel von diesem schnell wachsenden Markt. Schließlich sollte man auch nicht vergessen, dass all die genannten Datenquellen sprudeln. Die Informationsproduktion der digitalen Welt ist enorm und gleichzeitig stehen mächtige Analyseverfahren aus Mathematik, Statistik, Linguistik und aus der Welt der künstlichen Intelligenz zur Verfügung, mit denen man in der Tat Hypothesen finden kann, die sich kein Mensch je ausgedacht hätte. Das ist der Reiz, genauso wie im traditionellen Data Mining jetzt im Big Data „Nuggets“ zu finden, nur noch grösser und wertvoller.

2.5

Prozess- und Service-Orientierung – BI als Service

Business Intelligence muss in den Kontext von Prozessen und Services gestellt werden, damit Geschäftsrelevanz gegeben ist. Warum sind Prozesse und Services so wichtig? Was erreichen wir hiermit? Blicken wir dazu zurück in die 90er Jahre. Die große Hoffnung war damals, das Unternehmen als Ganzes

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 29

Wolfgang Martin Team durch ein ERP-System IT-mäßig zu unterstützen. Die Unternehmen wurden applikationsorientiert. Alle unternehmensrelevanten Daten sollten in einer Datenbank abgebildet werden und alle Geschäftsfunktionen sollten mittels der Standardfunktionalität eines ERP-Systems abgebildet werden. Dieser Traum ist vorbei. Was haben wir gelernt? 

“Ein ERP für alles” funktioniert nicht. Die Mehrheit der Unternehmen hat mehrere heterogene ERP-Systeme und weitere Legacy- und andere Systeme im Einsatz. Die durchschnittliche (Median) Anzahl von im Einsatz befindlichen operativen Systemen in einem größeren Unternehmen ist 50. In globalen Konzernen kommt man schnell auf Zahlen von mehreren Hundert.



Die Leistungskraft der IT wird in Frage gestellt. Die hohe Zahl von Schnittstellen, um Punkt-zu-Punkt Applikationen mit anderen Applikationen zu verbinden, treibt die Kosten für Implementierungen neuer Systeme. Das Budget zur Wartung aller dieser Schnittstellen blockiert jede Innovation durch IT. IT wurde zur Altlast. Die IT-Abteilung manchmal sogar zum Bremser.



Der erreichte Grad von Prozessautomation ist bescheiden bis nicht existierend. Daten müssen meist manuell von einem System ins nächste übertragen werden. Die Prozessqualität bleibt niedrig, die Fehlerrate aber steigt. Die Kosten bekommt man so nicht in den Griff.



Der erreichte Grad von Prozessintegration ist bescheiden bis nicht existierend. Prozesse enden an den Grenzen der Applikationen. Kollaboration mit den Lieferanten, Partnern und Kunden ist kaum machbar. Das macht die Unternehmen langsam und senkt die Reaktionsfähigkeit. Wieder steigen die Kosten.



Strategieänderungen und Anpassen der Geschäftsprozesse an Marktgeschwindigkeit und Dynamik sind nicht möglich. Prozesse sind in den Applikationen einzementiert und applikationsabhängig. Einen Prozess zu ändern heißt die Applikation zu ändern und alle Applikationen, mit denen einen Punkt-zu-PunktVerbindung besteht. Die Applikation bestimmt den Takt des Unternehmens, nicht die Strategie. Applikations-orientierte Unternehmen sind starr und unflexibel. Marktsieger findet man hier nicht, Marktsieger sind agil.



Stammdaten sind redundant über die Applikationen verstreut. Konsistenz bleibt ein Traum. Jede Applikation hat ihre eigene Terminologie. Produkt- oder Auftragsnummern in einer Applikation stimmen mit denen in anderen Applikationen nicht überein. Die Kollaboration mit Lieferanten und Kunden wird zum Kostentreiber: Jedes Mal, wenn ein neuer Lieferant, ein neuer Kunde, ein neues Produkt dazu kommt, muss eine neue Übersetzungstabelle erstellt werden und/oder der neue Begriff in allen Übersetzungstabellen hinzugefügt werden. Das macht Änderungen langsam, fehleranfällig und teuer.



Information Management ist nicht machbar. Rechtzeitige Verfügbarkeit und Zugang zu Information bleibt ein Luxus und ist nicht bezahlbar. Das Unbehagen über den Zustand der IT ist groß, Outsourcing packt das Übel nicht an der Wurzel. Eine Auslagerung in individuelle Tabellenkalkulation à la Excel ist keine Lösung, denn so steigt nur die Inkonsistenz der Daten und von Information. Insbesondere ist man dann weder revisions- noch betriebssicher.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 30

Wolfgang Martin Team Das führt uns zu der Kernfrage: Wie lässt sich ein traditionelles applikations-orientiertes Unternehmen in ein innovatives Prozess- und Service-Orientiertes transformieren? Die Antwort heißt Business Process Management (BPM).

Das digitale Unternehmen Agile Methoden, DevOps, Self-Service

Implementieren & Betreiben

Prozessund Regel-Maschine, Cloud, Mobile

Geschäftsprozess

Business Process Management Geschäftsprozess

Infrastruktur: interne und externe Services

Modellieren

Analyse, Design, Test, Simulation

Performance Management & Analytik Metriken, BusinessAnalytik Planen, Überwachen, Steuern Anreichern © 2015 S.A.R.L. Martin

5

Abbildung 5: Business Process Management (BPM) ist ein Rückkopplungs-Modell („closed loop“). Das Managen der Geschäftsprozesse steht neben einem Innovations-Management im Zentrum des unternehmerischen Handelns. Die Prozesse werden unabhängig von der implementierten Applikationslandschaft geplant, modelliert, implementiert, ausgeführt, überwacht, gesteuert, angereichert und kontinuierlich verbessert. Die Infrastruktur dazu sind interne und externe Services, am besten eine service-orientierte Architektur (SOA). Performance Management ist ebenfalls ein Rückkopplungs-Modell, das innerhalb von BPM das Planen, Überwachen und Steuern der Prozesse und ihrer Leistung übernimmt. Analytik dient der Ableitung von analytischen Modellen und Services, mit denen Prozesse angereichert und dadurch „intelligent“ („smart“) gemacht werden können. Diese Prozess- und Service--Orientierung ist eine Basis-Eigenschaft eines digitalen Unternehmens. Sie ist die Voraussetzung, um als Unternehmen industrialisiert, compliant, agil und smart zu sein, Basiseigenschaften eines digitalen Unternehmens.

Definition: BPM ist ein Kreislaufmodell, das aus vier Phasen besteht (Abb. 5):   



Phase 1: Analysieren, planen, modellieren, testen und simulieren von Geschäftsprozessen. (Man spricht auch von der „Design-Phase“.) Phase 2: Implementieren von Services mit Hilfe von agilen Methoden, DevOpsKonzepten und soweit wie möglich im Self-Service-Modus durch Fachabteilungen. Phase 3: Mobiles Betreiben („Ausführen“) von Geschäftsprozessen durch applikationsübergreifende Arbeitsabläufe („process flow“) mittels einer Prozess- und einer Regelmaschine auf einer service-orientierten Architektur (SOA) als Infrastruktur, die typischerweise mittels einer hybriden Cloud bereitgestellt wird. Phase 4: Planen, Überwachen, Steuern und Anreichern der Prozesse, ihrer Leistung (Performance) und des Zusammenspiels aller Geschäftsprozesse.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 31

Wolfgang Martin Team BPM heißt also Synchronisieren der Prozesse mit kontinuierlichem und umfassendem Planen, Überwachen und Steuern. Diese Synchronisierung hält Geschäftsprozesse kontinuierlich à jour mit Ereignissen und intelligentem Planen und Vorhersagen. Geschäftsprozesse werden zur neuen Kommunikationsplattform für Fachabteilungen und IT. Eine echte und dauerhafte Kooperation und Kollaboration zwischen Business und IT bahnt sich an. Business Process Management schafft (Abb. 6):

Das smarte Unternehmen Management-Fokus 

Industrialisierung von Prozessen plus Flexibilität von Prozessen  plus smarte Prozesse  plus Regeltreue von Prozessen

(operational excellence) (agility) (analytics) (compliance)



Lieferanten

Unternehmen

Kunden Governance, Risiko-Management

kollaborativer Prozess analytische Services

Abteilung/Business Service

Planung/Steuerung/Überwachung

Prozess-Management trifft Performance Management und Analytik © 2015 S.A.R.L. Martin

6

Abbildung 6: Ein smartes Unternehmen setzt nicht nur auf „operational excellence“, sondern auch auf die Flexibilität des Geschäftsmodells („agility“), auf Regeltreue („compliance“) und auf das intelligente Nutzen von Information. Im Endeffekt sind die Eigenschaften eines digitalen Unternehmens. Eine Voraussetzung dazu ist die Service-Orientierung. Das schafft drei unterschiedliche Anwendungsbereiche für die „neue“ Business Intelligence: 1) Performance Management zur Prozessund Service-Planung, -Überwachung und -Steuerung, 2) Analytik zum Schaffen smarter Prozesse und Services durch Einbetten von analytischen Services, 3) Governance und Risiko-Management. Hier wirkt BI unterstützend im Sinne von rechtzeitiger Bereitstellung von Information, beispielsweise mittels Frühwarnsystemen. So wird aus Business Intelligence „Performance Management und Analytik“.



Prozesse, die Services konsumieren und publizieren. Das Umdenken hier führt von applikations-orientierten zu service-orientierten Architekturen (SOA – Abb. 5). Prozesse werden jetzt von Regel- und Prozessmaschinen ausgeführt, die operative, analytische, kollaborative und Informations-Services orchestrieren. Schließlich kann dann ein Geschäftsprozess selbst wieder ein Service oder eine Gruppe von Services sein. Hier lässt sich auch eine gewisse Wiederverwendbarkeit erreichen, in dem Funktionalität und Daten nicht redundant implementiert werden. Redundanz ist ein typisches Problem des applikations-orientierten Modells. Service-Orientierung hilft, dieses Problem zu vermeiden.



Prozesse, die Unternehmen in intelligente Echtzeit-Unternehmen transformieren. Intelligenz kommt aus Geschäftsmetriken, die dazu dienen, Prozesse und ihre Leistung

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 32

Wolfgang Martin Team (Performance) zu steuern und zu kontrollieren. Geschäftsmetriken werden aus den Unternehmens- und Prozess-Zielen abgeleitet. So lassen sich Prozesse auf Basis von gemessener Zielerreichung proaktiv mittels Kennzahlen („Metriken“), „Key PerformanceMetriken (KPM)“10, Regeln und prädiktiven Modellen überwachen und steuern. Wir hatten dazu bereits in Kap. 2.3. ein Beispiel zum Messen von strategischer und operativer „Liefertreue“ betrachtet. Metriken haben also, wie schon gesagt, nicht nur diagnostische Aufgaben, sondern insbesondere auch vorausschauenden Charakter im Sinne eines Forecasting. Insbesondere mittels Echtzeit-Metriken erhalten Prozesse so die Fähigkeit, proaktiv und korrektiv zu agieren. Mit anderen Worten: Wir haben Business Intelligence neu erfunden. Wir haben Business Intelligence in den Kontext der Geschäftsprozesse und von Business-Services gestellt. Daraus ergeben sich drei Bereiche, in denen Business Intelligence eingesetzt wird (vgl. Abb. 6): 1. Performance Management Definition: Performance Management ist ein Geschäftsmodell, das einem Unternehmen ermöglicht, Unternehmensziele und Geschäftsprozesse kontinuierlich aufeinander abzustimmen und konsistent zu halten. Performance Management bedeutet, Prozesse zu planen, zu überwachen und zu steuern sowie Prozessinhalte als Basis für Auswertungen und Prognosen zu benutzen. 2. Analytik. Analytik bezeichnet sowohl den Prozess zur Gewinnung von Information und der Ableitung eines Modells zur Nutzung von Information (beispielsweise prädiktive Modelle aus einem Data-Mining-Prozess) als auch die Einbettung und Nutzung dieses Modells in Geschäftsprozessen. 3. Governance, Risiko-Management und Compliance (GRC). Governance11 bezeichnet die verantwortungsvolle, nachhaltige und auf langfristige Wertschöpfung ausgerichtete Organisation und Steuerung von Aktivitäten und Ressourcen im Unternehmen. RisikoManagement bezeichnet alle Aktivitäten der Risikoerkennung, Risikoverminderung und Risikovermeidung. Compliance bedeutet die Erfüllung der von der Unternehmensleitung gemachten Vorgaben („Policies“) sowie der rechtlichen und regulativen Vorgaben. Hier spielt Business Intelligence im Wesentlichen die Rolle einer rechtzeitigen Informationsbereitstellung zur Entscheidungsfindung. Das wird im Risiko-Management besonders deutlich. Hier sind Frühwarnsysteme, also das rechtzeitige Erkennen von Risiken zwecks Risikovermeidung oder Risikominderung, gute Beispiele für einen erfolgreichen Einsatz von BI.

Mitunter werden Metriken auch als „Indikatoren“ bezeichnet, entsprechend dann auch KPMs als KPIs. Wir bevorzugen die Begriffe Metrik und KPM, da so der klare Bezug zum „Messen“ ausgedrückt wird. 10

11

Prof. Dr. Matthias Goeken, Frankfurt School of Finance & Management, anlässlich der Auftaktveranstaltung der Zukunftswerkstatt IT, Frankfurt/Main, 19. April 2007

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 33

Wolfgang Martin Team 2.6

Service-Orientierung – eine Voraussetzung für Cloud-Computing

BPM, PM und Analytik mit einer SOA Eine SOA ist • IT Architektur • Unternehmensarchitektur • Kollaborationsarchitektur

Analytik & Performance Management

Backend-Services

Service Bus Information Mgt

Präsentations- & KollaborationsServices im “Social-Media-Stil”

Operative Daten

GeschäftsprozessManagement

NutzerErlebnis

ERP SAP CRM SCM PLM etc DW

DI

Hadoop

Content Management B2B

OfficeApplikation F&E (CAD/CAM)

Big Data

Marktplatz, Lieferanten, Partner, Händler, Kunden, soziale Medien © 2015 S.A.R.L. Martin

7

Abbildung 7: Eine SOA (service-orientierte Architektur) beschreibt das Design einer Infrastruktur für Geschäftsprozess-Management. Kern der Infrastruktur ist ein Service Bus, der das Management und Lebenszyklusmanagement der Prozesse und Services unterstützt. Hierzu gehören auch die BackendServices, die Informations-Services (DI = Datenintegration) und die Metadaten/Stammdaten-Services. Der Service Bus stellt auch die Schnittstelle zu externen Services für B2B dar. Informationsdomänen wie Content Management, Wissensmanagement, Office und Forschung und Entwicklung (F&E CAD/CAM) können über den Service Bus auch als Services orchestriert werden. Performance Management und Analytik agieren dabei wie ein „Gehirn“ des digitalen Unternehmens: Mittels „Intelligenz“ werden die Prozesse und ihre Leistung geplant, überwacht und gesteuert. Analytik wird dazu per Services in die Prozesse eingebettet, um Probleme und Risiken rechtzeitig zu erkennen. Die Mensch-Maschine-Schnittstelle definiert und unterstützt als „Nutzer-Erlebnis (user experience)“ die menschlichen Interaktionen durch Kollaborations- und Präsentations-Services im „Social-Media-Stil“. Information Management kontrolliert und steuert die Datenversorgung und Bereitstellung mittels Datenintegration, dem Data Warehouse und Hadoop („Datensee“). Das diskutieren wir in den Kapiteln 6 und 7 im Detail. (ERP = enterprise resource planning; CRM = customer relationship management; SCM = supply chain management; PLM = product life cycle management; DW = data warehouse; CAD/CAM = computer aided design/manufacturing; B2B = business to business)

Jetzt bleibt noch die Infrastruktur für BPM und Performance Management zu definieren, so dass wir Analytik in die Prozesse einbetten können und gegebenenfalls auch in (hybriden) Cloud-Umgebungen betreiben können. Das machen wir, wie schon in Abbildung 5 gezeigt, mit einer SOA (Abb. 7). Agilität und Industrialisierung sind aus der Sicht der Implementierung von Prozessen mittels IT eigentlich zwei sich widersprechende Anforderungen, jedoch wenn Prozesse im Kontext einer service-orientierten Architektur (SOA) gemanagt werden, dann bringt man beide Zielsetzungen zusammen. Denn eine SOA ist eine spezielle Architektur, die darauf abzielt, „Software for Change“ zu ermöglichen, die zudem sowohl On Premise, in der Cloud oder in hybriden Umgebungen betrieben werden kann. Das ist die Zielsetzung von „Service-Orientierung“. Das Prinzip einer Service-Orientierung ist recht einsichtig und vor allem nicht technisch oder technologisch. Es beschreibt eine Kollaboration zwischen einem

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 34

Wolfgang Martin Team Verbraucher (Konsument, Servicenehmer) und einem Anbieter (Produzent, Servicegeber). Der Verbraucher will eine bestimmte Funktionalität (ein “Produkt” oder eine “Dienstleistung Service”), den ein Anbieter bereitstellt. Eine solche Kollaboration arbeitet nach den folgenden Prinzipien: Service-Orientierung (SO) 

Prinzip 1 – Konsequente Ergebnisverantwortung. Der Service-Geber übernimmt die Verantwortung für die Ausführung und das Ergebnis des Services. Der Service-Nehmer übernimmt die Verantwortung für die Kontrolle der Service-Ausführung.



Prinzip 2 – Eindeutige Service Level. Jede Serviceausführung ist eindeutig vereinbart hinsichtlich Zeit, Kosten, Qualität. Input und Output der Services sind klar definiert und beiden Parteien bekannt per Service Level Agreement (SLA).



Prinzip 3 – Pro-aktives Event Sharing. Der Service-Nehmer ist über jede vereinbarte Statusänderung seines Auftrages informiert. Der Service-Geber ist verpflichtet den Service-Nehmer unmittelbar über unvorhergesehene Ereignisse zu informieren.



Prinzip 4 – Service-Verknüpfung. Ein Service kann zur Leistungserbringung einen oder mehrere andere Services nutzen. Umgekehrt kann jeder Service von anderen Services zur Leistungserbringung genutzt werden.

Eine solche Service-Orientierung ergibt ein flexibles Instrumentarium, denn ein Service kann so als eine Lieferung entsprechend einer Bestellung gemäß den Bedingungen eines SLAs verstanden werden. Im SLA wird festgelegt, in welcher Zeit, zu welchen Kosten und mit welchen Ressourcen ein Service geliefert wird. Es wird auch festgelegt, was der Eingang (Input) in den Service ist und wie der Ausgang (Output) aussieht. Services können auch als externe Services von Dritten im Sinne von SaaS (Software as a Service) bezogen werden. Services präsentieren die Geschäftslogik, die traditionell in den Applikationen steckt. Prozesse haben die Aufgabe, Services – also die Geschäftslogik – gemäß der Prozesslogik zu orchestrieren und zu choreographieren. Das Service-Verknüpfung-Prinzip hat eine interessante Konsequenz, wenn man es mit dem Unterprozess-Prinzip vergleicht: Ein Service verhält sich wie ein Prozess. Die Folge ist, ein Prozess kann ein Service sein und ein Service ein Prozess. Im Sinne der IT können wir jetzt definieren: Definition: Ein Service ist eine Funktionalität, die typischerweise mittels einer AnfrageAntwort über eine standardisierte Schnittstelle ausgelöst und gemäß einem SLA konsumiert wird. Ein Service ist somit eine spezielle Ausprägung einer „Softwarekomponente“, die sowohl On Premise als auch in der Cloud und in hybriden Umgebungen betrieben werden kann. Jetzt können wir auch eine SOA definieren. Im Ausdruck „SOA“ stecken ja die beiden Bestandteile „SO = Service-Orientierung“ und „A = Architektur. SO und Service haben wir bereits definiert, bleibt jetzt noch die Definition des Begriffes „Architektur“. Dieser Begriff hat leider keine eindeutige Definition, aber unter Zuhilfenahme diverser Online-Lexika lässt sich ableiten:

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 35

Wolfgang Martin Team Definition: Eine Architektur in der Informatik spezifiziert das Zusammenspiel der Komponenten eines komplexen Systems. Sie beschreibt die Übersetzung fachlicher Anforderungen in Bauinstruktionen. Damit hat eine Architektur Charakteristiken und Konsequenzen. Jetzt können wir die Charakteristiken einer SOA zusammenstellen: 

Eine SOA ist ein Design-Ansatz für eine spezielle Unternehmensarchitektur und für eine spezielle informationstechnische Software-Architektur.



Im Sinne des Prinzips Servicenehmer und Servicegeber erfolgt eine Trennung der traditionellen Applikationslogik in eine Prozess- und Geschäftslogik. Hier findet eine Entkopplung statt.



Eine SOA ist in jedem Falle unabhängig von Technologie. Die Technologie zur Implementierung und zum Betrieb (Cloud oder nicht Cloud!) kann also frei gewählt werden.



Informationstechnisch gesehen ist die Service-Orientierung eine Evolution von Komponenten- Architekturen (Funktionsweise gemäß den „LEGO“-Prinzipien)



SOA Services sind fachlich getrieben: Die Granularität der Regelmodellierung bestimmt die Granularität der fachlichen Services.



Eine weitere Besonderheit einer SOA ist die Standardisierung12. Der Zugriff auf Services erfolgt nach Standards (Web Services) genauso wie die Orchestrierung und Choreographierung der Services (business process execution language BPEL) oder Infrastrukturdienste wie Authentifizierung und Identifizierung. Eine vor Jahren nicht vorstellbare Zusammenarbeit der verschiedenen IT-Anbieter treibt die Standards recht zügig voran. So haben beispielsweise Web- oder REST-Services inzwischen eine allgemeine Akzeptanz im Markt gefunden.

Prozess-

und

Damit diese Service-Orientierung funktionieren kann, ist ein Business-Vokabular die Voraussetzung, damit in allen SOA-basierten Prozessen die gleiche Sprachweise verwendet werden kann. Dazu braucht man ein Repository, in dem alle Meta- und Stammdaten einheitlich beschrieben sind. Was die Integrationsdrehscheibe für eine SOA ist, ist das Repository für Meta- und Stammdaten. Die Architektur des Repositories ist also eine Huband-Spoke-Architektur, so dass alle Meta- und Stammdaten über alle Backendsysteme synchronisiert und historisiert werden können. Das ist die Rolle von StammdatenManagement. Das wird in Kap. 6 weiter im Detail diskutiert. Mehr zu SOA findet man beispielsweise bei Martin (2008) und zu SOA Trends und Einsatz in Unternehmen im deutschsprachigen Raum bei Martin, Eckert und Repp (2010). Achtung: ROI kommt in der Regel nicht von einer SOA, sondern von den implementierten, SOA-basierten Prozessen.

12

Eine Klassifizierung der Standards findet man auf http://www.computerwoche.de/soa-expertenrat/?p=209

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 36

Wolfgang Martin Team 2.7

Mobile BI

Das McKinsey Global Institute hat 12 disruptive Technologien identifiziert, die einen massiven, wirtschaftlichen Einfluss von heute bis 2025 haben sollen13. Dabei wird das mobile Internet als die wichtigste disruptive Technologie angesehen. Die McKinsey-Forscher begründen ihre Wahl unter anderem mit eindrucksvollen Zahlen: Mehr als 1,1 Milliarden Menschen nutzen bereits Smartphones und Tablets. Die Zahl der Smartphones ist dabei um 50% im letzten Jahr gewachsen. Dazu kommt ein Anstieg der App Downloads um 150%. Bereits 2013 haben Smartphones und Tablets die PCs den Zahlen nach überholt. Man schätzt, dass 2025 80% der Internet-Verbindungen mittels mobiler Geräte gemacht werden. McKinsey schätzt schließlich das wirtschaftliche Potenzial des mobilen Internets auf $10,8 Billionen (amerikanisch: “trillion”). Das mobile Internet ist also längst nicht mehr ein Zusatz zum Internet, das dem Außendienst ermöglicht, mit dem Unternehmen und seinen Kunden verbunden zu bleiben. Es ist inzwischen zum eigentlichen Internet geworden. Information ist jetzt überall und jederzeit verfügbar. Daher müssen wir umdenken. Ein mobiler Zugang zu Prozessen und Applikationen ist kein Zusatz mehr, sondern Mobil kommt zuerst. Daraus folgt als nächstes: Es gibt nur noch mobil. Mobil ist das erste Modell, denn die Welt wird mobil. Das gilt genauso für mobile BI. Aber wenn mobile BI das erste Modell für BI sein soll, dann ergibt das auch neue Anforderungen an die traditionelle BI. Die lassen sich in fünf Punkten zusammenfassen: 1. Eine mobile BI-Lösung sollte Teil einer BI-Plattform sein, damit sie problemlos in die Prozess- und Applikationslandschaft integriert werden kann. 2. Eine mobile BI-Lösung sollte geräteunabhängig sein, damit sie ohne weitere Anpassungen auf allen gängigen Smartphones, Tablets und anderen mobilen Geräten eingesetzt werden kann. 3. Eine mobile BI-Lösung muss in die vorhandene IT-Infrastruktur, IT-Standards und Sicherheitsrichtlinien passen. 4. Eine mobile BI-Lösung muss auf alle relevanten Datenquellen in einem Unternehmen zugreifen und alle relevanten Ausgabeformate unterstützen können. 5. Eine mobile BI-Lösung kombiniert die volle Funktionalität von BI-Lösungen mit den ergonomischen Vorteilen mobiler Geräte. Das umfasst insbesondere einen Lese- und Schreibzugriff, damit auch Daten geändert und neue Daten erfasst werden können. Probleme bereiten hier insbesondere die Anforderungen 2 und 5, die sich als große Hindernisse bei der Einführung und Nutzung mobiler BI herausgestellt haben. Sie bilden insbesondere ein Hindernis für BYOD-Konzepte14, da die Unterstützung aller Gerätetypen entsprechend hohe Kosten verursacht und viele Ressourcen zur Portierung und Anpassung

13

McKinsey Global Institute "Disruptive technologies: Advances that will transform life, business and the global economy." http://www.mckinsey.com/insights/business_technology/disruptive_technologies, Mai 2013. 14

BYOD = bring your own device. Das ist ein Konzept, bei dem Mitarbeiter im Unternehmen ihr eigenes mobiles Gerät nutzen und einsetzen dürfen. Das bedeutet, dass alle möglichen Gerätetypen im Endeffekt durch die IT unterstützt werden müssen.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 37

Wolfgang Martin Team an unterschiedliche Gerätetypen erfordert. Die größte Herausforderung für BI-App-Designer ist in der Tat das Design für verschiedene Mobilgeräte. BI-Anwendungen müssen für die verschiedenen Displaygrößen aller Geräte - von Desktops, Laptops, Tablets bis zu unterschiedlichen Smartphone-Typen - optimiert werden. Die Größe ist dabei nur ein Aspekt, denn noch andere Faktoren spielen eine Rolle. Beispielsweise die Ausrichtung - welche Geräte sind für Hoch- oder Querformat optimiert - die Pixeldichte (Pixel per Inch PPI) sowie die Navigationskontrollen. Hier gibt es zwei Lösungsalternativen, die beide bisher nicht wirklich zufriedenstellend waren. 

Native BI-Apps: Die galten bis vor kurzem als die beste App-Lösung, da sie volle Interaktivität auf dem jeweiligen Gerät bieten. Zusätzlich ist ein periodisches Caching möglich, das die Leistung der Apps steigert und in einem gewissen Maße auch ein Offline-Arbeiten erlaubt. Die Nutzer solcher nativen BI-Apps bekommen so alle Vorteile einer mobilen BI: Zugriff auf Information überall und jederzeit mit der Ergonomie ihres Gerätes - und sind in der Regel hoch zufrieden. Allerdings müssen solche Apps gerätespezifisch und damit teuer entwickelt werden. Mit anderen Worten: Für alle Berichte und Dashboards ist für jedes Gerät jeweils eine spezielle native BI-App zu erstellen, insbesondere wenn im Unternehmen BYOD gilt. Das kostet viele Ressourcen und viel Zeit und ist insbesondere aus der Wartungssicht eine Zeit- und Ressourcenverschwendung.



Web-Apps: Mobile Geräte haben in der Regel mobile Browser, so dass Web-basierte, HTML-BI-Anwendungen stets möglich sind. Mit HTML5 lassen sich dynamische, interaktive BI-Apps entwickeln, die sowohl auf PCs als auch auf den unterschiedlichen mobilen Geräten ablauffähig sind. Zwar verbraucht HTLM5 mehr Systemressourcen als native Apps, aber bei der Leistungsstärke heutiger mobiler Geräte spielt das keine Rolle mehr. Zudem ist HTLM5 ein anerkannter Webstandard, der Zukunftssicherheit bietet, also einen Investitionsschutz in die entwickelten Apps. Ein Problem bleibt allerdings: Web-Apps sind zwar überall ablauffähig, aber sie sind nicht an spezielle Gerätetypen angepasst. Dadurch können ergonomische Vorteile eines Geräts nicht voll genutzt werden. Daher war bisher bei den Nutzern die Akzeptanz solcher Lösungen niedrig, während in der Entwicklung ein solcher Ansatz natürlich bevorzugt wurde.

Einen Ausweg aus dieser Problematik gerätespezifischer Apps bietet heute das „responsive Webdesign“. Dabei handelt es sich um einen Design- und Technologieansatz auf Basis von HTLM5, der die Erstellung von Webseiten ermöglicht, die sich automatisch an den Gerätetyp und seine Eigenschaften anpassen. Dazu muss man pro Gerätetyp bzw. Geräteklasse Design-Regeln aufstellen, die in einem Style Guide abgelegt werden. Wird eine Web-App initiiert, dann erfolgt zuerst eine Media Query zur Geräteidentifikation, die dann ermöglicht, die entsprechenden Design-Regeln im Kontext der Web-App auszuführen. So kann die Visualisierung einer Webseite anhand der Anforderungen des jeweiligen Gerätes erfolgen, mit dem die Seite betrachtet wird. Dies betrifft insbesondere die Anordnung und Darstellung einzelner Elemente und die Navigationskontrollen. Ziel des responsiven Webdesigns im mobilen BI ist, dass sich die Visualisierung so an jedes Gerät anpasst und jeder Nutzer den Eindruck einer nativen BI-App bekommt, während in der Entwicklung jede App nur einmal identisch für alle Gerätetypen entwickelt wird. Dazu kommt als eine Art Anfangsinvestition das Erstellen des Style Guides, der im Laufe des Betriebs

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 38

Wolfgang Martin Team auch kontinuierlich erweitert und ergänzt werden kann. Das steigert die Akzeptanz bei den Nutzern und senkt in einem beträchtlichen Maße die Kosten in der Entwicklung und Wartung. Erste mobile BI-Lösungen auf Basis von responsive Webdesign sind Ende 2013 in den Markt gekommen. Einer unter den ersten Anbietern war arcplan mit der mobilen Version von arcplan 8 (Abb. 8). Der Einsatz mobiler BI in einem Unternehmen erfordert ein Programm, da in verschiedenen Bereichen der IT umfangreiche Herausforderungen entstehen. Das beginnt mit der Verwaltung der mobilen Geräte (Mobile Device Management - MDM15), die man als Erweiterung des herkömmlichen Client-Managements auf eine weitere Hardware-Kategorie betrachten kann. Daher haben inzwischen auch fast alle etablierten Anbieter von Software für das PC-Management mittlerweile auch Lösungen für mobile Geräte. Dazu gehören insbesondere Inventarisierung, Software-Verteilung und Sicherheitsrichtlinien. Hinzu kommen spezifische Funktionen für Smartphones und Tablets, die verhindern sollen, dass interne Daten unkontrolliert das Unternehmen verlassen:

Abbildung 8: Beispiel für responsives Webdesign mit der mobilen Version von arcplan 8: Ein Dashboard passt sich automatisch an die unterschiedlichen Bildschirmdimensionen eines Smartphones und eines Tablets an. Entsprechend erfolgt auch die Anpassung an die unterschiedlichen Navigationskontrollen.



Datensicherheit. Es muss gewährleistet sein, dass sensible Daten sowohl während der Übertragung auf das mobile Gerät als auch bei einer eventuellen lokalen Speicherung zu jeder Zeit verschlüsselt werden können.



Diebstahl/Verlust eines mobilen Geräts. Für Fälle dieser Art muss ein genaues Vorgehen ausgearbeitet werden, wie beispielsweise Ortung von Geräten und

15

Achtung: MDM bedeutet auch „master data management“, siehe Kap. 6.5.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 39

Wolfgang Martin Team Fernlöschung von sensiblen Daten, damit diese nicht in die Hände von Unbefugten gelangen können. 

Einsatz von privaten Geräten im Unternehmen (BYOD). Beim sogenannten BYOD müssen zusätzlich zu den Sicherheitsaspekten verschiedene organisatorische und rechtliche Fragen (z. B. Nutzungsrechte oder privates Nutzungsverhalten) beachtet, im Vorfeld geklärt und ggf. vertraglich fixiert werden.

Für BYOD-Szenarien bietet inzwischen Mobile Application Management (MAM) eine alternative Lösung, bei der Anwendungen und Daten innerhalb eines speziellen Bereiches für nicht verwaltete Geräte bereitgestellt werden. Ein solcher unternehmenseigener AppShop für Firmen-Apps und ihre Daten lässt sich sowohl durch Verschlüsselung schützen als auch durch eine Steuerung der Ausführung der Firmen-Apps über Richtlinien. So kann der Administrator beispielsweise bestimmen, unter welchen Bedingungen eine Firmen-App gestartet werden darf, und kann Apps mitsamt ihrer Daten gezielt löschen, ohne die privaten Daten eines Benutzers zu beeinträchtigen. Wenn Unternehmen in mobiler BI beide Szenarien unterstützen, also den Mitarbeitern in einem App-Store firmeneigene Apps zur Verfügung stellen und zusätzlich den Einsatz privater Geräte erlauben, dann benötigen sie eine Lösung, die MDM und MAM abdeckt. Die Kombination beider Ansätze wird als Enterprise Mobility Management bezeichnet. Zu einem solchen Management-Konzept gehört als weiterer Aspekt im Rahmen von mobiler BI auch die Synchronisierung von Daten. Das ist dann notwendig, wenn mobile Geräte nicht als primäre Geräte genutzt werden, sondern den Firmen-PC ergänzen. Beim Übergang von Gerät zu Gerät sollen die Nutzer stets ihre Daten und Dateien in der aktuellen Version vorfinden.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 40

Wolfgang Martin Team

3

Strategien, Prozesse, Menschen, Metriken und Governance

3.1

Prozess- und service-orientierte Business Intelligence

Wie wir gesehen haben, gehört Business Intelligence in den Kontext von Prozessen und damit natürlich auch in den Kontext von Strategien und Menschen. Geschäftsprozesse sind heutzutage funktionsübergreifend, abteilungsübergreifend, ja, sogar unternehmensübergreifend. Prozesse verbinden die Lieferanten der Lieferanten mit den Kunden der Kunden innerhalb eines kollaborativen Unternehmensnetzwerkes (vgl. Abb. 6). Definition: Ein Geschäftsprozess ist…. eine Menge von Aktivitäten & Aufgaben ausgeführt von Ressourcen (Services geleistet von Menschen & Maschinen) unter Nutzung unterschiedlicher Information (strukturiert & poly-strukturiert) mittels unterschiedlicher Interaktionen (vorhersehbar & unvorhersehbar) gesteuert von Management-Politiken und Prinzipien (Geschäftsregeln & Entscheidungskriterien) mit dem Ziel, vereinbarte Endergebnisse zu liefern (Strategien & Ziele) Die Vorteile solcher integrierten und durchgängigen („end-to-end“) Prozesse liegen auf der Hand: 

Kostenreduktion durch schnellere und sichere Prozesse. Durch Automation kommt man zu einer höheren Geschwindigkeit und Qualität von Prozessen, also zu höherem Durchsatz bei geringerem Einsatz von Ressourcen.



Schnellere Vermarktung durch integrierte, durchgängige Prozesse. Integrierte Prozesse verbessern die abteilungs- und unternehmensübergreifende Kollaboration und beschleunigen Produkt- und Serviceentwicklung.



Risikominimierung durch Steuern und Kontrollieren der Effizienz der Prozesse mittels Metriken zum Messen der Performanz von Prozessen gemäß dem Leitsatz: Man kann nur managen, was man auch messen kann.



Maximierung der Flexibilität und Agilität des Unternehmens durch kontinuierliches und schnelles Anpassen der Prozessmodelle an die Marktdynamik und Kundenanforderungen. So kann man beispielsweise auf Störfälle und unerwartete Ausnahmen schneller und flexibler reagieren.



Transparenz und Nachvollziehbarkeit durch die Prozesssicht. Damit werden die Auflagen der Behörden zur Compliance und die Anforderungen der Prüfer erfüllt. So wird Revisionssicherheit machbar.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 41

Wolfgang Martin Team Genau aus diesen Gründen ist „Business Process Management (BPM)“ eine der wichtigsten Anforderungen, die sich digitalen Unternehmen in ganz besonderem Maße stellt. BPM und Performance Management sind die prozessorientierte neueste Version der Unternehmensführung und Steuerung: Planung, Ausführung und Performance Management sind seit jeher die drei Basiselemente jeden Managements gewesen („mach einen Plan, führe ihn aus und sieh zu, dass dein Ergebnis in Einklang mit dem Plan bleibt“).

Performance Management – ein Regelkreis Ereignisse Ziel Strategie

Geschäftsprozess

Ergebnis

Zyklustakt

Agiere

Entscheide

Messe © 2015 S.A.R.L. Martin

9

Abbildung 9: Metrisch-orientiertes Management ist ein Top-down-Modell für informationsbasiertes Management. Messbare Ziele werden aus der Geschäftsstrategie abgeleitet. Auf Basis der Strategie und der Ziele werden parallel Prozesse und Metriken zur effizienten Geschäftssteuerung und kontinuierlichen Optimierung abgeleitet. Informationstechnisch werden dann die Prozesse und die Metriken durch operative, kollaborative und analytische Services im Rahmen einer SOA (service oriented architecture) unterstützt. Auf Basis des Auskommens der Metriken werden Entscheidungen getroffen entweder „manuell“ durch einen Menschen oder automatisiert durch Entscheidungsmaschinen. Entscheidungen führen zu Maßnahmen zur Steuerung von Prozessen und ihren Aktivitäten (taktisches und operatives Performance Management) als auch zur Anpassung und Änderung der Strategie und der Ziele (strategisches Performance Management): Der Regelkreis schließt sich. Wichtig ist die Synchronisierung zwischen dem Messen und der Prozessausführung: Die Geschwindigkeit des Mess- und Steuerprozesses muss der Geschwindigkeit des Geschäftsprozesses entsprechen – Grundvoraussetzung für digitales Unternehmen, das auch in Echtzeit arbeiten muss.

Performance Management im BPM-Modell umfasst alle Prozesse, die sich über alle Funktionen und Abteilungen innerhalb eines Unternehmens erstrecken und sogar darüber hinaus Unternehmen mit Unternehmen und / oder Verbrauchern verbinden. Metrischorientiertes Management ist das Top-down-Prinzip von Performance Management zur Optimierung des Managens eines Unternehmens per Regelkreisansatz (Abb. 8). Die Business-Strategie bestimmt, welche Geschäftsprozesse vom Unternehmen ausgeführt und gesteuert werden müssen. Geschäftsmetriken werden an jeden Geschäftsprozess gekoppelt. Die Geschäftsmetriken werden abgeleitet aus den Zielen, so dass der Prozess durch Information, Leistungs-(Performanz-)Metriken, Regeln und prädiktive Modelle mess-

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 42

Wolfgang Martin Team und steuerbar wird. Die letztendliche Konsequenz ist, dass so auch die Leistungen von Mitarbeitern, die für bestimmte Prozesse oder Services verantwortlich sind, bewertbar und objektiv(er) beurteilbar wird, was sich dann in Prämien oder Bonuszahlungen niederschlägt. Hier empfiehlt es sich dann aus arbeitsrechtlichen Gründen den Betriebsrat rechtzeitig einzubeziehen. Das Einbetten von Analytik in die Geschäftsprozesse erfordert einen neuen Ansatz zur Prozess-Modellierung. Das alleinige Modellieren von Prozess-Logik und -Fluss ist nicht mehr ausreichend. Wir müssen jetzt zusätzlich die Metriken und die Verantwortlichkeiten und Rollen modellieren. Das bedeutet, Strategie und Ziele mit den Prozessen, Metriken und Menschen zu verknüpfen, um das Kreislaufmodell zu schaffen. Entscheidend dazu ist eine Governance. Beispiel: Überwachen und Steuern des Vertriebsprozesses. Heutige Vertriebsmethodologien beschreiben und strukturieren die vertrieblichen Tätigkeiten entlang des Vertriebszyklus, der üblicherweise mit dem Identifizieren eines Interessenten beginnt und mit dem Zahlungseingang gemäß Rechnung basierend auf dem abgeschlossen Vertrag endet. Die Methodologie beschreibt die verschiedenen Stufen der Qualifizierung eines Interessenten bis hin zum Vertragsabschluss, sowie der Aktivitäten der Lieferung, Rechnungsstellung und Zahlung des Kunden. Die Anzahl der Stufen hängt von der gewählten Methodologie ab (und spielt in diesem Beispiel keine Rolle). Performance Management kommt hier mit den Metriken der Anzahl der qualifizierten Interessenten/Kunden pro Stufe, des geschätzten/realen Wertes eines Vertrages, der Übergangswahrscheinlichkeit von einer Stufe in die nächstfolgende und der Übergangszeit von einer Stufe in die folgende. Will man also als Ziel des Vertriebsprozesses einen Zahlungseingang von x € in einem bestimmten Monat erreichen, so lässt sich anhand der Metriken schätzen, wie viele Interessenten in jeder Qualifizierungsstufe man wann braucht, um das Ziel zu erfüllen. Stellt man fest, dass eine Zielerfüllung nicht möglich ist, so lassen sich die kritischen Parameter ablesen, die man durch Maßnahmen beeinflussen muss, um eine Zielerfüllung zu erreichen. So lässt sich der Vertriebsprozess mittels Performance Management proaktiv steuern und kontrollieren. Metrisch-orientiertes Management basiert auf Information Management (siehe Kap. 6). Information muss rechtzeitig verfügbar sein (vgl. Kap. 2.3), um manuelle oder automatisierte Entscheidungen für die Kontrolle des Prozesses auszulösen. Das entspricht einem „information supply chain“-Paradigma: die richtige Information zur richtigen Zeit am richtigen Ort zum richtigen Informationsverbraucher, der so die richtige Entscheidung treffen kann. Also bedeutet „rechtzeitig“ die Synchronisierung von Informationsbereitstellung mit Informationsbedarf. Eine Menge von Geschäftsmetriken repräsentiert eine Management-Politik innerhalb des metrisch-orientierten Managements. Die Idee, die dahintersteckt, ist überzeugend: Man kann nur managen, was man auch messen kann.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 43

Wolfgang Martin Team Deshalb ist die Flexibilität zum Ändern und Anpassen aller Metriken eine der wichtigsten Anforderungen an dieses Modell. Darüber hinaus müssen Geschäftsmetriken konsistent sein. Metriken verschiedener Prozesse dürfen sich nicht widersprechen. In der Tat sind Metriken funktions- und prozessübergreifend: die Performanz eines Geschäftsprozesses kann die Performanz eines anderen Prozesses beeinflussen oder ihm sogar entgegenwirken. Zum Beispiel wird die Liefertreue (vgl. Beispiel in Kap. 2.3), eine Metrik, die mit der Supply Chain verbunden ist, die Kundenzufriedenheit beeinflussen, die wiederum eine Metrik des Kundenbeziehungsmanagements ist. Diese Fragestellungen werden von so genannten „Business Scorecards“ adressiert. Eine Business Scorecard verbindet sämtliche Management-Politiken der Fachbereiche im gesamten Unternehmen zu einer einheitlichen und konsistenten UnternehmensManagement-Politik. Beispiele spezieller Business Scorecards sind Norton / Kaplans Balanced Scorecard oder das „Six Sigma Modell“. Die Balanced Scorecard ist beispielsweise eine Menge von Metriken, die nicht nur wie klassisches Controlling auf finanziellen Parametern basiert, sondern sie berücksichtigt ebenso Kunden-, Mitarbeiter- und Shareholderaspekte und ermöglicht so Einblick in die Geschäftsperformanz jenseits der rein finanzorientierten Quartalsergebnisse. Insofern handelt es sich hier um einen speziellen Typ von metrischorientiertem Management. Trotz der großen Vielfalt solcher Modelle, bleibt das große Ziel immer das gleiche: Wandle Daten in Information und Wissen um und maximiere deren Wert für das Geschäft durch „closing the loop“, i.e. die Einbringung von Information und Wissen zur Prozess-Planung, Überwachung und Steuerung. Es sollte auf keinen Fall vergessen werden, vor einer Übertreibung des Einsatzes von Metriken zu warnen. Es gilt nämlich vor allem auch das Prinzip: Man sollte nur messen, was sich zur Umsetzung im Management eignet und Maßnahmen auslösen kann. Neben der Frage der Konsistenz von Metriken, sind in diesem Sinne vor allem die folgenden Faktoren zu beachten, um den Erfolg von Performance Management sicher zu stellen16: 

Dysfunktionale Bonusvereinbarungen: Bonusvereinbarungen sind oft nicht mit den Unternehmensanforderungen abgestimmt, bzw. bei der Änderung von Zielen werden die Auswirkungen auf Bonusvereinbarungen übersehen oder gar vergessen. Das führt zu Entscheidungen und Maßnahmen von Managern und Mitarbeitern, die dann auch nicht mehr in Einklang mit den Unternehmensanforderungen stehen.



Mangelhafte Definitionen von Metriken. Man muss schon die richtigen Dinge messen, also beispielsweise bei der Steuerung des Vertriebsprozesses ist ein reines Zählen von Leads nicht ausreichend. Entscheidend sind die sich aus den Leads ergebenen Abschlüsse. Nur die ergeben eine realistische Metrik.

16

Quelle: David Kellogs Kellblog http://kellblog.com/2014/11/11/dont-be-a-metrics-slave/, Zugriff am 15. Januar 2015

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 44

Wolfgang Martin Team 

Zu wenige Frühindikatoren. Frühindikatoren sind Metriken, die “rechtzeitig” messen. Ein Frühindikator misst also die Variablen, die das Ergebnis beeinflussen, das mich interessiert und das ich steuern will. Nur dieses Endergebnis zu messen, hilft mir nicht, Maßnahmen zur Steuerung rechtzeitig einzuleiten.



Unzureichend definierte Metriken. Metriken müssen auf sauber definierten und verständlichen Variablen begründet sein. Sie werden sonst nicht ernst genommen, und sie könnten dann auch die Falschen belohnen bzw. bestrafen.



Sich-selbst erfüllende Metriken. Das sind Frühindikatoren, bei denen das Management die ursprüngliche Absicht und das Motiv aus den Augen verloren haben. Solche Metriken werden dann nur noch um ihrer selbst willen verfolgt und dann im Endeffekt sich-selbst erfüllend.



Blindes Vertrauen in Benchmarking. Benchmarking ist natürlich eine Methode, um Anhaltspunkte für branchentypische Metriken zu bekommen. Ein blindes Anwenden solcher Metriken führt allerdings nicht zu exzellenten Geschäftsprozessen und Modellen, sondern zum branchendurchschnittlichen Verhalten.

Performance Management wird angewendet auf alle Geschäftsfelder Kundenbeziehungsmanagement, Supply Chain Management, Personalwesen etc.

wie

Beispiel: Financial Performance Management ist wie jede andere analytische Lösung ein Prozess mit Rückkopplung („closed loop“), der das Performance und Information Management finanzieller Prozesse und Information beschreibt. Dieser Prozess erstreckt sich von Planung, Budgetierung, Forecasting und strategischer Planung bis zur Prüfung der Richtigkeit gemäß den gesetzlichen Anforderungen mittels finanzorientierter Metriken. Dazu gehören auch das gesetzliche Berichtswesen sowie die Bilanzkonsolidierung. Das beschreibt dann auch die gesetzlich geforderte Regeltreue im Rahmen der Compliance. Financial Performance Management umfasst auch Profitabilitätsanalyse sowie Werkzeuge wie Simulationen und Alternativanalysen („what-if-Analysen“). Entscheidungen werden getroffen mittels finanzorientierter Metriken und Analysen und werden zurückgekoppelt in die Planungs-, Budgetierungs- und Forecast Aktivitäten: Der Regelkreis wird geschlossen. Wie in Abbildung 9 schon angedeutet, findet Performance Management auf drei Ebenen statt, auf der operativen, der taktischen und der strategischen Ebene (Abb. 10). Business Intelligence war bisher auf Entscheidungsunterstützung im Rahmen strategischer Planung und taktischer Analyse ausgerichtet. Dazu dienen langfristig angelegte Metriken, die das Erreichen strategischer Ziele messen und überwachen, wie zum Beispiel Kundenzufriedenheit, Kundenwert, Liefertreue, Lieferantenbewertung, Personalfluktuation etc. Der Begriff der „Langfristigkeit“ bezieht sich dabei auf die Geschwindigkeit, mit der die zugehörigen Kennzahlen durch Maßnahmen beeinflussbar sind. Dazu wird in der Regel eine Ebene taktischer Ziele eingezogen, deren Erreichung Schritte auf dem Weg der strategischen Zielerfüllung darstellen. Maßnahmen, deren Wirkungen der Erreichung taktischer Ziele dienen, erstrecken sich üblicherweise in einem Zeitraum zwischen einigen Tagen und bis zu einigen Monaten. Im Zuge der Prozess-Orientierung wird nun Business Intelligence auch operationalisiert, d. h. operative Prozesse werden mittels Intelligenz auch kurzfristig überwacht und gesteuert. Operatives Performance Management wird auch „Process Performance Management“ (PPM) genannt und umfasst „Business Activity

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 45

Wolfgang Martin Team Monitoring (BAM)“ und „Complex Event Processing (CEP)”. BAM und CEP sind insofern wichtige Basiskonzepte des Monitoring und der Steuerung im Internet der Dinge, wenn es um die (Echtzeit-)Analysen von Datenströmen geht, beispielsweise von Maschinendaten und Server-Logdaten. BAM- und CEP-Konzepte diskutieren wir später in Kap. 7.1.

PM & Analytik – Zeitraster und Schichten traditionelle Business Intelligence

Strategische Strategisch Planung langfristig Taktische Taktisch Analyse mittelfristig – Tage, Wochen, Monate

Operative Intelligence (BAM + CEP) kurzfristig – mindestens am gleichen Tag

Operative Maßnahmen

Internet der Dinge 10

© 2015 S.A.R.L. Martin

Abbildung 10: Performance Management (PM) ist der Prozess, mit Hilfe von Metriken Geschäftsprozesse zu überwachen, Entscheidungen auf Grund dieser Messungen zu treffen und Maßnahmen zur Prozess- und / oder Performanz-Steuerung einzuleiten, ein Closed-loop-Ansatz zur Steuerung im Unternehmen. Performance Management reicht von operativem zu strategischem Performance Management. Mit operativem Performance Management haben wir auch ein Basiskonzept zum Überwachen und Steuern im Internet der Dinge. Ein wesentlicher Bestandteil aller Performance-Management-Ansätze ist, die Metriken auch in einen monetären Zusammenhang zu stellen. Dazu bedarf es eines prozessorientierten Rechnungswesens, das aber in aller Konsequenz heute nur in wenigen Unternehmen umgesetzt ist

Die Ideen zu Performance Management stammen aus der Kontrolltheorie: Genauso wie man eine Raumtemperatur über einen geschlossenen Regelkreis überwachen und steuern kann, so will man jetzt Geschäftsprozesse (auch operativ) überwachen und steuern. Die Überwachung und Steuerung von operativen Systemen wird durch die (Realtime-) Echtzeitprinzipien der Information Supply Chain ermöglicht. Das Konzept der Information Supply Chain bedeutet wie bereits gesagt, die richtige Information zur richtigen Zeit am richtigen Ort für den richtigen Zweck zur Verfügung zu haben. Im Performance-ManagementModell wird also Information als Bringschuld behandelt, i. e. eine eingehende oder entstehende Information wird über die Publish- and Subscribe-Kommunikationsmethode zeitnah an alle registrierten Informationsverbraucher propagiert. Im traditionellen DataWarehouse-Modell war dagegen Information eine Holschuld. Der Informationsverbraucher war dafür verantwortlich, sich seine Information selbst abzuholen.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 46

Wolfgang Martin Team Ein Beispiel gibt hier der Abgleich des Produktangebotes in einem Web-Shop mit der Produktverfügbarkeit. Die Produktverfügbarkeit ist eine operative Metrik, die den Bestand von Produkten an Hand der Verkaufs- und Lieferungs-Transaktionen misst. Die Produktverfügbarkeit ist also mit den Transaktionen synchronisiert. Sinkt nun die Produktverfügbarkeit unter einen vordefinierten Schwellenwert, so kann ein Alarm ausgelöst werden. Ein solcher Alarm könnte eine Nachlieferung automatisch auslösen. Ist eine Nachlieferung nicht möglich, dann könnte man das Produkt aus dem Katalog des Web-Shops herausnehmen oder sperren, so dass Kunden das Produkt nicht mehr bestellen können. Damit ist proaktiv sichergestellt, dass Kundenaufträge nicht storniert werden müssen, Lieferkosten und Kundenfrust werden vermieden. Zusätzlich könnte man auch noch automatisch einen Vermerk in den Web-Shop stellen, wann das Produkt wieder lieferbar wäre. Ähnlich stellt sich die Situation für einen Geld- oder Getränkeautomaten dar. Wenn eine solche Maschine mit einem entsprechenden Logistik-System vernetzt ist, dann kann die Maschine selbstständig nachbestellen, wenn der Vorrat in der Maschine unter den vordefinierten Schwellenwert gefallen ist. Hier haben wir es mit einem typischen Beispiel aus dem Internet der Dinge zu tun. Man sieht an diesem Beispiel, wie auf der operativen Ebene und insbesondere im Internet der Dinge Prozesse proaktiv mit Information überwacht und gesteuert werden können – alles „voll“ automatisch, also ohne manuelle Eingriffe von Produktmanagern. Übrigens, was bedeutet „Echtzeit“ in diesem Beispiel? Produktverfügbarkeit in Web-Shops wird in der Praxis typischerweise zweimal am Tag gemessen. Das ist ein Erfahrungswert, bei dem die Kosten des Messens in Einklang stehen mit den Kosten des Risikos, das aufgrund des Ignorierens der Produktverfügbarkeit entsteht. Diese Frage stellt sich allerdings nicht unbedingt im Internet der Dinge, denn Maschinen messen jedes Ereignis in Echtzeit ohne nennenswerte Mehrkosten, wenn sie lokale Intelligence besitzen. Zuerst tauchte operatives Performance Management bei Anbietern auf, die aus der Prozessmodellierung und der Business-Integration kamen. Sie nutzten beschreibende und graphische Elemente, um operative Leistungs-Metriken sichtbar zu machen. Mittels Prozesskostenrechnung kann man solche Metriken dann auch in einen monetären Kontext setzen. Technisch betrachtet bedeutet das, Zugang zu finanziellen Daten innerhalb eines Data Warehouse zu haben. Taktisches und strategisches Performance Management wurde ursprünglich von Anbietern traditioneller Business-Intelligence-Werkzeugen entwickelt, indem sie sich vom DataWarehouse-Modell und von Business-Intelligence-Werkzeugen hin zu analytischen Applikationen und einem geschlossenen Regelkreis-Modell bewegten. Die beiden unterschiedlichen Ansätze zu operativem Performance Management einerseits und taktischem, strategischem Performance Management andererseits konvergieren bereits seit 2005. Heute wird dieser Ansatz Zug um Zug auf das Internet der Dinge ausgeweitet.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 47

Wolfgang Martin Team 3.2

Die Governance: Rollen, Verantwortlichkeiten und Rechte

Ein entscheidender Erfolgsfaktor für Performance Management und Analytik ist die Governance. Governance im Allgemeinen bedeutet einen Ordnungsrahmen sowie eine Steuerung und Überwachung einer Geschäftseinheit gemäß vereinbarten Prinzipien. Diese Prinzipien können von außen beispielsweise durch den Gesetzgeber vorgegeben sein oder auch interne Regeln und Management-Politiken darstellen. Governance lässt sich daher auf unterschiedlichste Domänen anwenden. Bei Governance angewendet auf ein Unternehmen als Ganzes spricht man von Corporate Governance und angewendet auf die IT im Unternehmen von IT-Governance. Definieren wir daher zunächst Governance ganz allgemein: Definition: Governance bedeutet, ein regelkonformes Management und Verhalten festzulegen und sicher zu stellen. In allen Aktionen unserer Unternehmensressourcen – Menschen, Maschinen und Systemen – muss sichergestellt sein, dass die ManagementPolicies und Leitlinien beachtet und umgesetzt werden. Governance setzen wir in Performance Management und Analytik zur Beantwortung der Frage ein: Wer soll wann wo welche Information zu welchem Zweck bekommen? Es geht also um die Governance der Informationsbereitstellung, die wir jetzt der Einfachheit halber als „BI-Governance“ bezeichnen. Wir definieren: Definition: BI-Governance bezeichnet die Menge aller Prozesse, Metriken und Strukturen zum Managen und Schützen aller Unternehmens-Information, so dass die richtige Information und die richtigen Werkzeuge unternehmensweit rechtzeitig zu Analysen und Steuerungsaufgaben zur Verfügung stehen. Dazu dient ein Prozessträgermodell, das Rollen, Verantwortungen, Rechte und organisatorische Einheiten den Prozessen zuordnet. Das traditionelle Prozessmodell, das sich in der Regel auf die Modellierung der Prozesslogik („die Abläufe“) beschränkte, wird also nicht nur im Rahmen von Performance Management um die Modellierung der Metriken erweitert, sondern auch im Sinne der Governance um das Prozessträgermodell. In einem Prozessträgermodell wird bestimmt, wer die Beteiligten (Mitarbeiter, Partner, Zulieferer, Kunden etc.) am Prozess sind und für welche Prozesse und Aktivitäten innerhalb der Prozesse sie verantwortlich sind. So werden die Rollen aller an den Prozessen Beteiligten sowie die zugehörigen organisatorischen Einheiten in das Prozessmodell mit aufgenommen. Im metrisch-orientierten Management umfassen diese Prozessträgermodelle auch Informationsprofile, die die Zuordnung der notwendigen Metriken zur Prozess- und seiner Performanz-Steuerung beschreiben. Das bedeutet im Endeffekt ein Filtern von Information. Die am Prozess Beteiligten teilen Daten, Information und Wissen innerhalb ihrer prozessorientierten Kommunikation und Kollaboration. Daten und Information, die nicht in diesen Kontext gehören, werden herausgefiltert. Damit entsteht auch das Security-Modell mit seiner Rechtevergabe quasi als Beiprodukt dieser Top-down-Vorgehensweise. Das Teilen und Filtern von Information wird durch die Informationsprofile erreicht, die basierend auf dem Prozessträgermodell den Kontext von Kollaboration beschreiben. Das Informationsprofil stellt

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 48

Wolfgang Martin Team so die Beziehung zwischen Rollen und den zugehörigen Metriken dar und definiert die Struktur der entsprechenden Business Scorecard. (Abb. 11)

PM und Analytik: die Governance Policies

Policies

Governance

Policies

Organisation

Kultur/Ethik

Policies

externe interne

Menschen

Compliance Prozesse

Metriken Messwerte, Kennzahlen

Unternehmensstrategie / Ziele © 2015 S.A.R.L. Martin

11

Abbildung 11: Um Unternehmensstrategien operativ unter der Maßgabe der Zielerreichung umzusetzen, müssen Menschen, Prozesse und Metriken miteinander verknüpft werden, um sicherzustellen, dass jeder im Unternehmen so handelt, wie er/sie handeln sollte. Genau das bedeutet „Compliance“, ein pro-aktives, regelkonformes Management und Verhalten. Die Regeln werden durch Policies entweder extern vorgegeben (beispielsweise durch den Gesetzgeber) oder ergeben sich intern einerseits aus der Organisation und andererseits aus Kultur und Ethik des Unternehmens. Das fließt in der Governance zusammen. Die Governance regelt die Relationen zwischen Menschen, Prozessen und Metriken. Die Relationen zwischen Menschen und Prozessen beschreiben die Richtlinien, Verantwortlichkeiten und Verantwortungen, die Rollen und Rechte. Die Relationen zwischen Prozessen und Metriken werden durch Messwerte und Kennzahlen beschrieben, die im Sinne des Performance Managements (PM) die Leistung der Prozesse überwachen sollen. Schließlich werden die Relationen zwischen Menschen und Metriken durch Informationsprofile beschrieben, die genau die Menge und Strukturen der Metriken beschreibt, die ein Mensch im Sinne seiner Prozessverantwortung im Rahmen der Governance zur proaktiven Prozesssteuerung braucht. Ein Informationsprofil beschreibt so die Struktur einer Scorecard, mit dessen Hilfe die zugeordneten Metriken visualisiert werden.

Eine Business Scorecard dient der Visualisierung von Information gemäß einem Informationsprofil. Sie wird in der Regel als Portlet in einem Portal eingebettet (Abb. 12) oder im mobilen Internet durch eine entsprechende App. Ein Portlet genauso wie eine solche App ist ein Behälter für eine gewisse Menge von Information und/oder kollaborativen Werkzeugen. Portale als web-basierte Mensch-Maschine-Schnittstellen sind aus den Ideen früher Intranet- und Extranet-Lösungen als zentraler Kontrollpunkt entstanden. Ein Portal wird als ein System verstanden, das Teilen und Filtern von Daten / Information, Funktionen / Funktionalität, Inhalten / Wissen und Prozessen erlaubt. Die gleiche Rolle erfüllt eine entsprechende App im mobilen Internet. Dieses Teilen und Filtern steht natürlich wieder über das Informationsprofil in Zusammenhang mit der funktionalen Rolle eines kollaborativen Teams innerhalb eines Geschäftsträgermodells. Ein kollaboratives Team ist eine Gruppe von

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 49

Wolfgang Martin Team Menschen, die je nach Aufgabenstellung an das Team aus den verschiedenen kollaborativen Geschäftsparteien zusammengesetzt wird. Auf diese Weise unterstützen Portale und Apps funktions-, abteilungs- und unternehmensübergreifende virtuelle Teams. In Sonderfällen kann auch ein einzelner Portalbenutzer als Team gelten. In diesem Sinne unterstützen sie auch die Governance in Performance Management und Analytik. Eine solche Mensch-Maschine-Schnittstelle (vgl. Abb. 7) kann auch als Abstraktionsschicht verstanden werden, die Inhalte und Dienste bündelt und aggregiert und den Zugang erleichtert. Der Teamkontext bestimmt mittels der Rollen die Informationsprofile und so die Kollaborationsbandweite. Jeder Nutzer erhält so seine individuelle Umgebung, die sich weiter personalisieren lässt.

8

Abbildung 12: Beispiel eines BI-Portlets zum Einstieg in „seine“ Business Scorecard (fiktives Unternehmen, Screenshot erstellt mit Cubeware: Verschiedene Komponenten wie Chart, Tabelle mit Trendampeln, Top-1-Tabellen mit Bildampeln, Titeln, Logos und Hintergrund können frei platziert werden. Die Navigation erfolgt über Aktionsschaltflächen.) Zur Visualisierung wird heute vielfach wie in diesem Beispiel zum Stil einer Online-Zeitung gegriffen. Für einen solchen Ansatz hat die Quelle GmbH beispielsweise den BI Award 2008 gewonnen, der auf dem offiziellen Forum BI der Deutschen Messe AG auf der CeBIT 2008 vom BARC vergeben wurde (vgl. Kap. 4.4).

Man kann eine solche Mensch-Maschine-Schnittstelle auch als Integrationstechnologie verstehen: Die ultimative Integration wird erreicht durch menschliches Eingreifen, beispielsweise kann ein Benutzer innerhalb seines Teamkontexts einen Transfer zwischen

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 50

Wolfgang Martin Team Inhalten und Diensten durchführen. Kollaborative Werkzeuge sind hier sowohl synchrone als auch asynchrone Werkzeuge, wie E-Mail, Blogs, Co-Browsing, Chat, Foren, InstantMessaging, Web-Konferenzen, Wikis usw. Hier lassen sich also insbesondere die Technologien aus den sozialen Medien (social media) einbringen. Denn Social-MediaTechnologien sind service-orientiert, passen also bestens in die SOA-Infrastruktur und unterstützen die Kollaboration von Menschen und Teams. Im mobilen Internet wird das wieder über entsprechende Apps geleistet, wobei in der Regel eine App einem Mashing-up verschiedener Portal-Services entspricht. Da heutzutage fast jeder in irgendeiner Form im Privatleben soziale Medien und mobile Geräte nutzt, erwartet man auch, dass Softwarelösungen im Unternehmen in gleicher, mindestens ähnlicher Weise funktionieren. Das ist im Endeffekt ein wichtiger Erfolgsfaktor, um Begeisterung durch Technologie zu schaffen und so im Endeffekt auch Akzeptanz der Governance. Fazit: Ziel einer BI-Governance ist das Umsetzen der BI-Strategie in der Praxis – BI also im Sinne von Performance Management und Analytik zu leben – und im Tagesgeschäft erfolgreich ein- und umzusetzen.

3.3

Das Arbeiten mit Performance Management und Analytik

Jetzt ist die Frage der Nutzung von Information zu diskutieren. Welche Fähigkeiten und Unterstützung braucht man, um erfolgreich, effektiv und effizient aus Information mittels Performance Management und Analytik Wissen abzuleiten und Entscheidungen zu treffen? Hier setzt sich die Erkenntnis durch, dass man einen kombinierten Ansatz aus organisatorischen Maßnahmen und technischen Möglichkeiten einsetzen muss, um mit Performance Management und Analytik erfolgreich zu sein. Man setzt von diesen beiden Seiten aus an. Früher und zum Teil heute immer noch stand und steht in vielen Unternehmen die Technologie ganz vorne. BI-Lösungen wurden in der Regel von der IT ausgesucht. Nur die technologischen Aspekte und Konzepte zählten. Der Mensch als Nutzer von BI-Technologie wurde typischerweise vernachlässigt. Die Bedienbarkeit von Werkzeugen war ja – so glaubte man – in Schulungen erlernbar. Das war aber ein Irrtum und stets auch ein Grund, der viele BI-Projekte zum Scheitern brachte, denn traditionelle Business-Intelligence-Werkzeuge fanden trotz intensiver Schulungen bei weitem nicht immer die notwendige Akzeptanz. Besondere Business-Analysten oder Poweruser bildeten sich heraus, die BI-Aufgaben in den Abteilungen übernahmen. Information wurde zum Luxusgut, das nicht allen Mitarbeitern zur Verfügung stand. Um aus dieser Sackgasse herauszukommen, stellten konsequenterweise viele BI-Berater und Unternehmen jetzt den organisatorischen Ansatz ganz nach vorne und die Technologie hintenan. Das aber ist auch nicht der Weisheit letzter Schluss: Richtig ist, dass es ohne organisatorische Maßnahmen nicht geht, aber umgekehrt greifen organisatorische Maßnahmen nur dann, wenn die Mitarbeiter mitziehen. Dazu ist Akzeptanz notwendig, aber eine Begeisterung der Mitarbeiter noch besser. Zur Begeisterung der Mitarbeiter kann und

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 51

Wolfgang Martin Team sollte Technologie beitragen. Daher ist auch die Technologie ein kritischer Erfolgsfaktor von Business Intelligence, besonders auch um den wahren Wert und Nutzen von Information zu erfahren. Organisatorische und technische Aspekte von Performance Management und Analytik müssen daher ausgewogen werden, auf beide kommt es an. Zur Begeisterung der Mitarbeiter gehört eine technologisch perfekte Unterstützung der organisatorischen Maßnahmen. Im Zeitalter von sozialen Netzen, Smartphones und TabletRechnern muss die Bedienbarkeit aller Werkzeuge der Business Intelligence einfach stimmen. Da die Informationsbedürfnisse im Rahmen der BI-Governance über die jeweilige Rolle der Mitarbeiter bestimmt wird, müssen hier Organisation und Technologie Hand in Hand gehen. Die Werkzeuge müssen also nicht nur die notwendige Ergonomie bieten, sondern auch den Rollen entsprechend eingerichtet werden können (Abb. 13). So wird eine BI-Governance nicht als einengendes Regelwerk empfunden, sondern von allen Mitarbeitern auch gelebt. Mit einem einfachen, intuitiven und visuellen Bedienen der Werkzeuge entsprechend seiner Rolle schwinden Berührungsängste, werden Barrieren abgebaut und die notwendige Begeisterung aufgebaut. Das schafft Motivation: So erreicht man das Ziel von Governance, ein regelkonformes Management und Verhalten aller Mitarbeiter in Business Intelligence.

Rollen in PM und Analytik

DatenEntwicklung, Integration wissenschaftler

BusinessAnalysten

Controller, Planer

Fachexperten

gelegentliche externe Manager, Nutzer Geschäftsleitung Nutzer

rollenbezogene Nutzerräume

Governance

SDK analytische Plattform

IT/ Datenarchitekt

Big Data

Operative Daten

Data Warehouse

Files, XML, Spreadsheets

Events & Services

© 2015 S.A.R.L. Martin

13

Abbildung 13: Voraussetzung für den Erfolg mit Performance Management und Analytik ist eine Kombination von organisatorischen Maßnahmen mit Technologie und Architektur. Bei der Technologie sind entscheidend eine intuitive Bedienbarkeit der Werkzeuge, Automatisierung der Informationsbereitstellung und Analyse, rollenbezogene Werkzeuge im Sinne einer Governance und schließlich eine ausgereifte Datenintegration und Konnektivität. Die Architektur sollte service-orientiert sein, damit die Konnektivität eine leichte und flexible Integrierbarkeit bietet und so Agilität schafft. (SDK = Software Development Kit; diese dienen der Erweiterbar- und Anpassbarkeit der analytischen Plattform.)

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 52

Wolfgang Martin Team Eine Akzeptanz von BI-Werkzeugen beruht nicht nur auf der leichten, intuitiven Bedienbarkeit der Werkzeuge, sondern auch auf den Möglichkeiten der Automation von Arbeitsschritten und analytischen Prozessen. Die Schwachstellen in der heutigen Praxis mit Business Intelligence wie manuelle Informationsbereitstellung und manuelle Analyse müssen durch zuverlässige und sichere Automation abgelöst werden. Hier kommt es jetzt auf die Qualität der Werkzeuge im Sinne ihrer Architektur und Prozessorientierung an. Eine geeignete Technologie schafft neben guter Bedienbarkeit und Automation von Arbeitsschritten auch eine Autonomie von der IT: Man kann im Rahmen der BusinessIntelligence-Governance aufgrund der Ergonomie der Werkzeuge viele Aufgaben in der Fachabteilung selbständig lösen. Hier spricht man heute von Selbstbedienungs-BI (SelfService-BI, vgl. Kap. 5.1 und 5.2), ein Ansatz, der Technologie mit Organisation zusammenbringt. Definition Self-Service-BI. 2011 definierten Claudia Imhoff und Colin White Self-Service-BI als “the facilities within the BI environment that enable BI users to become more self-reliant and less dependent on the IT organization”17. Gemäß Imhoff/White sollte Self-Service-BI vier Zielsetzungen verfolgen: leichter Zugang zu Daten zur Berichtserstellung und Analyse, benutzerfreundliche BI- und Analyse-Werkzeuge, einfache und anpassbare Oberflächen der Werkzeuge und Data-Warehouse-Technologien, die schnell bereitgestellt werden können wie Appliances und Cloud-basierte Systeme. Aber Self-Service-BI ist nicht unbedingt ein Selbstläufer. Als erstes wird man feststellen, dass man den Trainingsaufwand völlig unterschätzt hat, denn gute Werkzeuge und leichter Zugang zu Daten ist nicht alles: Self-Service-BI beginnt in den Köpfen der Mitarbeiter. Wenn das nicht der Fall ist, dann landet man in einem Berichts-Chaos, erreicht eine totale Verwirrung unter den Nutzern und hat dann möglicherweise einen höheren Supportaufwand als in der traditionellen BI, wenn die IT Berichte baut und Daten analysiert. Die Einführung von Self-Service-BI sollte deshalb als ein Programm aufgesetzt werden. Als erstes gilt es festzustellen, was die unterschiedlichen Anforderungen an Self-Service-BI im Unternehmen sind: Wer sind die Nutzer und welche Art von Selbstbedienung wollen sie wirklich haben? Beispielsweise werden Technologie-affine Nutzer die Konzepte von SelfService-BI schnell verstehen und umsetzen können, während gelegentliche Nutzer schon zufrieden sind, wenn sie per Selbstbedienung Parameter in einem Bericht ändern können, um alternative Sichten auf Daten zu erhalten. Ein kritischer Erfolgsfaktor ist wieder Governance, auch wenn die IT teilweise die Kontrolle über die Datenanalyseprozesse abgibt. Aber genau deshalb erfordert Self-Service-BI eine enge Zusammenarbeit von Fachabteilungen und IT. Die Daten-Definitionen für die wichtigsten Performance Metriken müssen kommuniziert werden, so dass Berichte und Analysen konsistent bleiben. IT- und Fachabteilungs-Manager sollten im Rahmen der Governance die Nutzung von Self-Service-Software kontinuierlich aufzeichnen, um

siehe InformationAge „Self-Service Business Intelligence”, Juni 2013 http://www.informationage.com/technology/information-management/123457131/self-service-business-intelligence 17

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 53

Wolfgang Martin Team eventuelle Konflikte mit Compliance zu entdecken und zu korrigieren oder um Abfragen rechtzeitig zu stoppen, die das ganze BI-System lahm legen könnten. Ein weiterer kritischer Erfolgsfaktor sind wiederverwendbare Bausteine in der Self-ServiceBI-Umgebung. So sollten BI-Entwickler vordefinierte, nicht änderbare Performance-Metriken programmieren. BI-Manager sollten Start-Bibliotheken mit Berichts-Mustern und StandardAnalyseroutinen schaffen, so dass die Self-Service-BI-Nutzer nur noch auswählen und kombinieren müssen. Die IT sollte bei der Einführung von Self-Service-BI hier nicht zu wenig investieren: Das schafft die notwendige Standardisierung und macht alles erheblich leichter. Schließlich ist Kollaboration in den BI-Teams ein weiterer kritischer Erfolgsfaktor. Das sollte durch kollaborative Werkzeuge in den Self-Service-BI-Systemen unterstützt werden. Dazu gehören die Möglichkeiten Annotationen und Kommentare zu Berichten und Analyseergebnissen einzugeben, Berichte und Dashboards zu bewerten, mittels ChatFunktionalität Berichte und andere Ergebnisse anzupreisen, um mit Kollegen gemeinsam zu nutzen und andere. Wir werden solche kollaborativen Werkzeuge noch an verschiedenen Stellen in diesem Text genauer kennenlernen. So kann Performance Management und Analytik zu einer Selbstverständlichkeit im Tagesgeschäft werden. So steigt die Effizienz der Mitarbeiter. Sie können sich wieder voll auf ihre fachlichen Tätigkeiten konzentrieren, da die Technologie sie geeignet unterstützt und nicht mehr Selbstzweck ist. Umgekehrt wird durch die höhere Autonomie der Fachabteilung in Sachen Performance Management und Analytik auch die IT von Routineaufgaben entlastet. Die Governance gibt hier eine bessere und klar definierte Arbeitsteilung zwischen IT und Fachabteilung vor, die sich aufgrund der nutzerfreundlichen Eigenschaften der Werkzeuge auch so umsetzen lassen. So entspannt sich in vielen Fällen das Verhältnis zwischen IT und Fachabteilungen.

3.4

Das Business-Intelligence-Kompetenzzentrum

Eine BI-Governance besteht wie jede Governance aus vier Elementen: einer Organisationsstruktur, den BI-Governance-Prozessen, den entsprechenden ManagementPolicies und einer Technologieplattform. BI-Governance-Prozesse und Policies dienen der Steuerung und Überwachung des Business-Intelligence-Programms im Unternehmen. Diese Prozesse und Policies sind Prozesse zur Strategie, zum Design, zur Implementierung und zum Betrieb von Business Intelligence im Unternehmen. Dazu kommt noch ein kontinuierlicher Verbesserungsprozess, der sicherstellen soll, dass Erfahrungen und Lerneffekte kontinuierlich zur Verbesserung des BI-Programms beitragen. Dieses Modell der BI-Governance-Prozesse entspricht dem ITIL V3- und dem COBIT-Modell und nutzt so die Best Practices, die man im -Management von Informationstechnologien und Services gelernt hat. Ein BI-Kompetenzzentrum ist eine in vielen Unternehmen genutzte Organisationsstruktur von BI-Governance. Es ist eine funktionsübergreifende Einheit im Unternehmen, die als interdisziplinäres Team verantwortlich ist, den Einsatz von BI im Unternehmen zu fördern. Es besteht aus einem Leitungsgremium, dem ein BI-Sponsor vorsitzt, dem eigentlichen

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 54

Wolfgang Martin Team Kompetenzzentrum und den Business-Analysten und Data Stewards. Der Sponsor sollte aus der Geschäftsführung oder dem Vorstand kommen, damit die BI-Strategie und die Policies der BI-Governance im gesamten Unternehmen auch durchgesetzt werden können. Die Business-Analysten und Data Stewards sitzen in den Fachbereichen und sind dort über die Information Governance eingebunden. Hier trifft sich die BI-Governance mit der Information Governance. Auf die Aufgaben einer Information Governance, ihre Beziehung zur BIGovernance und die Rolle von Data Stewards gehen wir in den Kapiteln 6.8 und 6.9 im Einzelnen ein. Das BI-Kompetenzzentrum zentralisiert das Management der BI-Strategie und der BIMethoden, -Standards, -Regeln und -Technologien (Abb. 14). Sein Leitsatz ist: Das BIKompetenzzentrum plant, unterstützt und koordiniert BI-Projekte und sorgt für den effizienten Einsatz aller Ressourcen und der Technologie. Seine Aufgaben sind: 

Steuerung der Anwendungslandschaft für Performance Management und Analytik,



Standardisierung von Methoden und Werkzeugen,



Koordination von Fachabteilungen und IT in Sachen Performance Management und Analytik,



Erkennen und kommunizieren von Best Practices von BI-Szenarien,



Methodische und fachliche Unterstützung in allen Fragestellungen und aller Projekte in Performance Management und Analytik,



Querschnittsaufgaben von internem Marketing über Schulungen bis hin zum Change Management,



Bereitstellung der Daten mittels Information Management in der richtigen Datenqualität. Das kann allerdings auch durch ein eigenes Information Management Kompetenzzentrum geleistet werden (vgl. Kap. 6.8).

Typischerweise werden die traditionellen BI-Rollen der Business-Analysten und Poweruser jetzt organisatorisch dem BI-Kompetenzzentrum zugeordnet. Dabei wandeln sich die Rollen entsprechend. Aufgrund der deutlich besseren Softwareergonomie von Analytik- und Performance-Management-Werkzeugen werden die Business-Analysten weniger Zeit zur Informationsbeschaffung auf Zuruf verbringen müssen. Das gibt ihnen mehr Zeit für interaktive Analyse („Data Discovery“), was zu einer höheren Wertschöpfung im Unternehmen führt. Als weitere Aufgabe kommt dazu, die fachlichen und technischen Elemente von Analytik und Performance Management (vgl. Kap.4.1 und 4.2) zu managen. Das bedeutet insbesondere das Identifizieren und Kommunizieren von Best Practices für analytische Szenarios gemeinsam mit den Informationskonsumenten. Wenn ein Informationskonsument mit einer neuen, noch nicht dagewesenen Herausforderung konfrontiert wird, wie eine Analyse aufgesetzt oder weiterverwendet oder wie die richtige Information dazu gefunden werden kann, wird gemeinsam mit den Business-Analysten des BI-Kompetenzzentrums ein neues Szenario kollaborativ entwickelt. Solche Lösungen werden als Szenarien im BI-Portfolio zur Wiederverwendung eingestellt und kommuniziert. Das BIKompetenzzentrum lernt so beständig und verbessert stetig sein Lösungsportfolio. Das entspricht einem kontinuierlichen Verbesserungsprozess. Das Ergebnis der Einrichtung eines BI-Kompetenzzentrums wurde in vielen BI-Programmen aufgezeigt: So lassen sich BI-Vorhaben schneller voranbringen und Überschneidungen

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 55

Wolfgang Martin Team vermeiden. Beides senkt die Kosten. Als ständige Einrichtung kann das BIKompetenzzentrum sowohl innerhalb der IT-Organisation als auch in einer operativen Fachabteilung wie dem Finanzressort angesiedelt sein. Für BI-Kompetenzzentren gilt grundsätzlich: Sie sind unternehmensspezifisch und sollten auf jeden Fall an die Kultur und Business-Ethik des Unternehmens angepasst sein. Darüber hinaus gibt es aber eine Reihe von Erfolgsfaktoren, die man unbedingt beachten sollte.

Managen eines BI-Kompetenzzentrums Der Leiter des BI-Kompetenzzentrums

Durchsetzungskraft

Kultur von “Kompetenz-Zentren”



zentrales CC virtuelles CC

Koordiniert Ressourcen & vermeidet Divergenzen  

Standards

 

Best Practices

  

Lenkungsausschuß

BI-Kompetenzzentrum Programm Direktor

Projekt-Leiter

Methodologist

Querschnittsaufgaben

Projekt n

Projekt 1

...

aggregiert & koordiniert Projekte setzt die Meilensteine koordiniert das Budget managt Abhängigkeiten priorisiert optimiert den Betrieb von BI managt Performanz & Wert



Konstruiert Metriken



Kommuniziert Best Practices



Definiert Methodologie und Standards



Optimiert Nutzerkompetenz



Wählt die Technologie



Garantiert die Unternehmenssicht



Berichtet an den BI-Sponsor

Internes Marketing & Kommunikation © 2015 S.A.R.L. Martin

14

Abbildung 14: Ein BI-Kompetenzzentrum kann unterschiedlich organisiert werden und so auch mit unterschiedlicher Durchsetzungskraft und Befugnissen ausgestattet sein. Die Darstellung unten zeigt die Architektur, oben die gelebte Kultur. Man kann mit dem einfachen Sammeln und Vermarkten von Best Practices beginnen, dann in einem Folgeschritt Standards aufstellen und kommunizieren und schließlich entweder virtuell oder zentral die proaktive Nutzung der Standards fördern und den BIProjekten zentrale Dienste zur Unterstützung anbieten.



Die Überzeugung aller Beteiligten und Stakeholder vom Wert eines BIKompetenzzentrums ist entscheidend. Hier ist vor allem auch die Rolle des Sponsors gefragt, damit das BI-Kompetenzzentrum auch nachhaltig gegen Widerstände auf allen Unternehmensebenen implementiert werden kann. Eine entsprechend deutlich kommunizierte Position des Vorstands ist erfolgsentscheidend.



Ein BI-Kompetenzzentrum sollte ein Mission-Statement haben, das die Ziele und Kompetenzen klar definiert. Dazu gehört auch die Einbindung in die Prozesslandkarte des Unternehmens. So werden mögliche Widerstände und Gerangel um Kompetenzen rechtzeitig geregelt und vermieden.



Die Einführung eines BI-Kompetenzzentrums sollte nicht in einem Big-Bang erfolgen, sondern schrittweise. In den ersten Schritten sollten die Aufgabenfelder angegangen werden, die den höchsten erkennbaren Mehrwert haben und bei denen sich Erfolge möglichst rasch und zügig einstellen und kommunizieren lassen.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 56

Wolfgang Martin Team 

Ein BI-Kompetenzzentrum ist ein Dienstleister. Das Portfolio der Dienstleistungen ist sauber zu definieren und zu beschreiben, damit allen im Unternehmen klar ist, wie sie vom BI-Kompetenzzentrum unterstützt werden können, wie sich dadurch ihre eigene Arbeit und ihr eigener Aufgabenbereich ändert und welche Schnittstellen es gibt.



Ein kontinuierlicher Verbesserungsprozess (der ja zu jeder Governance gehört) muss etabliert werden. Dazu gehört insbesondere das Messen der Leistung des BIKompetenzzentrums mit Metriken wie durchschnittliche Umsetzungsdauer von Anforderungen, Anzahl gelöster Fälle, Steigerung des Reifegrades der BI im Unternehmen etc. und natürlich auch das Einhalten von vereinbarten Service Level Agreements.



Das Team im BI-Kompetenzzentrum sollte interdisziplinär sein. Die Kompetenzen umfassen eben IT, fachspezifisches und unternehmensspezifisches Know How. Nur so kann eine erfolgreiche Kommunikation des BI-Kompetenzzentrums mit den Fachabteilungen und der IT gewährleistet werden. Das bedeutet auch, dass eine gewisse Zahl von altgedienten Experten aus den Fachbereichen in einem BIKompetenzzentrum mit innovativem technologischen und Prozess-Know-How integriert und kombiniert werden muss.

3.5

Agile Methoden in BI-Projekten

Aus Sicht der Fachabteilungen dauert Anwendungsentwicklung in der IT grundsätzlich zu lange. Das trifft insbesondere für BI-Projekte zu. Der Grund sind unter anderem die in der Anwendungsentwicklung benutzten traditionellen Methoden wie das Wasserfallmodell zur Projektdurchführung. In der Vergangenheit hat man solche Methoden auch für BI-Projekte angewendet und entsprechend auch alle Nachteile geerbt. Inzwischen gibt es in der Anwendungsentwicklung neue Methoden wie die agile Anwendungsentwicklung, die sich in der Praxis der traditionellen Methode des Wasserfallmodells als überlegen erwiesen hat: Projekte werden schneller und vor allem in der geplanten Zeit und im geplanten Budgetrahmen abgewickelt. Inzwischen hat der Ansatz, agile Methoden anzuwenden, sich auch bei BI-Projekte bewährt. Was ist hier neu? Der große Vorteil agiler Methoden besteht darin, dass funktionierende und einsetzbare Ergebnisse nicht erst am Ende eines langen und für die Fachabteilungen nicht wirklich überschaubaren Entwicklungsprozesses entstehen, sondern sofort implementiert und betrieben werden können. Der Entwicklungsprozess wird aufgebrochen und in kleine überschaubare Pakete gegliedert. Dabei wird jedes Paket innerhalb eines gegebenen Zeitfensters bearbeitet. Funktionalität, die entgegen dem Plan in einem solchen Zeitfenster nicht implementiert werden kann, wird weggelassen. Man folgt in einer solchen Entwicklungsmethode dem sogenannten „agilen Manifest“18.Aus diesem agilen Manifest hat die Arbeitsgruppe „Agile BI“ des TDWI Germany E.V. das Memorandum für Agile BI

18

siehe http://agilemanifesto.org/iso/de/manifesto.html; Zugriff am 03.12. 2014.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 57

Wolfgang Martin Team herausgegeben19. Wir geben die dort erarbeiteten „Agile-BI-Werte“ und „Agile-BI-Prinzipien“ hier wieder: Agile-BI-Werte 1. Unternehmensnutzen ist wichtiger als das Festhalten an Methoden und Architekturkonzepten. 2. Kontinuierliche Zusammenarbeit und Interaktion zwischen Anforderern und Umsetzern sind wichtiger als Prozesse und Werkzeuge. 3. Eingehen auf Veränderungen ist wichtiger als Festhalten an einem Plan. 4. Funktionierende BI-Lösungen sind wichtiger als detaillierte Spezifikationen. Agile-BI-Prinzipien 1. Das übergeordnete Ziel von Agile BI ist es, frühzeitig Unternehmensnutzen zu stiften. 2. Agile BI erfordert Struktur, Disziplin und Verständnis. 3. Je nach benötigtem Grad an BI-Agilität können verschiedene Vorgehensmodelle, Methoden und Werkzeuge eingesetzt und kombiniert werden. 4. Verschiedene fachliche Anforderungen an ein BI-System, die einen unterschiedlichen Grad an BI-Agilität benötigen, sind in einem Gesamtkonzept einzubetten sowie architektonisch und organisatorisch zu trennen. 5. BI ist ein kontinuierlicher Prozess, daher ist zur Erhaltung der BI-Agilität die BI in all ihren drei Bereichen Architektur, Prozesse und Aufbauorganisation regelmäßig zu hinterfragen. 6. Bei der Einführung oder dem Austausch einer bestehenden Architekturkomponente ist eine initiale Phase zum Setting des Big Picture und Abgleich mit einem Gesamtkonzept erforderlich. 7. Projektmitarbeiter benötigen die Fähigkeit und den Willen, Vorgehensmodelle, Methoden und Werkzeuge bewusst einzusetzen. 8. Ein Projektteam ist interdisziplinär aufgestellt. 9. Ein Projektteam besteht sowohl aus Umsetzern wie aus Anforderern, die das Projekt gemeinsam durchführen. 10. BI-Agilität kann nur langfristig erfolgreich erhalten werden, wenn die Agile-BI-Prinzipien Teil der BI-Governance sind. In agilen BI-Projekten wird der bekannten Tatsache Rechnung getragen, dass nicht alle Anforderungen an die angestrebte Lösung von vorneherein bekannt sind und dass der Entwicklungsprozesse nicht vollständig planbar ist. Man fasst daher den Entwicklungsprozess als lernenden Prozess auf. Aus den Konzepten der agilen Anwendungsentwicklung haben sich einige Konstrukte als besonders wertvoll für agile BIProjekte erwiesen: 

User Stories. Anforderungen an die Software-Lösung sollen allgemein verständlich in natürlicher Sprache beschrieben und nicht durch ein IT-geprägtes Fachchinesisch verklausuliert werden.



Product Backlog. Das ist die Zusammenstellung aller Anforderungen an die Lösung. Der Product Backlog hat einen Verantwortlichen, der die Inhalte priorisiert. Inhalte

siehe Trahasch, S. et al. (Hrsg.) : Memorandum für Agile Business Intelligence – Entstehungsgeschichte, Werte, Prinzipien und Fallbeispiele; dpunkt, Heidelberg, 2014. 19

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 58

Wolfgang Martin Team können jederzeit hinzugefügt oder auch gestrichen werden: Der Product Backlog ist ein „lebendes System“. 

Sprints. Die gehören zu den Kernideen agiler Methoden. Ein Sprint dient der Abarbeitung einer festgelegten Menge von Anforderungen aus dem Product Backlog. Ziel eines Sprints ist es, in einem vorgegebenen Zeitfenster funktions- und betriebsfähige Softwarekomponenten zu liefern.



Test-gesteuerte Entwicklung. Das Testen erfolgt genau wie die Entwicklung in kleinen Schritten. Test-gesteuerte Entwicklung bedeutet, dass zuerst der Test definiert wird und dann erst der Programmcode geschrieben wird, der den Testanforderungen unterworfen wird.

Die Schwierigkeit bei agilen Methoden besteht darin, dass man altbekannte und erprobte Vorgehensweisen über Bord werfen muss. Projektorganisation und Steuerung agiler Projekte müssen völlig neu im Unternehmen etabliert werden und stoßen auf viel Widerstand, weil sie traditionellen Auffassungen geprägt durch die Unternehmenskultur entgegenstehen. Agile Methoden sind in der Tat neu in die Unternehmenskultur zu integrieren, bzw. die Unternehmenskultur muss entsprechend verändert und angepasst werden. Eine weitere Schwierigkeit bei agilen BI-Projekten besteht darin, dass sie grundsätzlich viele Schnittstellen zu anderen Projekten und Systemen haben, vor allem auch zu operativen Transaktionssystemen. Das erfordert bekanntlich einen hohen Abstimmungs- und Koordinationsaufwand. Das wird nun leider besonders schwierig, wenn die parallel laufenden Projekte nicht nach agilen Methoden entwickelt werden. Hier kann es zu erheblichen Reibungsverlusten kommen, wenn die Projektleiter der nach traditionellen Methoden vorgehenden Projekte auf schriftlich fixierte Definitionen zu Projektbeginn bestehen, die ein agil durchgeführtes BI-Projekt nicht liefern kann und will, weil eine solche Festlegung dem agilen Manifest widerspricht. Hier helfen dann in der Regel nur noch Managemententscheidungen. Agile BI-Projekte entziehen sich auch einer traditionellen und rigiden Budgetkontrolle. Denn die in agilen Projekten zulässigen Anforderungsänderungen bedeuten ja im Endeffekt auch Budgetänderungen. Hier gibt es inzwischen verschiedene Budgetmodelle, die das berücksichtigen wollen. Trotz dieser Herausforderungen sind agile Methoden für BI-Projekte absolut empfehlenswert, weil hier die Methoden der Natur des Problems entsprechen. Es gibt hierzu verschiedene Untersuchungen, die die Vorteile agiler BI-Projekte belegen20.

siehe Krawatzeck, R., Zimmer, M., Trahasch, S. : Agile Business Intelligence – Definition, Maßnahmen und Herausforderungen. In: HMD – Praxis der Wirtschaftsinformatik, 50 (2), 2013, S. 56-63. 20

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 59

Wolfgang Martin Team 3.6

Rollen in der Big-Data-Analytik

Big-Data-Analytik erfordert gegenüber der traditionellen Analytik neue Skills und Rollen, die sich organisatorisch gesehen am besten wieder im BI-Kompetenzzentrum ansiedeln lassen. In einigen Unternehmen wie Amazon, eBay, Facebook, Google, Twitter u.a., die sich schon einige Zeit mit Big Data beschäftigen, haben sich solche neuen Rollen gebildet, die zusammen ein Big-Data-Team ausmachen. Die fünf wichtigsten Rollen in einem solchen Team findet man in einem Vorschlag von McKinsey & Company21. Dieser Beitrag beschäftigt sich zwar mehr mit Big-Data-Marketingprojekten, aber er ist allgemein genug geschrieben, um auf andere Big-Data-Projekttypen übertragen werden zu können. Insbesondere identifiziert der McKinsey-Ansatz Rollen statt Job-Bezeichnungen. Daraus lassen sich dann direkt die notwendige Expertise und die Job-Beschreibung ableiten. Es geht um die fünf folgenden Rollen (Ich habe die amerikanischen Bezeichnungen stehen gelassen): 

Data Hygienists stellen sicher, dass die Daten bereinigt und richtig sind und auch über den Lebenszyklus der Daten so bleiben. Dieses Data Cleansing (s. Kap. 6.6) beginnt ganz am Anfang des Projektes, wenn die ersten Daten erfasst werden. Daran sind alle Team-Mitglieder beteiligt, die diese Daten nutzen wollen.



Data Explorers durchsuchen das Big-Data-Universum, um die Daten aufzufinden, die man im Projekt braucht. Dazu gehört auch die Aufbereitung der Daten für das Projekt, denn die meisten Daten draußen waren niemals erzeugt, um analytisch untersucht zu werden, sind also weder für eine Analyse gespeichert noch organisiert.



Business Solution Architects—Diese Rolle hat die Aufgabe, die identifizierten Daten zusammenzustellen und für die Analyse vorzubereiten. Dazu werden die Daten auch für die erwarteten Abfragen strukturiert. Daten, die im Minuten- oder Stundentakt benötigt werden, müssen dann auch entsprechend aufgefrischt werden.



Data Scientists—Hier geht es um das Organisieren der Daten und das Bauen von analytischen Modellen im Rahmen des Projektes. Dazu gehört auch das Überprüfen, Ändern und Ersetzen von Modellen wenn notwendig sowie die Kommunikation von analytischen Resultaten gegenüber dem Vorstand und dem gesamten Unternehmen.



Campaign Experts—Die Aufgaben sind das Interpretieren der Ergebnisse und das entsprechende Umsetzen in Aktionen. Dazu gehören auch das Priorisieren von Kanälen und das Festlegen der Kampagnen-Sequenzen.

Die Rollen Data Explorers und Campaign Experts benötigen Expertisen wie Cognitive Science und Behavioral Economics. Solche Expertise ist notwendig, um zu identifizieren, welche Daten für das Projekt wichtig sind und welche nicht. Sie ist auch von großer Hilfe in der Interpretation von Ergebnissen und entsprechenden Umsetzungen. Daher ist McKinseys Rollenmodell so wichtig. Wenn man Aufgaben und Rollen verstanden hat, weiß man, welche Experten man im Projekt braucht. Auf die Data Scientists wollen wir noch genauer eingehen. Das sind Mitarbeiter mit folgendem weiter detaillierten Profil:

siehe im Blog „Five Roles You Need on Your Big Data Team” des Harvard Business Review (Juli 2013) http://blogs.hbr.org/cs/2013/07/five_roles_you_need_on_your_bi.html?utm_source=Socialflow&utm_medium=Tw eet&utm_campaign=Socialflow 21

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 60

Wolfgang Martin Team 

Technische Expertise: Tiefe Kenntnisse in einer Natur- oder Ingenieurs-Wissenschaft sind notwendig. Die bilden die Grundlage, um als Data Scientist erfolgreich arbeiten zu können. Insofern sollte man zukünftige Data Scientists in dieser Gruppe suchen und dann auch die weiteren geforderten Eigenschaften testen.



Problembewusstsein: die Fähigkeit, ein Problem in testbare Hypothesen aufzubrechen.



Kommunikation: die Fähigkeit, komplexe Dinge per Anekdoten durch einfach verständliche und gut vermittelbare Sachverhalte darzustellen.



Kreativität: die Fähigkeit, Probleme mit anderen Augen zu sehen und anzugehen („thinking out oft he box“).

Hier lassen sich weitere Rollen ableiten, so dass man vor allem in größeren Unternehmen zwei Typen von Data Scientists finden wird. Zum einen bildet sich hier eine neue Generation von Business-Analysten, die direkt für die Entscheidungsträger arbeiten, verantwortlich sind für die analytischen Ergebnisse und die die Ergebnisse in der Sprache der Entscheidungsträger kommunizieren. Die zweite Rolle fokussiert sich auf Statistik und Mathematik, entwirft Modelle und ist verantwortlich für die Korrektheit und Vollständigkeit der Daten. “Data scientists turn big data into big value, delivering products that delight users, and insight that informs business decisions. Strong analytical skills are given: above all a data scientist needs to be able to derive robust conclusions from data.” Daniel Tunkelang, Principal Data Scientist, LinkedIn Im Endeffekt wird so Datenmanagement wieder zur eigentlichen und Hauptaufgabe der IT22, während das Beherrschen der Prozesse und der Analytik die Hauptaufgabe der Fachbereiche ist. Das bedeutet aber auch, dass Data Scientists sich eher aus Fachabteilungen rekrutieren als aus der IT.

22

Das unterstreichen einige neuere Marktstudien, siehe den Beitrag bei InformationAge http://www.informationage.com/channels/information-management/features/1687078/its-focus-shifts-to-data-management.thtml

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 61

Wolfgang Martin Team

4

Methoden und Technologien

Performance Management arbeitet anders als traditionelle Business Intelligence. Da standen Werkzeuge im Mittelpunkt wie OLAP, Spreadsheets, Berichte, Ad-hoc-Abfragen, statistische und Data-Mining-Werkzeuge. Performance Management kommt mit neuen fachlichen und technischen Elementen. Ziel ist, dass jeder an Prozessen Beteiligte aus Analytik Nutzen ziehen kann ohne zum Analytik-Spezialisten zu werden. Das beschränkt sich nicht nur auf die Mitarbeiter des Unternehmens, sondern umfasst auch die Lieferanten, Partner, Händler, sogar die Kunden. Analytik muss in diesem Sinne für jedermann konsumierbar sein.

4.1

Die fachlichen Elemente von Performance Management

Metrik und Key Performance-Metrik – Wie wir schon gesehen haben, beschreiben Metriken, wie die Leistung eines Prozesses zu messen und zu managen ist und / oder wie ein Prozess zu überwachen und zu steuern ist. Sie werden durch Metrisierung der Unternehmens- und Prozess-Ziele abgeleitet. Metriken werden wie Sensoren entlang der Prozessstrecke eingesetzt, um ein proaktives Erkennen von Problemen (also beispielsweise das absehbare Nichterreichen des geplanten Endergebnisses) zu ermöglichen, so dass man rechtzeitig gegensteuern kann. (vgl. das Beispiel: Überwachen und Steuern eines Vertriebsprozesses auf S.43) Eine Metrik besteht aus Kennzahlen und ihren Skalen, um das Auskommen der Kennzahl zu interpretieren, zu bewerten und Entscheidungen zu treffen. Bei der Modellierung eines Prozesses sollen ja gleichzeitig die Metriken modelliert werden. Dabei wird auch die Skala festgelegt. In der Regel wird eine Skala aus der Planung abgeleitet, weil dort die Prozessziele festgelegt werden. Eine Skala könnte aber auch durch ein Service Level Agreement vorgegeben oder durch Management-Politiken bestimmt sein. Eine Key Performance-Metrik (KPM) ist eine zusammengesetzte, aggregierte Metrik. Liefertreue ist beispielsweise eine Key Performance-Metrik, die sich aus einer Metrik wie Lieferzeit aggregiert über alle Kunden und über einen vordefinierten Zeitraum zusammensetzen könnte. Einem Mitarbeiter werden typischerweise im Rahmen seiner Rollen und Verantwortlichkeiten viele Metriken zugeordnet sein, aber nur wenige KPM. In der Regel werden die KPM mit den persönlichen Zielen der Mitarbeiter verbunden und haben so in der Regel einen gehaltsrelevanten Einfluss (vgl. Kap. 3.1). Die Interpretation des Auskommens einer Metrik und das Treffen der richtigen Entscheidungen zum Einleiten von Maßnahmen werden von den Ressourcen vorgenommen, die im Sinne der Informationsprofile der BI-Governance verantwortlich sind. Das können also Menschen oder Systeme sein. Im Beispiel der Liefertreue als KPM ist ein Entscheidungsträger, also ein Mensch verantwortlich. Bei einem solchen menschlichen Eingreifen werden die Skalen üblicherweise visualisiert durch Verkehrsampeln, Tachometer oder andere geeignete Symbole. Grüne, gelbe oder rote Anzeigen beschleunigen das

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 62

Wolfgang Martin Team Erkennen von Abweichungen und Ausnahmen und erleichtern so die Interpretation des Auskommens der KPM oder Metriken. Gut bewährt hat sich auch eine zusätzliche Anzeige des Trends einer Metrik. So kann eine rot anzeigende Ampel dann einen grünen Trend haben, wenn der aktuelle Wert der Metrik zwar immer noch rot ist, aber doch eine Verbesserung gegenüber dem letzten Status zeigt. Im Web-Shop-Beispiel (Steuern des Produktkatalogs per Produktverfügbarkeit; S.46) wird die Interpretation automatisch durch eine Entscheidungsmaschine, also ein System vorgenommen – eine Visualisierung ist hier nicht unbedingt notwendig.

Abbildung 15: Beispiel einer Strategy Map eines Balanced-Scorecard-Modells realisiert mit Actuate/BIRT 360+. In der hier gezeigten Strategy Map werden die Eingangs- und Prozess-Metriken in einer Ursache-Wirkungsbeziehung zu ihren entsprechenden Ausgangsmetriken dargestellt. Diese visuelle Darstellung der Strategie erlaubt der Organisation ihre Effektivität zu bewerten, in dem man die KPMs jedes Unternehmensziels verfolgt.

Business Scorecard – Die Business Scorecard hatten wir bereits in Kap. 3.2 als Visualisierung eines Informationsprofils kennengelernt. Sie ist eine konsistente, umfassende Gruppe von Metriken gemäß einer Management-Politik, um die Performance (Leistung) einer Gruppe von Prozessen, einer Sparte oder des gesamten Unternehmens zu überwachen und zu steuern. Konsistenz bedeutet insbesondere, dass Metriken sich nicht widersprechen und so Konflikte zwischen Rollen und kollaborativen Teams schaffen, die in unterschiedlichen Kontexten arbeiten. Der Begriff wurde ursprünglich für strategisches Performance Management entwickelt, er lässt sich aber problemlos auf die anderen zeitlichen Ebenen übertragen. Bekannte Modelle von Scorecards sind die schon genannte Balanced Scorecard von Kaplan und Norton (www.bscol.com), das Scorecard-Modell von Baldridge (http://www.nist.gov/baldrige/ ) und das Six Sigma-Modell (www.isixsigma.com). In der Praxis zeigt sich aber, dass die wenigsten Unternehmen eines dieser Modelle eins-zu-eins umsetzen, sondern meist basierend auf solchen Modellen ein unternehmensspezifisches

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 63

Wolfgang Martin Team Scorecard-Modell entwickeln und nutzen. Neu im Vergleich zu traditionellen Business Scorecards ist jetzt die Verbindung der Scorecard-Metriken mit den Geschäftsprozessen im Rahmen der BI-Governance (vgl. Kap. 3.2). Strategy Maps – Strategy Maps (Abb. 15) zeigen, wie eine Strategie ausgewogen aufgebaut wird und wie der unternehmerische Erfolg über Ursache-Wirkungsketten entsteht. Die vorhandenen Kennzahlensysteme der traditionellen BI waren bisher zu stark auf die Daten der Finanzbuchhaltung abgestimmt und beachteten zu wenig die Investitionen in Mitarbeiter, Informatik, Kundenbeziehungen bzw. Netzwerke mit Lieferanten und Partnern. Das auf den klassischen Kennzahlen aufbauende Planungs- und Reporting-System wie die Bilanz-G+V und Cash Flow-Planung stellte daher keine Basis für die Messung und Steuerung dieser Werte dar. Ohne ein wirkliches Performance Management können diese Werte aber nicht sinnvoll geplant und gesteuert werden. Dies führt zu einem radikalen Umdenken und zum Steuern über Ursache-Wirkungsketten. Die innerhalb der Strategy Map formulierte Unternehmensstrategie legt die Ziele für die Wertschöpfungsprozesse fest. Die Business Scorecard übersetzt diese in konkrete Vorgaben und Messgrößen. Daraus ergeben sich bestimmte strategische Initiativen oder Aktionsprogramme. Diese wiederum sind entscheidend für das Erreichen der Vorgaben. Natürlich dürfen Strategy Maps und Business Scorecards nicht statisch sein. Ändern sich die Rahmenbedingungen innerhalb des Unternehmens oder im Markt, sind auch die Prioritäten der Unternehmensstrategie anzupassen. Geschäftsregeln – Geschäftsregeln repräsentieren die prozessübergreifende Entscheidungslogik im Sinne des Fachwissens und der Management-Politiken (vgl. Definition eines Geschäftsprozesses auf S. 41). Die Modellierung der Regeln geschieht entweder per Top-down-Ansatz à la Expertensystem oder prädiktive Modelle werden per Bottom-up-Ansatz generiert (beispielsweise ein Kunden-Verhaltensmodell, das in einer Data Mining basierten Kunden-Verhaltensmodellierung erstellt wird). Eine Modellierung der Regeln, die den Top-down- mit dem Bottom-up-Ansatz kombiniert, ist hier state-of-the-art. Geschäftsregeln müssen zentral und von den Geschäftsprozessen unabhängig in einem Regel-Repository verwaltet werden, da eine Regel in mehreren Prozessen genutzt werden kann und ein Prozess natürlich mehrere Regel nutzen wird. Baut man Geschäftsregeln fest in Prozesse ein, so landet man in kurzer Zeit in einem Wartungs- und Pflegechaos, da dann die Konsistenz der Regeln gefährdet ist. Außerdem behindert man so eine Wiederverwendbarkeit von Regeln. Ereignis/Alarm – Ereignis-Orientierung ermöglicht Alarm-Services. Ein Ereignis ist gekennzeichnet durch das Eintreffen von prozess-externer Information, die einen Ausnahmezustand kennzeichnet. Beispiel: Im Marketing-Prozess „Kampagnenmanagement“ stellt eine Kampagne eines Mitbewerbers, die in unsere Kampagne eingreift, ein Ereignis dar, das es zu erkennen gilt und dessen Wirkung man gegensteuern sollte. Ein solches Ereignis wirkt operativ. Es gibt aber auch strategische Ereignisse wie der Eintritt eines neuen Mitbewerbers in den Markt. Hier sind unter Umständen alle Vertriebs- und Marketingprozesse auf den Prüfstand zu stellen und gegebenenfalls neu zu modellieren. Jetzt kommt es auf die Geschwindigkeit an, mit der die neuen Prozesse implementiert werden können, sonst verliert man leicht Marktanteile. Das ist einer der

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 64

Wolfgang Martin Team Gründe, warum man von Geschäftsprozessen geht.

der

Applikationsorientierung

zu

SOA-basierten

Tritt ein Ereignis ein, so muss in einem ersten Schritt das Ereignis erkannt und identifiziert werden. In einem zweiten Schritt sollte ein Alarm ausgelöst werden. Das bedeutet eine automatische Versendung einer Nachricht an die Verantwortlichen, die die Aufgabe der Prozesssteuerung haben. Das kann entweder ein Mensch oder auch eine Maschine (System) sein. Hier helfen die schon genannten BAM-Werkzeuge. Bei operativen Ereignissen wird hier das Modell der Echtzeit wichtig: Die gesamte Information, die notwendig ist, um ein Ereignis zu verarbeiten, sollte im Augenblick des Eintreffens des Ereignisses zur Verfügung stehen, um auf Basis dieses Wissens die richtige Entscheidung zu treffen. Echtzeit ist hier wieder als Synchronisierung der Informationsbereitstellung mit der Geschwindigkeit des Prozesses zu verstehen. Wenn der Abstand zwischen Ereignis und Reaktion auf das Ereignis immer kleiner wird, wird man zur Automation der Reaktion gezwungen sein. Solche „Reaktionsautomaten“ sind beispielsweise Vorschlagsmaschinen auf manchen Webseiten. Stand der heutigen Technologie sind Regelmaschinen oder RegelServices zur Automatisierung von Entscheidungen (Mehr dazu finden Sie in Kap. 4.3 und 7.1). Informationszugriff (BI-Widgets). BI-Widgets erleichtern den Zugriff auf Information und analytische Inhalte, indem sie fristgerechte, personalisierte und intelligente Information für jedermann liefern. Über eine einfache Drag-and-Drop-Oberfläche der Software können Endanwender direkt vom eigenen Desktop oder mobilen Gerät aus problemlos auf wichtige BI-Inhalte zugreifen, sie organisieren und anpassen. Das ermöglicht einen vereinfachten Zugang zur Analytik, erhöht die Produktivität für Endanwender und verringert die Kosten im IT-Betrieb durch diese Art der Selbstbedienung. Informationsverteilung (Broadcasting): Darunter versteht man Services, die personalisierte Botschaften per SMS, E-Mail, Fax, Twitter, Pager, Mobil-Services oder auf sonstigem Weg auch an Millionen von Empfängern senden. Als Technologie haben hier RSS („real simple syndication“) Feeds im Zuge der Ausbreitung von Web 2.0-Konzepten eine führende Rolle eingenommen. Durch Ausnahmesituationen und sich wiederholende Ablaufpläne als Auslöser können Ereignisse automatisch erstellt und an Prozesse und Menschen im Unternehmen oder an externe Gruppen übermittelt werden. Der Inhalt kann individuell auf den Empfänger zugeschnitten werden, womit eine Informationsüberfrachtung vermieden wird und die Sicherheitsanforderungen erfüllt werden.

4.2

Von Business Intelligence zu Performance Management und Analytik

Im Zuge der Prozess-Orientierung der Unternehmen findet die Evolution von BI zu Performance Management und Analytik statt. Die fachlichen Elemente hierzu erfordern zusätzliche BI-Werkzeuge und Services, eine neue Architektur für den Einsatz von BIWerkzeugen und Services in Performance Management und Analytik (Abb. 16) sowie ein neues Denken. Wir machen bei den BI-Werkzeugen und ihrer Nutzung den nächsten Schritt, von Business Intelligence zu Performance Management und Analytik. Die substanziellen Unterschiede zu BI sind: BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 65

Wolfgang Martin Team

Geschäftsstrategie Metrisierte Ziele

Prozesse & Metriken eingebettete Analytik

Data Discovery, analytische Modelle

(prädiktive, präskriptive) analytische Services

analytische Prozesse, Kollaboration, adaptiv dynamisch

Business-Vokabular (Meta Daten)

Performance Management

PM und Analytik – Referenzarchitektur

Datenintegrationsplattform © 2015 S.A.R.L. Martin

16

Abbildung 16: Referenzarchitektur für Performance Management und Analytik. Herzstück ist die Kopplung der Modellierung von Prozessen, Metriken und Governance sowie die Top-down-MetrikImplementierung mittels analytischer Services und Bottom-up mittels Data Discovery und der Ableitung analytischer Modelle. Die Basis für Performance Management ist eine Datenintegrationsplattform, die parallelen und simultanen Zugriff auf externe und interne operative und dispositive Daten per Services im Rahmen einer SOA erlaubt. So wird das traditionelle Data Warehouse zu einer Komponente der Datenintegrationsplattform. Der „single point of truth“ befindet sich heute im Business-Vokabular, nicht mehr im Data Warehouse (vgl. Kap. 6).

Performance Management und Analytik sind jetzt prozess-gesteuert, nicht mehr datengesteuert. Sie verbinden die Unternehmensstrategie mit Prozessen und mit Menschen gemäß ihrer Rollen in kollaborativen Teams: Nutzen und Wert von Information werden so für alle Mitarbeiter, ja sogar für Kunden, Partner und Lieferanten im Wertschöpfungsnetz eines Unternehmens erzielbar. Performance Management und Analytik zielt jetzt voll auf die Fachbereiche und eine fachliche Nutzung. Analytik ist prädiktiv. Analytik ist vorwärts schauend. Es gilt Probleme zu identifizieren und zu lösen, bevor sie auftreten. Damit ist Analytik eine Voraussetzung für Risiko-Management. Es geht um Antworten auf unvorhergesehene Ereignisse, um neue Einsichten und über das Risiko-Management hinaus auch um das Aufspüren neuer Gelegenheiten. Eingebettete Analytik – von Strategie zum Operativen. Eine SOA macht es möglich: Die Anreicherung operativer Prozesse durch eingebettete Analytik ermöglicht ein Synchronisieren von Informationsbereitstellung mit der Geschwindigkeit der Prozesse, so dass Entscheidungen und Maßnahmen rechtzeitig getroffen werden können. Mittels eingebetteter Analytik werden Prozesse intelligent und ereignis-orientiert. Performance Management und Analytik brauchen ein Information Management. Traditionelle Business Intelligence forderte ein Data Warehouse als die einzige Quelle von zuverlässiger, qualitativ hoch stehender Information. Damit konnte Business Intelligence nicht im operativen Umfeld eingesetzt werden und operierte nur im isolierten Raum BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 66

Wolfgang Martin Team taktischer und strategischer Analysen. Die potenzielle Wertschöpfung durch Echtzeitanalysen wurde außen vorgelassen. Analytik in einer SOA hat parallelen Zugriff auf operative und dispositive Daten und Information. Eine Lösung erhält man mittels Informations-Services (Abb. 17), die von einer Datenintegrationsplattform (man sagt auch: Enterprise Service Data Bus) bereitgestellt werden. Per Mashing-up werden simultan Daten aus dem Data Warehouse und operativen Systemen als Informations-Services zusammengesetzt und bereitgestellt. In einer SOA wird das Data Warehouse jetzt zu einem Lieferanten von Backend-Services (vgl. Abb. 7) und liefert insbesondere historische Daten. Eine andere Lösung bieten analytische Applikationen, die auf bestimmten NoSQL-Datenbanken laufen, die gleichzeitig operative und dispositive Daten verwalten können. Mehr zum Thema NoSQL-Datenbanken finden Sie in den Kapiteln 7.3 bis 7.5 und mehr zum Thema Information Management in Kap. 6. Data Discovery – analytische Prozesse und Kollaboration. Data Discovery (früher meist “Datenexploration” genannt) ist ein dynamischer, einfach zu handhabender, analytischer, kollaborativer Ad-hoc-Prozess mit dem Ziel, neue Analytik wie Profile, prädiktive Modelle, Scores, Segmentierungen etc. zu entwickeln, um ein besseres Verstehen von Märkten, Kunden, Risiken etc. zu erhalten. In diesem Sinne ist Data Discovery eine Bottom-upEntwicklungsumgebung für Metriken und prädiktive Modelle. Mehr zu Data Discovery finden Sie im Kapitel 5.2. Ein typisches Beispiel für das Zusammenspiel von Performance Management und Data Discovery ist die Ableitung von prädiktiven und präskriptiven Modellen, die man per Data Mining, Text Mining, Textanalyse oder traditionellen statistischen Verfahren aus den Daten heraus findet und dann mittels einer Regelmaschine zur Steuerung operativer Prozesse nutzt (siehe Kapitel 5.5) Beispiel: Betrachten wir den Prozess der Kreditvergabe. Die Standardregeln, um eine Kundensituation auf Kreditwürdigkeit zu prüfen, lassen sich relativ leicht durch einen Finanzberater aufstellen. Mit Hilfe von Data Mining könnte man nun zusätzlich eine Segmentierung des Kundenbestandes ermitteln, die das Risiko des Kunden modelliert, den Kredit nicht zurückzahlen zu können. Eine Kombination von Expertenregeln und der generierten Segmentierung kann dann das Regelwerk zur Kreditvergabe im Workflow eines automatisierten Kreditvergabeprozesses darstellen, der dem Kunden in Selbstbedienung erlaubt, seinen eigenen Kreditantrag zu bearbeiten. Sollte der Kunde mit dem Ergebnis des Prozesses nicht einverstanden sein, so kann man mittels einer Alarmfunktion einen menschlichen Berater in diesen Prozess einbeziehen. Weitere typische Beispiele findet man im Cross-/Up-Selling und in der Kundenbestandssicherung. Wichtig ist, dass besondere analytische Kenntnisse oder Kenntnisse von analytischen Werkzeugen zur Anwendung der prädiktiven Modelle nicht notwendig sind. Hier gilt: Analytik wird so einsetzbar nicht nur für Tausende, sondern im Endeffekt für Millionen und mehr Informationskonsumenten. Analytik macht so den Schritt zu intelligenten („smarten“) Prozessen: Operative Prozesse werden mittels eingebetteter Analytik mit Intelligenz angereichert und auch operativ überwacht und gesteuert. Die Einbettung geschieht per Service-Orientierung. Aus BIWerkzeugen werden analytische Services. Diese analytischen Services werden genutzt, um

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 67

Wolfgang Martin Team die Komponenten von Performance Management im Rahmen einer SOA zu implementieren (vgl. Abb. 17).

4.3

Performance Management und Analytik in einer SOA

Service-Modelle in einer SOA Portal

Mobile, Apps

InformationsServices

Analytische Services

RuleServices

Operative Services

Kollaborative Services

Data Integration Enterprise Service & Service Data Bus Plattform

Repository

DrittanbieterServices (SaaS)

ApplikationsServices

ZugriffsServices

IT-ManagementServices

EntwicklungsServices

Geschäftsprozess

Infrastruktur-Services

Big Data

externe Daten

Data Warehouse

poly-strukturierte Daten

operationale Daten © 2015 S.A.R.L. Martin

17

Abbildung 17: Geschäftsprozesse orchestrieren und choreographieren Services gemäß dem SOAModell. Die grundlegende Idee der Service-Orientierung ist die Trennung von Prozess-Logik und Geschäfts- und Entscheidungslogik. Es gibt fünf Service-Modelle von fachlichen Services: Informations- und Daten-Services, analytische Services, Rule-Services, operative Services und kollaborative Services: Die fachlichen Services setzen sich aus technischen Services zusammen, die von Drittanbietern (beispielsweise aus der „Wolke“ als SaaS – Software as a Service), aus den existierenden Applikationen und unterschiedlichen Datenquellen stammen können. Darüber hinaus braucht man Entwicklungs-Services, um neue Services zu bauen, und IT-Management-Services, um Administration, Ausführung und Sicherheit von Services zu managen. Der Enterprise Service Bus genauso wie der Enterprise Service Data Bus kann als intelligente Middleware zur Service- und Daten-Brokerage verstanden werden. Hierzu gehört auch ein Repository zur Service-Registrierung und zur Publikation aller verwendeten Services in Service-Katalogen. Die Benutzer-Schnittstelle zu Prozessen oder Services ist entweder eine traditionelle Portal-Lösung, die heute Social-MediaFunktionalität umfassen sollte, oder eine Schnittstelle zu mobilen Geräten, die in der Regel über Apps realisiert wird.

Wir haben bereits das Konzept einer SOA kennengelernt. Abteilungs- und Unternehmensübergreifende Prozesse werden SOA-basiert als Composite Applications (oder: Business Mash-ups) – siehe dazu auch Martin (2008) – implementiert, die die fachliche Logik komponieren und orchestrieren (vgl. Abb. 7). Diese fachliche Logik wird bereitgestellt mittels Services aus den existierenden Applikationen oder aus neuen Services, die entwickelt oder eingekauft werden müssen, um heute bestehenden Lücken in der Service-Landschaft zu schließen.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 68

Wolfgang Martin Team Prinzipiell gibt es fünf Service-Modelle für Geschäftslogik (Abb. 17): 

Operative Services. Sie stellen transaktional-orientierte Geschäftslogik zur Verfügung, beispielsweise Anlegen neuer Kunden, neuer Produkte oder neuer Kundenauftrag.



Kollaborative Services. Dies sind Services, die menschliche Interaktionen und Menschzu-Mensch-Kommunikation unterstützen, beispielsweise Aufsetzen eines Meetings, Suchfunktionen und Kommunikationsdienste wie eingebettete E-Mail, Chats, SMS, Stimme etc. Web 2.0-Werkzeuge lassen sich ebenfalls so nutzen, da die in der Regel auch service-orientiert sind.



Rule-Services. Mittels Regeln beschreibt man Entscheidungslogik. Wir hatten schon gesehen: Ein Prozess nutzt typischerweise mehrere Regeln, während eine Regel in verschiedenen Prozessen genutzt werden kann. Daher muss man Prozesslogik und Entscheidungslogik strikt voneinander trennen und fasst in einer SOA Regeln als Services auf, die von der Prozessmaschine orchestriert werden. So erhält man RuleServices als eine Kategorie von Services. Ein Rule-Service kann auch als Kapselung komplexer Regeln verstanden werden. Mit anderen Worten, ein Rule-Service kann andere Rule-Services als Untermodell aufrufen.



Analytische Services. Diese Services stellen analytische Geschäftslogik zur Verfügung, beispielsweise einen Schwellenwert für Produktverfügbarkeit, ein prädiktives Modell für Kundenverhalten oder Kundenrisiko, einen Forecasting-Service für die Vertriebssteuerung etc.



Informations- und Daten-Services. Solche Services liefern zusammengesetzte Information, die kombiniert werden kann aus strukturierten und poly-strukturierten, operativen und analytischen, internen und externen Datenquellen wie beispielsweise Kundenadresse, Kundenwert, Liefertreue etc. Informations- und Daten-Services umfassen auch Meta- und Stammdaten-Services.

Den Begriff poly-strukturierter Daten nutzt man heute vielfach, um den alten Begriff „unstrukturiert“ zu ersetzen und besser zugänglich zu machen. Mit dem Begriff polystrukturierte Daten kann man alle Daten – strukturiert und unstrukturiert – zusammenfassen. Die Zielsetzung ist, Fakten und Information aus poly-strukturierten Daten zu nutzen, um die traditionelle Analytik strukturierter Daten anzureichern und zu erweitern. Definition: Poly-strukturierte Daten sind Daten, die unbekannte, unzureichend definierte oder multiple Schemata haben, die sich mit der Zeit auch verändern können. Beispiele sind maschinen-generierte Ereignis-Daten, Sensordaten, System-Logdaten, interner/externer Web Content inklusive Social-Media-Daten, Texte und Dokumente, Multi-Media-Daten wie Audio, Video etc. In diesem White Paper beschränken wir uns auf die Diskussion von analytischen Services (Kap. 5.1) und Informations- und Daten-Services (Kap. 6). Vorher machen wir aber noch eine Bemerkung zu den Rule-Services. Mit Hilfe der so implementierten Entscheidungslogik lassen sich menschliche Entscheidungen automatisieren: Die Regelmaschine wird als Entscheidungsmaschine eingesetzt. Entscheidungsmaschinen sollten eine Planungskomponente enthalten, die eine gezielte Verfolgung von Ereignissen durch ein

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 69

Wolfgang Martin Team Aufsetzen von Nachfassaktionen erlaubt. Hier können ebenfalls regelbasiert die Maßnahmen definiert werden, die als Folge eines Ereignisses zu treffen sind, z. B. ein Anruf eines Kundenberaters aus dem Call Center drei Tage nach dem Besuch einer Webseite mit einer positiven Response des Kunden. Entscheidungsmaschinen erlauben so beispielsweise intelligente Interaktionen mit Kunden, wobei Entscheidungsmaschinen in Echtzeit eine Reaktion auf ein durch den Kunden provoziertes Ereignis ermöglichen. Das findet besonders im Cross- / Up-Selling im Call Center und auf Webseiten Anwendung.

4.4

Performance Management und Analytik trifft Enterprise 2.0 (Social Business)

Der Begriff Enterprise 2.0 wurde im Jahre 2006 von Andrew McAfee geprägt23. McAfee hat auch eine kurze und griffige Definition geliefert: Definition Andrew McAfee: Enterprise 2.0 bezeichnet die Nutzung von Social-MediaKonzepten mittels Social-Software-Plattformen in einem Unternehmen oder zwischen Unternehmen und seinen Kunden und Partnern. Heute sagt man in der Regel „Social Business“ statt Enterprise 2.0. Wir bleiben hier aber bei der alten Terminologie. Bei Enterprise 2.0 geht es um das Nutzen und Nutzenkonzepte von Social-Media-Technologie im Unternehmen, nicht um Social-Media-Technologien an sich. Enterprise 2.0 erfordert also zum Teil erhebliche Änderungen in der Unternehmenskultur, insbesondere in der Kommunikationskultur, denn die Nutzung von Social-SoftwarePlattformen bedeutet, dass sie gemeinschaftlich bearbeitet, gepflegt und genutzt werden und zwar als Ergänzung zu den existierenden organisatorischen und technischen Strukturen. Bevor wir das diskutieren, sollte man sich nochmal vor Augen führen, wie Social Media entstanden sind und sich entwickelt haben. Es begann mit dem Begriff Web 2.0. Web 2.0-Konzepte. Web 2.0 entstand als soziale Initiative zur Nutzung des WWW: Jeder macht mit, ist gleichzeitig Konsument und Produzent. Doch die Web 2.0-Konzepte gehen über die Kommunikation von Mensch zu Mensch im Sinne von Twitter oder Facebook weit hinaus. Schauen wir mal auf Web 2.0 mit anderen Augen. Der Begriff Web 2.0 geht zurück auf Tim O’Reilly, der den Begriff mit anderen gemeinsam erfunden hat. Gehen wir von seinem fundamentalen Artikel „What is Web 2.0“24 von 2005 aus und denken weiter. Da kommen wir zu folgenden Thesen, die Enterprise 2.0 mit Business Intelligence zusammenbringen: 

23

Von Applikationen zu Services. Das heißt weg von monolithischen Applikationen, hin zu einer Service-Orientierung. Die Web 2.0-Idee ist, Services für Mash-ups jedem Konsumenten im Web verfügbar zu machen. Per Mash-ups wird der BI-Anwender und Siehe „Enterprise 2.0 – The Dawn of Emergent Collaboration”

http://adamkcarson.files.wordpress.com/2006/12/enterprise_20_-_the_dawn_of_emergent_collaboration_by_andrew_mcafee.pdf 24

Siehe http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html?page=1

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 70

Wolfgang Martin Team Informationskonsument zum Informationsproduzent und so gezielt und kontrolliert in das Managen des Lebenszyklus von analytischen Prozessen und Services eingebunden. Im BI-Umfeld gibt es heute dazu die sogenannten CPM-Toolkits (vgl. Kap. 10.2). Beispiel: Eine Datenanalyse bringt vielleicht als Ergebnis ein bestimmtes interessantes Datenmuster, aber eine Kartografierung der Daten zum besseren Verstehen und Interpretieren der Daten wäre wünschenswert. Wenn das aber eine Anwendungsprogrammierung durch die IT erfordert, dann ist das entweder gar nicht möglich, weil dazu in der IT die Ressourcen fehlen, oder es ist zu teuer, dauert zu lange oder vermutlich sogar beides. Aber, wenn man per Mashing-up als Informationskonsument selber die Daten in ein Kartierungssystem bringen kann, dann ist eine Kartografierung schnell, einfach und kostengünstig machbar. Mittels Selbstbedienung kommt man in der Analyse weiter. Volle Flexibilität heißt also das Prinzip. Das ist ja auch der Sinn und Zweck einer SOA, wie wir in Kapitel 2.6 gesehen haben. Das Web 2.0-Konzept ist also auch ein SOA Konzept: kollaborative Services werden mit analytischen Services verknüpfbar. 

Architektur zur Kollaboration. Auch dieses Web 2.0-Konzept überträgt sich voll auf eine SOA. Das Basiskonzept einer SOA, das per Servicelevel-Agreement (SLA) kontrollierte Bereitstellen und Konsumieren von Services, ist ein Kollaborationsmodell par excellence.



Nutzung kollektiver Intelligenz. Hier geht es im Original bei Tim O’Reilly erst einmal um den Open Source-Gedanken. Aber wenn man etwas weiter denkt und das Web 2.0Konzept „Jeder macht mit“ auf die Zusammenarbeit IT und Fachabteilungen anwendet, dann werden Anwender zu Entwicklern. Ist das vorstellbar? Ja, das ist heute schon in ausgewählten Bereichen machbar. Business Intelligence hat hier eine gewisse Vorreiterrolle. Bereits in den 80/90iger Jahren sollten die Anwender ihre Reports und Analysen selber machen. Das war damals nicht unbedingt von Erfolg gekrönt, aber heute greift hier das Web 2.0-Konzept des „Vertrauens in Anwender als Mitentwickler“. Hier kann man auch wieder an die Prinzipien der Mash-ups denken, aber es geht auch um das Arbeiten in Teams, denn BI dient zwar dem Treffen besserer Entscheidungen, aber Entscheidungen werden meistens in Teams getroffen, man spricht ja auch von einem „board room style of decision making“. Hier entsteht die Chance zu einer völlig neuen Kollaboration zwischen IT und Business: Self-Service-BI, die wir bereits in Kap. 3.3 kennengelernt hatten.



Simple Schnittstellen und Modelle. Light Weight Programming sagt hier Tim O’Reilly. Ein solches „Keep it simple“ ist ein gutes Prinzip, wenn es um Design und Implementierung von Services in einer SOA geht. Simple Schnittstellen, sogar standardisiert, das sind beispielsweise Web Services, ein heute weitgehend praktizierter Weg bei SOA-Implementierungen. Das macht im BI das Einbetten von Analytik in Geschäftsprozesse und damit das Anreichern von Prozessen durch Intelligence einfacher denn je.



Medienübergreifende Software. Das passt auf eine SOA. Hier kommt alles zusammen. Jetzt wachsen per SOA die bisher so unterschiedlichen IT-Disziplinen wie Business Intelligence, Geschäftsprozess-Management, Document Management, Office etc.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 71

Wolfgang Martin Team zusammen. Das ist gegenüber traditioneller BI ein entscheidendes Element, denn BI sollte nicht nur strukturierte Information auswerten, sondern besonders in der Kombination mit poly-strukturierter Information können sich völlig neue Einsichten ergeben. Im Kapitel 5.7 zu Textanalytik kommen wir darauf zurück. 

Der Long Tail-Effekt. Auch das Web 2.0-Konzept des Erreichens des "Long Tail" mittels Communities ist ein Prinzip, das sich in einer SOA wiederfindet, wenn man das Konzept von „Software as a Service“ (SaaS) oder Apps mit einer SOA verbindet. Dann kann man den Long Tail-Effekt als die Business Opportunity sehen, solche Services oder Apps in einem Geschäftsmodell erfolgreich zu nutzen. Denn im Web oder in einem App-Shop lassen sie sich besser finden.

Die Web 2.0-Konzepte ermöglichen so eine neue Form der Kollaboration und der Kommunikation. Sie stellen in der Tat weitreichende kollaborative Services in einer SOA zur Verfügung (vgl. Abb. 17). Enterprise 2.0 trifft Performance Management und Analytik. In Kapitel 2.6 (vgl. Abb. 6) hatten wir bereits ausgeführt: In einem Unternehmen brauchen wir Industrialisierung, Agilität, Compliance und smartes Verhalten. Wir hatten auch schon auf die gegensätzlichen Stoßrichtungen von Industrialisierung und Agilität hingewiesen. Industrialisierung meint Automatisierung und Standardisierung, während Agilität insbesondere auch für Kreativität und Innovation steht. Die Konzepte einer Serviceorientierung im Sinne eines Kollaborationsmodells bringen diese beiden Gegensätze zusammen. Das hatten wir bereits technisch diskutiert. Mit dem Nutzen von Web 2.0-Konzepten als kollaborative Services kommt nun auch eine soziale, menschliche Komponente dazu. Beispiel: Einführung einer Online-Zeitung als Web-basiertes, intelligentes Reporting. (Quelle GmbH, Sieger BI Award 2008 der CeBIT 2008) Die Jury begründete ihre Entscheidung mit dem innovativen Vorgehen bei der Realisierung und den neuartigen Ansätzen des Wissensaustausches, wie sie aus dem Web 2.0 bekannt sind. Quelle hatte mit der Integration von Bildern, Textelementen und klassischen Kennzahlen eine anwenderfreundliche und innovative Lösung geschaffen. Die Nutzung eines Wikis zur Definition von Kennzahlen und Wissenssammlung zur richtigen Interpretation von Berichten und Analysen sorgte für hohe Anwenderakzeptanz. Die Lösung von Quelle lieferte nicht nur reine Zahlen, sondern machte Inhalte und Nutzen des Berichtswesens für jeden Anwender transparent. (aus: isreport, 2008) ) Das zeigt uns die Richtung, in der wir uns mit Performance Management und Analytik im Enterprise 2.0 bewegen müssen, um als Marktsieger zu bestehen. Wir hatten ja bereits in Kapitel 2.1 die BI-Mängelliste diskutiert. Diese alten, bekannten Probleme lassen sich in einem Enterprise 2.0 anders angehen und entsprechend der Enterprise 2.0-Prinzipien lösen: 

Alles hängt von den Mitarbeitern ab. Das Mitmachen der Mitarbeiter muss gefördert werden. Eine Moderation der Kommunikation ist sehr hilfreich wie die Praxis bei der Quelle GmbH gezeigt hat.



Mit konkreten Anreizen können Mitarbeiter dazu motiviert werden, sich aktiv am Aufbau und der Belebung der Anwendungen zu beteiligen. Das kann unter anderem durch Prämien für intensive Mitarbeit oder durch die Bewertung von Inhalten durch die Nutzer geschehen. Hier lassen sich auch Konzepte der „Gamification“ einsetzen. Gamification

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 72

Wolfgang Martin Team meint die Anwendung von spieltheoretischen Konzepten und Techniken auf Aktivitäten außerhalb eines Spiels auf Situationen im „echten“ Leben. Das Ziel von Gamification ist es, einen Teilnehmer mit einer Aktivität zu engagieren, die er als Spaß versteht, um sein Verhalten zu beeinflussen. 

Um die anfängliche Hemmschwelle bei den Nutzern aufzuweichen, können ganze Anwendungen in die Enterprise 2.0-Umgebung verlagert werden. Damit kommt die „kritische Masse“ von Information und Teilnehmern, die für einen Erfolg nötig sind, zustande. Quelle GmbH hatte das mit dem Reporting per Online-Zeitung erreicht.



Starke Motivation für ein aktives Engagement ist vielfach die persönliche Reputation des Mitarbeiters. Anonyme Beiträge sollten nicht zugelassen werden.



Das Management muss seinen Mitarbeitern Vertrauen entgegen bringen. Die Kontrolle der Gemeinschaft ist nicht zu unterschätzen. Das ist ein ganz wesentliches Web 2.0Konzept. Mut zur Offenheit muss sein!



Eine einfache, schnell verständliche und leicht lernbare Oberfläche ermöglicht es Mitarbeitern mit unterschiedlichem Wissensstand, sofort und ohne Umwege, am System teilzunehmen. Quelle GmbH hatte das mit einer intuitiven Visualisierung geschafft.

Fazit: Unternehmen sollten die Einbeziehung von Social-Media-Konzepten in Betracht ziehen und auch eine Roadmap entwickeln, wie man ein Enterprise 2.0 bauen kann. Denn Enterprise 2.0 bietet die Chance Industrialisierung mit Innovation und Kreativität zu vereinen. Es bietet die Chance durch das Konzept des „Jeder macht mit“ Wissenspotentiale im Unternehmen zu erschließen, die sich sonst nicht so einfach aktivieren lassen. Insbesondere kann eine Enterprise 2.0-Initiative die Nutzung von Performance Management und Analytik fördern, da sich so Performance Management und Analytik mit Wissensmanagement verbinden lassen und man dadurch die Benutzerakzeptanz und -Motivation deutlich steigern kann.

4.5

Planung im digitalen Unternehmen

Neben dem Überwachen und Steuern von Prozessen gehört ja auch das Planen zum Performance Management. Heute ist Planen schwieriger und komplexer denn je, denn in der digitalisierten Welt gibt es vorhersagbare langfristige Trends nicht mehr. Auch wenn heute die Konjunktur brummt, kann es schon morgen wieder zu Ende sein. Mit anderen Worten: Wie soll man und wie kann man in einer solchen Welt überhaupt planen? Die traditionelle Jahresplanung versagt zum Teil vollständig, denn wer weiß schon wie Markt und Kunden in einem Jahr aussehen werden. Mit alten Planungsgewohnheiten und Methoden kommt man heute nicht mehr weiter. Denn die in der digitalisierten Welt geforderte Agilität der Unternehmen bedeutet nicht nur die rasche Umsetzung von neuen Kundenanforderungen, die schnelle Reaktion auf Marktänderungen und die rasche Änderung von Prozessen bei Strategieänderungen, sondern setzt auch eine agile Planung voraus.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 73

Wolfgang Martin Team Agile Planung bedeutet ein Umdenken in der Planung. Früher war Planung in den meisten Unternehmen eine reine Finanzplanung plus einer meist von der Finanzplanung isolierten strategischen Planung. Bei gut aufgestellten Unternehmen gab es eine Verbindung, manchmal sogar eine Integration von strategischer und Finanzplanung. Außen vor blieb in der Regel die operative Planung. Agile Planung bedeutet nun einen integrierten, durchgängigen Planungsprozess. Strategische, operative und Finanzplanung bedingen ja einander, daher muss hier die alte Lücke in den voneinander isolierten Planungen von Ressourcen, Programmen, Produkten, Prozessen, Services etc. geschlossen werden. Agile Planung meint aber noch mehr. Die Planungszeiten müssen verkürzt werden. Rollierend oder treiber-basiert zu denken ist jetzt absolut zwingend. Rollierende, treiberbasierte oder Gegenstrom-Planung sind zwar überhaupt nicht neu, aber jetzt im Zuge der Digitalisierung setzen sich bei mehr und mehr Unternehmen solche Planungsmethoden durch. Dazu kommen zeitnahe Forecast-Szenarien. Man stellt nicht mehr nur einen Plan auf, sondern entwickelt gleich mehrere Szenarien unter verschiedenen Annahmen, um der Volatilität zu begegnen. Denn aufgrund der Volatilität kann es gewaltige Sprünge in der Planung geben, und Planungsziele können sich grundsätzlich ändern. Das Problem ist die ausreichende Reaktionsgeschwindigkeit. Weiterdenkende Planer setzen hier Simulationsverfahren und Modellrechnungen ein, um die verschiedenen Szenarien auch bewerten zu können und um zu Entscheidungshilfen zu kommen. So schafft man sich einen Planungshorizont, der gleichsam ein Fahren des Unternehmens auf Sicht erlaubt und so das schnelle Reagieren ermöglicht. Agile Planung bedeutet auch eine viel stärkere Interaktion und Kommunikation zwischen allen an der Planung Beteiligten. Der Mensch muss in den Vordergrund gestellt werden: Es geht um das Einbinden aller. Hier finden bereits Ideen aus den Social Media an vielen Stellen Eingang. Wikis als Wissensbasis und als Hilfsfunktion sind fast schon die Regel. Hier ist die Zielsetzung eine gemeinsame Sprache zwischen den Controllern und den anderen Fachbereichen zu schaffen. Es gilt in diesem Zusammenhang auch die Lücke zwischen Controlling und Buchhaltung und Finanzen zu schließen, denn auch die Finanzplanung selbst muss agil werden: Finanzierungsspitzen müssen im Zuge eines Risiko-Managements identifiziert und vermieden werden. Dokumentierungs- und Kommentierungsmöglichkeiten zu Berichten sind Pflicht in einer agilen Planung und von allen Beteiligten ganz besonders gefordert. Jeder soll gleichsam „gezwungen“ werden, sich mit den Zahlen zu beschäftigen und Abweichungsanalysen zu kommentieren. Ganz wichtig ist auch, Autonomie für die an den Planungsprozessen Beteiligten zu schaffen, in dem Basisfunktionen an die Nutzer ausgelagert werden. Jeder will selbständig arbeiten können, seine Graphiken selber produzieren und Daten verdichten können. Das aber nicht in einer isolierten Spreadsheet-Umgebung, sondern in Zusammenarbeit und Interaktion mit allen Beteiligten. Hinzu kommt auch mehr und mehr die Forderung nach Mash-ups. Agile Planung bedeutet also neue Planungsmethoden und Social-Media-Stil-Kommunikation und Kollaboration in der Planung, plus die Integration von strategischer Planung, Finanzplanung und operativer Planung. Die Lücke insbesondere zwischen strategischer und Finanzplanung einerseits und operativer Planung andererseits gilt es zu schließen. Dazu müssen die traditionellen isolierten Planungssilos aufgelöst und in eine integrierte

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 74

Wolfgang Martin Team Planungsplattform übergeführt werden. Hier werden dann die Methoden und Werkzeuge von strategischer Planung und Finanzplanung mit denen operativer Planung zusammengeführt. Portfolio Management nimmt hier eine zentrale Rolle ein. Es ist ein guter Ansatz, um durch Abgleichen der Strategie gegen die knappen Ressourcen – Menschen, Anlagen und Geld – das Business zu optimieren. Dazu wird die strategische Planung und Finanzplanung verbunden mit Investment Analyse, Kapazitätsplanung, Nachfrage-, Programm-, Ressourcen- und Change-Management. Durch ein solches Planungsinstrumentarium schafft man eine integrierte Planung: Die operative Planung der Prozesse folgt somit direkt aus der strategischen und Finanzplanung. So schließt sich der Planungskreis entsprechend dem Steuerungskreis von Prozessen in einem „echten“ Performance Management. (Abb. 18)

Planung im digitalen Unternehmen strategische Planung strategisch (langfristig) Finanzplanung Budgetierung (mittelfristig) Monate, bis zu einem Jahr operativ (kurzfristig) Prozessgeschwindigkeit „agile Planung“

operatives Tagesgeschäft

PortfolioManagement © 2015 S.A.R.L. Martin

18

Abbildung 18: Unter den Marktbedingungen im digitalen Zeitalter sind alternative Planungsmethoden (Jahresplanung greift nicht mehr!) und kollaborative Planungswerkzeuge im „Social-Media-Stil“ ein Muss. Weiterhin ist eine integrierte Planung notwendig, die die Planungslücke zwischen strategischer und Finanzplanung einerseits und operativer Planung andererseits schließt. Mit Hilfe von PortfolioManagement schafft man den integrierten Planungskreis: Planung wird agil.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 75

Wolfgang Martin Team

5 Analytik – Basis für Performance Management Analytik lässt sich in drei aufeinander aufbauenden Klassen von Werkzeugen und Methoden einteilen: 

Basis-Analytik. Hier geht es um die einfache Feststellung: Was ist passiert? Das entspricht im Wesentlichen dem, was man in der traditionellen BI gemacht hat: Reporting (Batch-Berichte aus der Konserve, interaktive Reports mit drill-down und drill-up, vgl. Abb. 19), Dashboards, Alarmfunktionen und Empfehlungen.

Abbildung 19: Basis-Analytik: Das am weitesten verbreitete traditionelle BI-Werkzeug ist Excel. Setzt man Excel aber zur individuellen Datenhaltung ein, dann besteht die Gefahr, in einer inkonsistenten BI-Landschaft zu enden. Aber wenn man Excel als reines Front-end nutzt, dann kann es auch serviceorientiert eingesetzt werden. Zudem besticht es durch große Benutzerfreundlichkeit sowie durch eine Vielzahl von Add-in-Angeboten, die die Funktionalität teilweise sehr gekonnt erweitern. Hier als Beispiel das Excel-Add-in cMORE/Message von pmOne. Es macht mit wenigen Mausklicks aus einer Datentabelle (oben) eine aussagekräftige Business-Grafik mit mehreren Datenarten (Ist-, Plan- und Forecast-Daten) und einem Abweichungsbaum, der einfach und verständlich die relative Plan-IstAbweichung darstellt. Das Notationskonzept orientiert sich an den SUCCESS-Regeln25 von Dr. Hichert.

25

Mehr zu den Success-Regeln von Dr. Hichert finden Sie auf http://www.hichert.com/de/success/

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 76

Wolfgang Martin Team 

Standard-Analytik: Jetzt will man wissen: Warum ist es passiert? Auch hier dominieren immer noch die Werkzeuge der traditionellen BI wie interaktive analytische Dashboards mit drill-down und drill-up, OLAP, analytische Workflows zwecks Automation, anpassbare Daten-Mash-Ups und BI-Widgets.



fortgeschrittene Analytik (advanced analytics): Hier geht es um Vorhersagen, was geschehen wird und um das Aufspüren neuer Gelegenheiten. Hier werden jetzt Data und Text Mining, Textanalytik, Location Intelligence, analytische Modelle und statistische/prädiktive analytische Funktionen sowie Visualisierung eingesetzt. Diese Werkzeuge spielen hauptsächlich eine Rolle im Data Discovery und in der prädiktiven und präskriptiven Analytik.

5.1

Analytische Services

In einer SOA als Infrastruktur für Geschäftsprozess-Management wird eingebettete Analytik mittels analytischer Services implementiert. Analytische Services sind gekapselte, komponenten-basierte Module zur Publikation von analytischer Geschäftslogik, die per Services kommunizieren (Abb. 17). Dazu gehören analytische Inhalte wie beispielsweise anpass- und erweiterbare Templates für alle Arten von Metriken in einer Business Scorecard und analytische Werkzeuge. Wie bei den anderen Modellen von Services gehören dazu auch Entwicklungs-Services zum Managen des Lebenszyklus der Services – Implementieren, Anpassen und Pflegen. So erweitert Analytik die traditionelle auf das Data Warehouse fixierte BI, indem BI per Metriken und prädiktiver Modelle in den Kontext von Strategie, Zielen, Prozessen, Menschen und Governance gestellt wird und per Services implementiert wird. Reporting- und Analyse-Services – Beim Berichtswesen („Reporting“) unterscheidet man drei Typen von Berichten: Management-Berichte (strategische Ebene) zur Visualisierung der Unternehmens-Performance, Fach-Berichte zum periodischen Berichten der Performance in Vertrieb, Marketing, Produktion, Lieferung etc. und operative Berichte zum aktuellen Status in Lagerhaltung, Ausgaben, offene Rechnungsposten etc. Dabei ist zu bemerken, dass die Anzahl der Nutzer solcher Berichte in der Reihenfolge der genannten Berichtstypen ansteigt. Management-Berichte haben in der Regel den kleinsten Verteiler im Unternehmen, die operativen Berichte den größten. Das bestimmt sowohl die technischen Anforderungen an die Performance und Skalierbarkeit des Werkzeugs zur Berichtserstellung als auch die fachlichen Anforderungen an die Funktionalität des Werkzeugs wie Visualisierung, Design, Verteilmechanismen und Kollaborationsmöglichkeiten. Dazu kommt, dass die unterschiedlichen Berichtstypen auch unterschiedliche Produzenten haben. Für die Management-Berichte und zu einem guten Teil auch für die Fachberichte gilt, dass diese Berichte in den Vorstandsebenen (durch Assistenten) und in den Fachabteilungen (durch Poweruser, aber immer mehr auch durch die Mitarbeiter selbst) im Sinne einer Selbstbedienung („Self-Service-BI“, vergl. Kap. 3.3) erstellt werden. Das stellt natürlich entsprechende Anforderungen an die Berichtsgestaltungsund Entwicklungswerkzeuge. Sie müssen leicht und intuitiv bedienbar sein, visuell arbeiten und hinreichend viele kombinierbare, vorgefertigte Basis-Templates enthalten. Dagegen werden

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 77

Wolfgang Martin Team die operativen Berichte in der Regel immer noch von der IT oder vom BI-Kompetenzzentrum bereitgestellt. Das BI-Kompetenzzentrum hat auch die Aufgabe, die Mitarbeiter im Rahmen der Berichtserstellung per Selbstbedienung zu beraten und zu unterstützen. In einer SOA wird die Funktionalität der Basis- und Standard-Analytik mittels Komponenten implementiert, die analytische Services bereitstellen, die in jeden Geschäftsprozess zwecks Anreicherung eingebettet werden können. In einer SOA können analytische Services Informations- und Datenservices zur Datenversorgung nutzen, so dass zusammengesetzte Daten aus operativen und dispositiven Systemen verfügbar werden. Analytik kann jetzt in Echtzeit in den Prozessen eingesetzt werden, wann immer es geschäftsrelevant ist. Zudem können durch Mashing-up zusammengesetzte Reporting- und Analyse-Services flexibel komponiert werden. Das wiederum ist eine der technischen Voraussetzung, dass SelfService-BI auch wirklich funktioniert. Die genannten vorgefertigten Templates sollten deshalb analytische Services sein.

15

Abbildung 20: Planung und Simulation mit Cubeware Cockpit V6pro: Die Lösung bildet unterschiedlichste Planstände ab und unterstützt verschiedene Planungsfunktionalitäten wie Topdown, Bottom-up, Gegenstromverfahren und Simulation. Die Plandaten werden dezentral erfasst, zentral und strukturiert abgelegt und können periodisiert, zusammen mit Ist-Daten sowie in Form von Soll-Ist-Analysen, Zeitreihenanalysen, Forecasting-Analysen oder »Was-wäre-Wenn«-Szenarien ausgewertet werden.

Planung und Simulation – Die Planung ist ein typischer abteilungsübergreifender Prozess, der am besten als SOA-basierter Prozess implementiert wird. Die Planungsfunktionalität wird

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 78

Wolfgang Martin Team somit über Planungs- und Simulationsservices implementiert, die volle Flexibilität und Anpassungsfähigkeit an sich ändernde Geschäftsszenarien bieten. Der Vorteil einer Implementierung der Planung im Rahmen einer SOA liegt auf der Hand: Der Planungsprozess kann aus allen möglichen analytischen oder sonstigen Services zusammengesetzt werden. Hierbei werden Redundanzen in der analytischen Funktionalität vermieden, die durch Planungsanwendungen in einer herkömmlichen Data-Warehouse/Business-Intelligence-Architektur typischerweise entstehen. So fördert man eine rigorose und revisionssichere Planung durch einen kontrollierten SOA-basierten Prozess statt Planungsprozesse von Hand und auf der Basis von Tabellenkalkulationen durchzuführen. (Abb. 20) Eine SOA-basierte Planung ist insofern auch die beste technologische Voraussetzung für eine Planung im digitalen Unternehmen (vgl. Kap. 4.5).

Abbildung 21: Beispiel für ein Dashboard realisiert mit Cubeware Cockpit V6pro: Das Dashboard liefert einen schnellen Überblick über die Hauptkennzahlen des Unternehmens und wie sich verschiedene strategische Bereiche aktuell entwickeln. Hier kommen verschiedenste LayoutKomponenten zum Einsatz. Ihre Platzierung geschieht per „Drag & Drop“ an der Oberfläche. Jede Dashboard-Komponente basiert auf DataViews unterschiedlicher Würfel. Ein Drill-Through und Adhoc-Abfragen nach weiteren Details zu den vom Dashboard angezeigte Information ist jederzeit machbar. Die Erstellung und Anpassung von Dashboards ist hoch ergonomisch und kann fast ausschließlich vom Nutzer selbstständig vorgenommen werden.

Dashboard-Services – Eine Instrumententafel („Dashboard“) (Abb. 21) visualisiert große Mengen an Information aus unterschiedlichen Datenquellen in verdichteter Form. Der Grad der Verdichtung und die Visualisierungsform sind ziel- und adressatenabhängig. So lassen sich beispielsweise Kennzahlen aus verschiedenen Berichten und Berichtstypen gemeinsam darstellen und vergleichen. Ein Dashboard wird auch zur Implementierung einer Business

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 79

Wolfgang Martin Team Scorecard eingesetzt und entsprechend in ein Portal als Portlet eingebettet oder auf mobilen Geräten angezeigt (vgl. Kap. 3.2). Das Informationsprofil der Business Scorecard beschreibt die Personalisierung von Dashboards, damit jeder Verantwortliche genau die richtige Information gemäß dem Prozessträgermodell im Rahmen der BI-Governance bekommt. Zu einem Dashboard sollte auch eine Benachrichtigungsfunktion gehören, so dass in bestimmten Situationen (Eskalation, Ereignis / Alarm) auf wichtige Information automatisiert hingewiesen wird. Das führt zu einer „aktiven“ Instrumententafel: nur solche Fälle, die Entscheidungen und menschliches Eingreifen verlangen, werden angezeigt und den Entscheidungsträgern durch message-basierte publish-and-subscribe Kommunikationsmethoden (beispielsweise RSS feeds) mitgeteilt. So kann ein „Management by Exception“ aufgebaut werden. Eine flexible Weiterentwicklung der Berichtsmöglichkeiten von Instrumententafeln sind die sogenannten „Briefing Books“. Ein Briefing Book besteht aus Kapiteln, die alle analytischen Services entsprechend dem Profil des Informationskonsumenten den Kapiteln zuordnen und so strukturieren. Es bietet daher eine komplette strukturierte Umgebung, die die gesamte Information zum Überwachen und Steuern gemäß dem Governance-Modell in intuitiver Form interaktiv und visuell bereitstellt (Abb. 22).

Abbildung 22: Beispiel für ein Briefing Book realisiert mit BIRT von Actuate. Eine intuitive Nutzung wird durch die Nachbildung eines Buches unterstützt. Links sieht man die definierten Kapitel, die sich über Reiter aufschlagen lassen. Jedes Kapitel hat hier noch Unterkapitel, dargestellt durch die Reiter rechts oben. Dazu kommt noch eine Blätterfunktion zum Umschlagen der Seiten.

Information Management – Während traditionelle BI-Werkzeuge auf einer DataWarehouse-Architektur aufsetzten, ist wie bereits gesagt eine Datenintegrationsplattform die Basis für Performance Management und Analytik. Eine Datenintegrationsplattform verbindet

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 80

Wolfgang Martin Team auf der technischen Ebene Performance Management und Analytik mittels eines Enterprise Service Data Bus mit operativen Datenbanken auch in Echtzeit und dem Data Warehouse, das jetzt nur noch Backend-Dienste für analytische Services zur Verfügung stellt (vgl. Abb. 7 und 17). Datenintegration stellt Informations-Services zur Verfügung, um Daten, aber auch Meta- und Stammdaten zu analysieren, Datenmodelle abzuleiten, Daten und Metadaten aufzubereiten und zu profilieren, sowie ETL- (extraction, transformation, load26) Dienste. Mehr zu Information Management und Echtzeit-Konzepten finden Sie im Kapitel 6 und 7.

5.2

Data Discovery

Von interaktiver Analytik zu Data Discovery. Eine Anreicherung von Prozessen durch eingebettete Analytik wird in der Regel durch interaktive Analytik (Datenexploration) ermöglicht. Metriken werden nicht nur Top-down aus Strategie, Zielen und Prozessen abgeleitet, sondern können auch aus Daten Bottom-up abgeleitet und entwickelt werden. Dazu dient die interaktive Analytik. Hier wurden bisher zumeist traditionelle BI-Werkzeuge eingesetzt (Ad-hoc-Abfragewerkzeuge, OLAP, statistische Werkzeuge, Data und Text Mining, Textanalytik. etc.). Weite Verbreitung hat vor allem die interaktive Analyse per OLAP gefunden. Definition: OLAP (online analytical processing) ist eine Methode innerhalb der Analytik, die schnelle und interaktive Zugriffe auf relevante Information ermöglicht. Es bietet insbesondere komplexe Analysefunktionen, die sich durch Multidimensionalität auszeichnen. Das bedeutet die Anordnung der verschiedenen Metriken (Kennzahlen) entlang unterschiedlicher Dimensionen, beispielsweise Umsatz in Bezug auf Kunde, Produkt, Region, Berichtsperiode etc. Zu weiteren Details zu OLAP verweisen wir auf die Webseite www.OLAP.com. Data und Text Mining sowie Textanalytik behandeln wir in den Kapiteln 5.6, beziehungsweise 5.7. Traditionelle BI-Werkzeuge zur interaktiven Analytik haben allerdings nicht die Akzeptanz gefunden, die man erwartet hatte. Ihr Einsatz erforderte Experten, die mit den Werkzeugen erst nach entsprechendem Training umgehen konnten. Denn diese traditionellen BIWerkzeuge hatten in der Regel die in der BI-Mängelliste (vgl. Kap. 2.1) aufgeführten Fehler. Konsequenterweise wurden sie meist nicht genutzt. Als Ersatzwerkzeug – man brauchte ja eine gewisse Analytik – diente dann das Spreadsheet. Wenn Spreadsheets mit individueller Datenhaltung im Unternehmen eingesetzt wurden, dann verlor sich schnell die Datenkonsistenz, Datenchaos stellte sich ein, und die Daten-Grundlage für Compliance war nicht mehr gegeben. (Abb. 23) Mit dem Aufkommen von neuen analytischen Werkzeugen, die insbesondere Visualisierungstechniken einsetzen, ändert sich diese Situation grundlegend. Man spricht jetzt von Data Discovery.

26

Alternativ dazu ist ein ELT-Ansatz, bei dem die Transformation innerhalb der Datenbank durchgeführt wird.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 81

Wolfgang Martin Team

Traditionelle BI: Mängel im Analytik-Ansatz Analytische Applikationen

individuell, aber inflexibel & ITgesteuert

Portal fehlender Fokus auf das Team

Das Risiko in der Lücke

mächtig, aber zu komplex 23

die Realität

Traditionelle BI war bei weitem nicht immer erfolgreich.

S

“Advanced Analytics”

© 2015 S.A.R.L. Martin

Abbildung 23: Analytik mittels traditioneller BI-Werkzeuge fand nicht die erwartete Akzeptanz in den Unternehmen. Traditionellen Portalen fehlte der Fokus auf Team-Arbeit und Team-Entscheidungen. Traditionelle analytische Applikationen waren IT-Applikationen, mit denen die Fachabteilungen keine Agilität erreichten und in der Abhängigkeit von der IT blieben. Die fortgeschrittene mathematische und statistische Analytik war dem normalen BI-Nutzer voll verschlossen weil zu komplex. Als Ersatz etablierte sich das Spreadsheet. Eine Nutzung von Spreadsheets mit Datenhaltung im Unternehmen stellt aber ein großes Risiko dar, da jetzt Datenkonsistenz nicht mehr garantiert werden kann.

Unter Data Discovery versteht man eine neue Generation von Analytik-Werkzeugen, die insbesondere darauf abzielen, unterschiedlichste Datenquellen zu verknüpfen und zu untersuchen. Vordefinierte Pfade mit Drill-Funktionalität fehlen bewusst, um so dem Nutzer volle Flexibilität durch Interaktivität zu geben. Sie zeichnen sich weiterhin durch außerordentliche Benutzerfreundlichkeit und Flexibilität aus. Dazu kommt die Verwendung von In Memory-Technologien, die intern zur Speicherung und Verarbeitung genutzt werden. Der große Vorteil der In Memory-Technologie ist die Performance: Daher sind DataDiscovery-Werkzeuge insbesondere auch zur Big-Data-Analytik geeignet. Data-Discovery-Werkzeuge setzen auf Visualisierung von Daten, interaktive, intuitive Analyse, Kollaboration und Autonomie der Endanwender. Datenvisualisierung unterstützt mittels Intuition das menschliche Auge und macht es zum Detektor von Strukturen. So werden die Stärken des menschlichen Auges kombiniert mit 

Visualisierungs-Services, die unterschiedliche Aspekte von Daten und Information gleichzeitig darstellen,



Drill-down per Mausklick und dynamischen Ad-hoc-Abfragen,



statistischen Methoden und Techniken,



konfigurierbarem und dynamischem Zugriff auf alle relevanten Datenquellen („Mashingup“).

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 82

Wolfgang Martin Team Auf Datenvisualisierung gehen wir im folgenden Kapitel 5.3 noch genauer ein. Die Anwender von Data-Discovery-Werkzeugen können auf zentrale Daten via Client-Server, Web-Browser oder über Apps mittels mobiler Geräte wie Tablets zugreifen, die ja zur intuitiven Nutzung konzipiert wurden. Im mobilen Internet kann man für jede konkrete Aufgabenstellung eine eigene App erstellen, die dann ganz gezielt auf einen Geschäftsprozess zugeschnitten ist und direkt zu entsprechenden Arbeitsschritten führt (siehe auch Kap. 2. „Mobile BI“). Mit Visualisierungswerkzeugen auf Tablet-Rechnern ist der Durchbruch geschafft: Analytische Werkzeuge werden jetzt nicht nur akzeptiert, sondern schaffen sogar Begeisterung bei den Nutzern.

Analytik im Daten-gesteuerten Unternehmen Analytische Services

flexibel & Nutzer-gesteuert, “mash ups”

Search & Kollaboration Entscheidungen im Team

Data Discovery besser, eleganter, benutzergetrieben

interaktiv, intuitiv, visuell 24

S

kollaborativ, mobil, agil

social media-Stil, intuitiv

Statistik, Mining, künstliche Intelligenz

© 2015 S.A.R.L. Martin

Abbildung 24: Data Discovery kombiniert Social-Media-Kollaborationswerkzeuge, Visualisierungstechniken und statistische Methoden auf einer service-orientierten Architektur als Infrastruktur. Es kann im Sinne von „Self-Service-BI“ durch die Fachabteilungen weitgehend selbstständig und durch ein BI-Kompetenzzentrum unterstützt betrieben werden. Hinzu kommen die allgegenwärtige Nutzung von Information im mobilen Internet und der Einsatz von visuell-konzipierten Tablett-Rechnern. So wird das „Daten-gesteuerte“ Unternehmen Realität.

Data Discovery folgt den Konzepten von „Selbstbedienungs(Self-Service)-BI“, die wir schon im Kap. 3.3 und bei der Diskussion von Berichtswesen in Kap. 5.1 kennengelernt haben. Die Nutzer dieser Werkzeuge erhalten eine hohe Autonomie, und die Rolle der IT entwickelt sich in Richtung eines Service-Anbieters, der die Plattform für SelbstbedienungsBI bereitstellt, betreibt und auch die notwendige Beratung zur Nutzung leistet. Weiterhin ist im Data Discovery eine deutlich bessere Teamunterstützung als mit den traditionellen BI-Werkzeugen möglich. So können die Anwendungen via Web, E-Mail oder Social-Media-Werkzeugen mit Geschäftspartnern ausgetauscht sowie in Office- oder andere Anwendungen eingebunden werden. Diese kollaborativen Aspekte gehen noch weiter: Es können Bemerkungen zu den Daten an Sichten gekoppelt und mit anderen Anwender geteilt

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 83

Wolfgang Martin Team werden. (Abb. 24) Wir hatten diese Kompetenzzentren (Kap. 3.4) aufgezeigt.

Entwicklung

bereits

im

Rahmen

der

BI-

Analytik in Echtzeit – Unter diesem Begriff versteht man eine Analytik, die auch bei großen und sehr großen Datenmengen (Big Data) innerhalb von wenigen Sekunden oder noch schneller Ergebnisse liefert. Es geht also um das Beschleunigen von analytischen Aufgaben. Dabei gibt es prinzipiell drei Möglichkeiten, Analytik zu beschleunigen, wobei diese auf unterschiedliche Weise miteinander kombiniert werden können. 

Spezielle Datenbanktechnologien: Man setzt spezielle SQL-Datenbanktechnologie, die mittels Komprimierung, Indexierung, Vektor-Verarbeitung, speicherbasiertem Caching, Parallelisierung usw. ein oder auch NoSQL-Datenbanktechnologie, um die Performance von Ad-hoc-Abfragen und anderen Business-Intelligence-Komponenten bzw. Werkzeugen drastisch zu verbessern. So werden die Data-Discovery-Prozesse durch schnellere Antwortzeiten (von Stunden auf Minuten und Sekunden) deutlich beschleunigt.



„In-Memory“-Verarbeitung: Man nutzt „In-Memory“-Verarbeitung. Hierbei wird die gesamte zu analysierende Datenmenge im Speicher verarbeitet. Dadurch kann eine bessere Leistung erzielt werden als dies mit Datenbanktechnologien möglich ist, bei denen Daten noch immer physikalisch gespeichert werden. Hier wird auch besonders der 64 bit Adressraum genutzt.



Spezielle Algorithmen: Man nutzt zum Lesen und Verarbeiten von Daten spezielle Algorithmen, die die Beschränkungen von herkömmlichen SQL- und OLAP-Technologien überwinden. Ein Beispiel dazu ist das von Google vorgeschlagene MapReduceVerfahren zur verteilten Verarbeitung als Programmierung-Umgebung und -Modell, das Bestandteil von Hadoop ist. Viele Anbieter kombinieren diese Ansätze mit den oben genannten speziellen Datenbank-Technologien.

Mehr hierzu finden Sie in Kap. 7 („Auf die Latenz kommt es an“) und entsprechende Anbieter werden in den Kapiteln 10.3 bis 10.5 aufgelistet.

5.3

Datenvisualisierung

Datenvisualisierung ist ein mehr und mehr genutztes Werkzeug im Data Discovery. Es ist ein ad-hoc, interaktiver, problembezogener und durch menschliche Interaktion gestalteter Prozess. Der stellt einen dynamischen, menschbezogenen Analyseansatz dar, der das Erkennen von Muster durch das menschliche Auge unterstützt und gegebenenfalls analytische Algorithmen als Ergänzung nutzt. Dank kollaborativer Dienste ermöglicht Datenvisualisierung anspruchsvolle Entscheidungsverfahren auch im Team. Datenvisualisierung eignet sich besonders, um große Datenmengen, komplexe Datenstrukturen oder Echtzeit-Daten zu analysieren. Große Datenmengen und komplexe Datenstrukturen werden durch Visualisierung übersichtlich. Mittels Visualisierung lassen sich strukturelle Änderungen gleichsam ablesen. Die Daten sollten dazu keineswegs aggregiert werden. Datenvisualisierung arbeitet auf detaillierten Rohdaten. Dank einer intuitiven visuellen Benutzeroberfläche sowie einer mächtigen Bibliothek unterschiedlicher

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 84

Wolfgang Martin Team Darstellungsformen wie Charts, Heat Maps und Tree Maps können Nutzer ihre eigenen Fragen stellen und beantworten, indem sie interne und externe Datenquellen - einschließlich Big-Data-Quellen - zur Lösung ihrer Probleme nutzen. Das schafft Transparenz. (Abb. 25)

Abbildung 25: Beispiel für eine Heat Map mit Datawatch Desktop. Mit Hilfe einer solchen Heat Map werden die prozentualen Veränderungen von Aktienkursen im Index FTSE 100 für einen definierten Zeitraum visualisiert. Dunkelrot steht dabei für bis zu minus 5 Prozent, dunkelblau für bis zu plus 5 Prozent Veränderung. So lassen sich auf einen Blick wichtige Entwicklungen erkennen.

Datenvisualisierung ist mehr als die Visualisierung von strukturierten und statischen Daten. Sie hat weitaus mehr Möglichkeiten und Einsatzgebiete, beispielsweise bei der Visualisierung von Datenströmen, die von Sensoren oder Maschinen erzeugt werden. Solche in Echtzeit einströmenden Daten werden entweder direkt als Zeitreihe visualisiert, können aber auch mit einem Video-Recorder aufgezeichnet und als Animation zur Verfügung gestellt werden. In der Regel erfolgt eine solche Visualisierung gleichzeitig mit einer Ereignisverarbeitung. So können beispielsweise Ausreißer sofort entdeckt sowie Trends erkannt und extrapoliert werden. Sensoren können eingesetzt werden, um den Lauf von Maschinen zu überwachen und zu steuern. Ein Nutzen davon ist nicht nur eine Automatisierung der Maschinensteuerung mit entsprechender Kosteneinsparung, sondern auch die proaktive Wartung. Das Identifizieren und das darauf basierende Vorhersagen von Trends erlaubt ein rechtzeitiges Erkennen von Risiken, beispielsweise von zukünftigen Problemen wie Maschinenstillstand und -schaden. Probleme können durch Datenvisualisierung von Datenströmen bereits vor Entstehung erkannt und gelöst werden. So lassen sich Zeit und Kosten einsparen. Zusätzlich wird ein Umsatzverlust aufgrund von Maschinenausfallzeiten vermieden. Das Ergebnis sind smarte Prozesse, die Probleme bereits vor Entstehung erkennen und lösen. Beispiel: Datenvisualisierung in Echtzeit kann auch zur Steuerung der Produktion erneuerbarer Energie eingesetzt werden. Auf Basis von Wetterdaten können über eine Datenvisulisierung geeignete Standorte von Windkraftanlagen ermittelt werden.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 85

Wolfgang Martin Team Der Betrieb der Windparks braucht dann eine Netzwerksteuerung. Auf Basis von Wettervorsagen können erwartete Energiemengen vorhergesagt, die tatsächlichen Werte visuell überwacht und aufgezeichnet werden. Die Benachrichtigungsmaschine kann bei Überschreiten einer vorgegebenen Maximalmenge automatisch je nach Lage entweder eines oder mehrerer Windräder abschalten oder auch auf die Steuerung konventioneller Kraftwerke einwirken. (Abb. 26)

Abbildung 26: Vorausschauende Wartung (Predictive Maintenance) mit Datawatch Desktop: EchtzeitVisualisierungen von Daten aus Windenergieanlagen in den USA. In der Treemap sind alle Windkraftanlagen farbig markiert, die vorsorglich gewartet werden sollten, weil sie aufgrund höherer Windgeschwindigkeiten höheren Belastungen ausgesetzt waren.

Ein anderes Einsatzgebiet ist die Visualisierung von semi- und unstrukturierten Daten, etwa von Daten, die sich in beliebigen Dokumenten wie SAP-Berichten, CSV-Dateien, LogDateien, Web-Seiten etc. oder in Web-Click-Streams befinden. Bei letzteren handelt es sich wieder um Datenströme, die den besten Mehrwert bieten, wenn sie in Echtzeit analysiert werden und so mittels Datenvisualisierung dem Marketing helfen können, das Kundenerlebnis quer über unterschiedliche Kanäle zu steigern. Das erlaubt schließlich das Kalkulieren eines RoI: Transparenz und proaktive Prozesssteuerung lassen sich monetär bewerten, so dass der Mehrwert von Datenvisualisierung erkennbar wird. Datenvisualisierung eignet sich für zwei unterschiedliche Nutzergruppen. Da sind zum einen die Data Scientists. Sie nutzen Datenvisualisierung, um faktenbasierte Entscheidungen vorzubereiten, die mit der Dynamik und der Schnelligkeit des Geschäftsfeldes korrespondieren und einen besseren Einblick in Märkte, Kundenverhalten und Risiken erlauben. Beispiel: Viele Automobilhersteller wissen nicht, mit welchen Modellvarianten sie Gewinne und mit welchen sie Verluste machen. Dies liegt daran, dass herkömmliche BI-Systeme nur stark aggregierte Daten darstellen. Data Discovery mit

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 86

Wolfgang Martin Team Datenvisualisierung hingegen erlaubt den Blick auf nicht-aggregierte Daten. Ein Data Scientist kann die Frage nach der Rentabilität einzelner Modelle schnell beantworten, indem er sich die notwendigen Daten zusammenstellt und beispielsweise mit Hilfe einer Tree-Map-Modell-Varianten, die Verluste einfahren, als rote Flecken erkennt. Wenn ein Data Scientist eine solche Problemstellung gelöst hat, dann kann er einen Lösungsrahmen zusammenstellen, der aus der notwendigen Datenbeschaffung und Integration, sowie den geeigneten Visualisierungs-Formen besteht und dann den Nutzern zugeordnet wird, die in Zukunft die Überwachung und Steuerung des Szenarios übernehmen. Diese Nutzer sind dann reine „Verbraucher“ von Datenvisualisierung, die dann gemäß „Self-Service“-Prinzipien arbeiten können. Wenn man all diese Vorteile von Datenvisualisierung erreichen will, dann kommt der Einsatz von relationalen Datenbanktechnologien in vielen Fällen an seine Grenzen und ist nicht mehr ausreichend. Daher ist es entscheidend, dass Werkzeuge zur Datenvisualisierung auch BigData-Datenbanken unterstützen. Dabei spielen NoSQL (not only SQL)-Technologien eine große Rolle, denn NoSQL-Datenbanken sind bestens geeignet zum Managen von semi- und unstrukturierten Daten als auch von Datenströmen. Auf NoSQL-Technologien gehen wir in den Kapiteln 7.3 und 7.4 genauer ein. Fazit: Ziel von Datenvisualisierung sind faktenbasierte Entscheidungen, die mit der Dynamik und der Schnelligkeit des Geschäftsfeldes korrespondieren, sowie ein besserer Einblick in Märkte, Kundenverhalten und Risiken. Datenvisualisierung hilft so bei der Entwicklung von Prognosemodellen, die wiederum Prozesse anreichern, indem sie analytische Services in Geschäftsprozesse und -Anwendungen integriert. Das schafft smarte Prozesse, die Probleme bereits vor Entstehung erkennen und lösen. Datenvisualisierung ermöglicht so den Nutzern in den Fachabteilungen einerseits einen tieferen Einblick in Risiken und Herausforderungen und andererseits schnellere sowie verbesserte Entscheidungen.

5.4

Web-Analyse

Web-Analyse meint die Anwendung von Performance Management und Analytik auf das Nutzen von und Verhalten auf Webseiten durch die Besucher („Internauten“). Hier geht es um Fragen wie: 

„Wie viele Besucher habe ich in welchem Zeitraum“,



„Welche Bereiche werden wie oft aufgesucht und in welcher Reihenfolge“,



„Woher kommen und wohin gehen die Besucher“ etc.

Das Ziel ist klar: Die Webseite soll optimiert werden, und es soll sichergestellt werden, dass die Ziele der Webseite wie Steigerung der Besuche und der Verweildauer, Steigerung von Downloads, Newsletter-Abonnements und Bestellungen gemessen werden und Maßnahmen rechtzeitig eingeleitet werden können, um solche Zielerreichungen auch sicher zu stellen ganz im Sinne von Performance Management. Insofern ist Web-Analyse ein wichtiges Instrument zur Investitionssicherung. Die Kontrolle des Besucherverhaltens kann in

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 87

Wolfgang Martin Team Verbindung mit der Weiterentwicklung der eigenen Strategie im Internet den Webauftritt und dessen Effizienz zielgerichtet deutlich verbessern. Daher findet man in der Literatur auch den synonymen Begriff „Web-Controlling“. Bei der Web-Analyse wird zwischen zwei Verfahren unterschieden: Das Management der Performance der Homepage zur kontinuierlichen Messung und Überwachung der Effektivität einer Homepage und verschiedene Analysemethoden zur Identifikation von möglichen Schwächen auf der Seite, um Gegenmaßnahmen im Sinne einer Optimierung der Homepage einleiten zu können. Web-Analyse gliedert sich also wieder in ein Performance Management und die Analytik. Beim Performance Management geht es jetzt wieder um die Definition der richtigen Metriken, die dann in Berichten oder Scorecards dargestellt werden. Typisch sind hier Verlauf des Umsatzes über das Jahr, die Anzahl der Besucher der Homepage, die Anzahl der Besucher, die etwas in den Warenkorb legen, die Anzahl der Besucher, die den Kaufprozess abschließen, der durchschnittliche Warenkorbwert, die Kosten pro Kampagne, die Wirksamkeit einzelner Werbemittel wie Banner oder Newsletter etc. Bei der Analytik setzt man verschiedene Szenarien ein. Pfad-Analysen dienen dem Entdecken von besonders beliebten und unbeliebten Abschnitten auf einer Homepage. Segmentierungen unterstützen das Identifizieren und Klassifizieren von Besuchergruppen (beispielsweise Besucher von Suchmaschine X im Vergleich zu Besuchern von Suchmaschine Y). Konversionspfade helfen bei der Messung und Optimierung von definierten, wichtigen Seitenabfolgen in der Homepage. Start- oder Landing Pages werden durch Testen von Änderungen und ihren Auswirkungen auf das Click- und Konversionsverhalten iterativ optimiert. Ähnlich geht man bei der SuchmaschinenOptimierung vor: Ein höheres Ranking der eigenen Homepage bei den gängigen Suchmaschinen sollte sich in einer Steigerung der Anzahl der Besucher messen lassen. Typischerweise werden für Web-Analyse entweder die Logdateien der Webserver ausgewertet oder bestimmte Tags in der Homepage zur Datengewinnung genutzt. Neben diesen beiden Verfahren existieren noch weitere wie die Web-Server Plug-Ins oder Netzwerk Sniffer. Um einen einzelnen Seitenaufruf einer Sitzung und eine Sitzung einem eventuell wiederkehrenden Besucher zuordnen zu können, werden in der Regel Cookies eingesetzt, die aber von vielen Besuchern sehr kritisch gesehen werden. Hier bewegt man sich auf einem sehr schmalen Grat zwischen der Anonymität und dem Schutz der Persönlichkeit der Besucher und dem Interesse des Homepage-Betreibers, seine Kunden im Sinne von Kundenorientierung zu kennen und das Wissen über seine Kunden in seinem Sinne einzusetzen. Zu beachten ist hier allerdings, dass in bestimmten Situationen IP-Adressen als personenbezogene Daten angesehen werden können. Daher sollte bei allen Fragen der Web-Analyse der Datenschutzbeauftragte immer gehört werden. Eine Auswahl der gängigen Web-Analyse-Werkzeuge befindet sich im Kapitel 10.4. Fazit: Eine Web-Analyse ist im Endeffekt ein wichtiges Element von Kundenorientierung. Es ermöglicht Kundenwünsche besser zu verstehen, das Marketing zu optimieren, die Umsätze zu steigern und Betrugsfälle (Klickbetrug, Affiliate Hopping) zu vermeiden. Aber Achtung: Die Nutzung dieser Daten unterliegt den Datenschutzbestimmungen.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 88

Wolfgang Martin Team 5.5

Prädiktive Analytik

Kein Mensch kann in die Zukunft schauen. Kein Mensch kann Daten aus der Zukunft kennen, geschweige denn analysieren. Doch gibt es Methoden, wie man aus Daten aus der Vergangenheit auf zukünftige Trends und Entwicklungen schließen kann. Das ist Ziel und Aufgabe von prädiktiver Analytik. Nutzen Sie in Ihrem Unternehmen im Vertrieb ein Forecasting-System, beispielsweise Funnel-Management, um Ihre Leads monetär nach vermutlichem Volumen, nach voraussichtlicher Dauer bis zum Abschluss und mit einer Wahrscheinlichkeit des erfolgreichen Abschlusses zu bewerten? Dann nutzen Sie bereits prädiktive Analytik. Setzen Sie im Webshop eine Vorschlagsmaschine ein, die Kunden Kaufempfehlungen gibt? Auch das ist eine Anwendung von prädiktiver Analytik. Wenden Sie Marketing-Modelle an, um Entscheidungshilfen zu bekommen, welche Ihrer Anzeigen auf welcher Seite eines Mediums erscheinen soll? All das sind Formen von prädiktiver Analytik, nämlich die Anwendung von Analytik zum Berechnen von Wahrscheinlichkeiten des Eintretens von Ereignissen wie 

der Abschluss eines Vertrages,



das Annehmen von Kaufempfehlungen,



das Risiko des Treffens von Maßnahmen etc.

Prädiktive Analytik gehört genau wie Data Discovery (Entdecken von Zusammenhängen in Datenmengen) in die Familie der Konzepte von Analytik, die zusammen mit den Konzepten von Performance Management (planen, überwachen und steuern auf Basis von Dashboards, Reporting und den entsprechenden Methoden) zu Business Intelligence gehören. Prädiktive Analytik hat im Kundenbeziehungs-/Kundenerlebnis-Management, in Vertrieb und Marketing insbesondere, bereits einen guten Verbreitungsgrad erreicht. Prädiktive Analytik basiert auf Data Mining. Klassische Data-Mining-Methoden umfassen beispielsweise Regressionsanalyse, Klassifizierung (Clustering), neuronale Netze sowie Assoziationsanalysen. Über ein solches Erkennen von Mustern in Datenmengen nutzt Prädiktive Analytik auch statistische Berechnungen, maschinelles Lernen, Elemente der Spieltheorie sowie Methoden des Operations Research, wie Optimierungsrechnung und Simulationsverfahren. Dahinter steckt demnach eine ganze Menge Mathematik und Statistik, heute auch noch Linguistik, wenn Text Mining, bzw. Textanalytik auf nicht-strukturierte Daten wie Texte, Blogs, Tweets etc. angewendet werden soll. Prädiktive Analytik ist der heute am meisten verwendete Begriff hierzu, aber er steht nur gleichberechtigt neben deskriptiver Analytik und präskriptiver Analytics. Was ist also was? 

Deskriptive Analytik beschäftigt sich mit der Vergangenheit. Deskriptive Analytik dient dazu, Beziehungen zwischen Kunden und Produkten zu verstehen. Ziel ist es, von der Vergangenheit zu lernen, um mittels dieses Erfahrungswissens in der Zukunft besser entscheiden zu können. Typische Beispiele sind OLAP-Analysen. Das Problem solcher Analysen besteht darin, dass man zwar Korrelationen aufdecken kann, aber solche Korrelationen rein zufällig sein können und daher nicht ausreichen, um UrsacheWirkungs-Zusammenhänge zu identifizieren. Deskriptive Analytik ist aber ein erster wichtiger Schritt, um neue, unbekannte und nicht-triviale Einsichten in Daten zu bekommen.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 89

Wolfgang Martin Team 

Prädiktive Analytik beschäftigt sich mit der Zukunft. Prädiktive Analytik ermöglicht die Abschätzung der Wahrscheinlichkeit des Eintretens eines zukünftigen Ereignisses. Das klingt im ersten Augenblick kompliziert, aber machen wir uns das an einem weiteren Beispiel klar, dem Kredit-Scoring: Hier soll die Wahrscheinlichkeit abgeschätzt werden, mit der ein Kunde die zukünftigen Ratenzahlungen eines gewährten Kredits nicht leisten könnte. Das dient der Risiko-Abschätzung einer Kreditvergabe und liefert so eine Entscheidungsunterstützung. Es werden also historische und Transaktionsdaten genutzt, um Muster in den Daten zu entdecken. Mittels statistischer Modelle und Algorithmen werden dazu Beziehungen in den verschiedenen Datenmengen identifiziert.



Präskriptive Analytik liefert Vorschläge basierend auf prädiktiver Analytik. Präskriptive Analytics setzt auf prädiktiver Analytik auf und geht noch einen Schritt weiter. Es liefert zusätzlich auch Erklärungen, warum ein zukünftiges Ereignis eintreten wird und gibt Empfehlungen, wie man auf ein solches Ereignis reagieren sollte. Im Falle des Kredit-Scorings bekäme man also zusätzlich noch Information, warum der Kunde nicht zahlen können wird, und welches die beste Entscheidung sei, den Kredit zu vergeben oder nicht. Präskriptive Analytik versucht also die Auswirkung zukünftiger Entscheidungen abzuschätzen, um so Entscheidungen zu bewerten, bevor sie getroffen werden. Bei präskriptiver Analytik handelt es sich noch um eine junge Disziplin, ohne die aber Roboter oder selbstfahrende Autos nicht denkbar sind.

Was und wieviel sollte man als Manager oder Experte im Fachbereich von Analytics wissen und verstehen? Der Einfachheit halber wollen wir hier nicht zwischen deskriptiver, prädiktiver und präskriptiver Analytik unterscheiden, sondern nur von prädiktiver Analytik sprechen. Prädiktive Analytik dient als Konzept der Business Intelligence der Entscheidungsunterstützung. Es schafft Fakten, die sich im Rahmen eines Modells nachvollziehbar und eineindeutig ergeben. Auf Basis dieser Fakten sind dann Entscheidungen zu treffen. Das ist in der Tat die Aufgabe der Manager und Experten in den Fachabteilungen. Man muss also in der Lage sein, das Modell zu verstehen und die Fakten zu interpretieren und Schlüsse daraus ziehen können. Wie Mathematik, Statistik und Linguistik im Rahmen des Modells arbeiten, muss man nicht unbedingt verstehen. Das ist die Aufgabe von speziellen Business-Analysten und/oder Datenwissenschaftlern (Data Scientists). Hier ein paar Tipps, was man über prädiktive mathematisch/statistisch/linguistische Ausbildung wissen sollte. 

Analytik

ohne

Die Daten: Trotz Big Data, der Mangel an geeigneten Daten ist das größte Problem. Wenn man Vorhersagen über zukünftiges Kaufverhalten von Kunden machen will, dann braucht man Daten über das bisherige Kaufverhalten. Die bekommt man beispielsweise über Kundenbindungsprogramme (Treuekarten etc.) oder durch Analysen der mit Kreditkarten getätigten Käufe. Wenn man verschiedene Verkaufskanäle oder Kundenkontaktpunkte hat (was die Regel ist!), dann müssen die Daten über alle Kanäle und Kontaktpunkte entsprechend konsolidiert werden. Mit anderen Worten: Es ist eine relativ schwierige Aufgabe, ein Kunden-Data-Warehouse mit eineindeutiger Kunden-ID aufzubauen, das all diese Daten entsprechend aufbereitet bietet. Dies aber ist die Voraussetzung für eine erfolgreiche prädiktive Analytik.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 90

Wolfgang Martin Team 

Die Statistik: Die am meisten verbreitete Methode in prädiktiver Analytik ist Regressionsanalyse. Der Vorteil ist, dass eine Regressionsanalyse auch gleich ein Modell liefert, das sofort anwendbar ist, nämlich die Regressionsgleichung. Betrachten wir dazu wieder unser Beispiel des Kredit-Scorings. Mittels einer Regressionsanalyse bestimmen wir die Regressionsgleichung und schätzen die Parameter ab. Jetzt kann dieses Modell sofort auf jeden neuen, uns unbekannten Kunden angewendet werden: Wir setzen die durch die Regressionsgleichung bestimmten Parameter ein und kalkulieren den Score. Wichtige Voraussetzungen, dass nun auch alles stimmt, sind vor allem die Qualität der Daten, die wir in der Regressionsanalyse genutzt haben, und die Qualität der Arbeit des Analysten, der die Regressionsanalyse durchgeführt hat. Neben einer solchen traditionellen Regressionsanalyse wendet man heute eine Vielfalt weiterer Verfahren aus dem Data/Text Mining an, auf die wir in den folgenden Kapiteln eingehen.



Das Modell: Die fundamentale Annahme in ist, dass das Verhalten des Modells in der Vergangenheit sich in der Zukunft nicht ändert. Man spricht hier von „stationären Modellen“. In unserem Beispiel des Kredit-Scorings bedeutet das, dass eine Kunde von der Geburt bis zum Tod ein und denselben Kredit-Score hat, egal, was auch immer im Leben und in der Umgebung des Kunden passiert. Das klingt nicht sehr realistisch, die Dinge ändern sich, die Märkte ändern sich, Kundenverhalten ändern sich. Daher ist die Annahme des stationären Verhaltens eines einmal abgeleiteten Modells immer wieder zu hinterfragen, denn ein Modell, das nicht mehr die Wirklichkeit beschreibt, taugt nicht mehr und gibt es in der Regel falsche, nicht mehr zutreffende Vorhersagen. Daher sollte man als Manager, bzw. als Experte in den Fachabteilungen seinen Analysten immer und immer wieder fragen, was die fundamentalen Annahmen des Modells sind, und was die Auswirkungen sind, wenn diese nicht mehr zutreffen.

Mit einem solchen Basisverständnis kann man dann auch mit den Analysten und Datenwissenschaftlern (Data Scientists) Ergebnisse von prädiktiver Analytik diskutieren und folgenden Fragen nachgehen, die zur Bewertung des Modells und seiner Interpretation entscheidend sind: 

Welche Datenquellen wurden genutzt, bzw. nicht genutzt?



Sind die verwendeten Daten repräsentativ für die gegebene Fragestellung?



Gibt es in den Daten Ausreißer und/oder fehlende Daten? Wie beeinflusst das die Analyse?



Welche Annahmen wurden gemacht?



Unter welchen Bedingungen träfen die gemachten Annahmen nicht mehr zu?

Es kommt also im Endeffekt darauf an, dass man die richtigen Daten und das richtige mathematische/statistisch/linguistische Modell hat sowie Sorgfalt beim Umgang mit den fundamentalen Annahmen walten lässt. Das ist in der Praxis nicht immer einfach, aber mit einem solchen Ansatz erhält man Einsichten basierend auf belastbaren Fakten, mit denen man auf der fachlichen und Management-Ebene Entscheidungen treffen kann. Dann gilt es noch, die Auswirkungen dieser Entscheidungen im Sinne von Performance Management zu messen und somit Überwachungsmechanismen aufzubauen, die sicherstellen, dass die getroffenen Entscheidungen auch die beabsichtigten Wirkungen zeigen.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 91

Wolfgang Martin Team Fazit: Mit prädiktiver Analytik bekommen die Unternehmen leistungsstarke, analytische Werkzeuge an die Hand. Wem es gelingt, prädiktive Analytik effizient einzusetzen, kann durch die Vorhersage wahrscheinlicher Entwicklungen in Unternehmen und auf dem Markt bessere Entscheidungen ableiten. Das kann einen deutlichen Wettbewerbsvorsprung gegenüber den Mitbewerbern bedeuten. Die größte Herausforderung von prädiktiver Analytik besteht darin, die gewonnen Ergebnisse erfolgreich in das Business zu übertragen. Das Wissen, welche Kunden potenziell kündigen können, nützt nur dann etwas, wenn die Unternehmen daraus auch die richtigen Schlüsse ziehen. Bei einer falschen Interpretation der Ergebnisse kann sogar das Gegenteil des gewünschten Effekts die Folge sein, beispielsweise in einer Analyse von Kündigungsabsichten bei Kunden eine erhöhte Kündigungsrate. Als erfolgskritisch erweist es sich zudem, die mit den Predictive-Analytics-Ergebnissen verbundenen Aktionen und Maßnahmen für Manager und Experten in den Fachabteilungen transparent zu machen.

5.6

Trends im Data Mining

Definition: Data Mining ist definiert als ein Prozess zur Identifizierung und/oder Extraktion vorher unbekannter, nicht-trivialer, unerwarteter und wichtiger Information aus großen bis sehr großen Mengen von (strukturierten) Daten. Data Mining ist die wichtigste und hauptsächliche Methode von prädiktiver Analytik, wie wir gerade gesehen haben und wird als die eigentlich wirklich “intelligente” Methode und Technologie der Analytik angesehen. Es ist ein “Bottom-up”-Ansatz zum Entdecken von Mustern, Strukturen und Zusammenhängen, um Hypothesen zu bilden. Data Mining hat seit Mitte der 90er Jahre einen festen Platz unter den Instrumenten der Kundenansprache gefunden. Data Mining spielt aber nicht nur im CRM eine Rolle, sondern hat heute einen festen Platz in vielen Bereichen eines Unternehmens wie in Produktions-Überwachung und Steuerung, Risiko-Management, Missbrauchsentdeckung, Geldwäsche etc. Eine VorläuferFunktion hatten statistische Werkzeuge, die auch heute immer noch Anwendung finden und den Einsatz von Data Mining in der Regel vorbereiten oder ergänzen. Data Mining auf polystrukturierten Daten wird als Text Mining bezeichnet. Die folgenden Ausführungen zum Data Mining übertragen sich entsprechend auf Text Mining. Zum Data Mining gehört eine Methodologie, die den iterativen, von der Fachabteilung getriebenen Data-Mining-Prozess beschreibt plus der Werkzeuge, die den Prozess unterstützen. (Abb. 27) Die erste Phase des Data-Mining-Prozesses ist die Datenbereitstellung. Ohne Daten kein Data Mining, das klingt trivial, aber: 60 bis 80 % aller Aufwendungen im Data Mining stecken in der Verfügbarkeit, Erreichbarkeit und der Qualität der Daten fürs Data Mining (siehe dazu auch Kap. 6). Die Automatisierung der Datenbereitstellung ist immer noch eine der großen Herausforderungen im Data Mining. Das liegt zum Teil auch an der Explosion der Datenvolumen. Beispielsweise werden pro Tag durchschnittlich mehr als 500 Millionen

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 92

Wolfgang Martin Team Tweets gesendet27. Das sind natürlich alles poly-strukturierte Daten, aus denen sich wesentliche Information per Text Mining und Textanalytik (vgl. Kap. 5.7) gewinnen lassen. Im Supply Chain-Bereich explodieren die Datenvolumen besonders aufgrund von RFIDTechnologien zur Verfolgung und Registrierung, und Sensordaten geben die Möglichkeit, Maschinen automatisiert zu überwachen und proaktiv zu warten.

Der Data-Mining-Prozess Data Discovery operative Systeme Datenintegration

Altsystem

SAP

Data Scientists, Data Miner

Dynamische Data Marts

DW

Oracle

Modellbildung

Echtzeit

Mikrogeographische Daten

Demo- und soziographische Daten

PMML Web Services

Modellnutzung

Big Data (Hadoop)

ModellManagement Menschen und/oder Prozesse © 2015 S.A.R.L. Martin

27

Abbildung 27: Am Data-Mining-Prozess lassen sich gut die Herausforderungen an Data und Text Mining ablesen. Links: Die Datenbereitstellung sollte per Datenintegrationsplattform erfolgen. Auf die Datenarchitekturen gehen wir in den Kapiteln 7.3 bis 7.5 genauer ein. Das (sehr) große Datenvolumen erfordert eine hohe Performanz und Skalierbarkeit der Algorithmen sowie die Handhabung von bis zu tausenden von Variablen. Rechts: Modellbildung und Modellnutzung wurden ursprünglich getrennt, wachsen aber jetzt unter Echtzeitanforderungen zusammen und werden zum Closed-loop, der durch Performance Management gesteuert werden sollte. Die Modellnutzung erfolgt in der Regel durch Einbettung in operative SOA-basierte Prozesse. Modelle arbeiten zudem wirkungsvoller, wenn sie auf die Problemstellung granular eingestellt werden können. Das erfordert die Erstellung von bis zu hunderten von Modellen in wenigen Tagen. Die Menge an Modellen macht ein Modell-Management wichtiger denn je.

Die Anforderungen an Data-Mining-Algorithmen sind hohe Performanz, da sehr große Datenmengen zu bewältigen sind, und Verarbeiten von auch Tausenden und mehr Variablen aufgrund der Datenvielfalt. Die zweite Phase beschreibt die Auswahl der Methoden, Techniken und Werkzeuge. Data Mining kennt verschiedene Methoden zur Lösung betriebswirtschaftlicher Aufgaben: 

Klassifikation: Mit dieser Methode versucht man ein neues Objekt in vorgegebene Klassen einzuordnen. Einem Datensatz wird also als neues Attribut die

27

siehe http://expandedramblings.com/index.php/march-2013-by-the-numbers-a-few-amazing-twitterstats/2/#.U4R75suKDIU, Zugriff am 27.05.2014.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 93

Wolfgang Martin Team Klassenzugehörigkeit zugeordnet. Typische Beispiele sind die Klassifizierung von Kreditanträgen in Risikoklassen oder die Zuordnung von Kunden in Kundensegmente. 

Schätzung: Klassifikation behandelt diskretes Auskommen, im Prinzip ein „ja“ oder „nein“. Schätzung behandelt dagegen kontinuierliches Auskommen. Die Aufgabe ist, auf Basis von Eingangsparametern eine Ausgangsgröße schätzen. Typisches Beispiel ist ein Scoring mit dem die Wahrscheinlichkeit ausgedrückt wird, dass ein Kunde auf ein Angebot mit Kauf reagieren wird oder ein Abonnement kündigen wird.



Vorhersage: Hier werden Modelle abgeleitet, die die Datenstrukturen sequentiell beschreiben, um zeitliche Vorhersagen zu machen. Beispiel hierzu sind Zeitreihenmodelle im Finanzwesen wie Vorhersage von Börsenkursen etc. Hier geht es auch um das Aufdecken zeitlicher Abfolgen als Grundmuster im Kaufverhalten. Typisches Beispiel aus dem Handelsbereich ist das Aufdecken von Folgekäufen.



Assoziationsanalyse: Mit dieser Methode werden Beziehungen zwischen unterschiedlichen Elementen einer Kategorie ermittelt. Typisches Beispiel sind Warenkorbanalysen im Handelsbereich, wobei statistische Zusammenhänge zwischen Produkten aufgedeckt werden. Das erlaubt beispielsweise die Identifizierung von KoProdukten für Cross-Selling-Ansätze.



Clustering/Mustererkennung: Diese Methode dient der Zusammenfassung von Objekten zu disjunkten Klassen auf Basis von Ähnlichkeitsmassen. Beispiel hierzu ist die Ableitung eines Tarif/Preissystems durch Analyse des kundenspezifischen Verkehrsverhaltens im Telefon-Netz oder durch Analyse des Schadensverhaltens in der Kraftfahrzeugversicherung.



Beschreibende Modelle: Hier sollen Zusammenhänge zwischen den Variablen aufgedeckt und beschrieben werden. Das ermöglicht auch, Erklärungen für bestimmte Verhaltensweisen zu finden.

Klassifikation, Schätzung und Vorhersage gehören zum zielgerichteten Data Mining. Die Aufgabe ist, ein Modell zu bilden, das aus den Eingangsvariablen Ausgangsvariablen bestimmt. Assoziationsanalyse, Clustering und beschreibende Modelle dagegen gehören zum nicht zielgerichteten Data Mining. Hier gibt es um die Ableitung von Beziehungen zwischen den Variablen. Data-Mining-Werkzeuge unterstützen diese Methoden durch verschiedene Techniken. Das sind zum einen mathematisch-statistische Verfahren, wie General Linear Analysis, Diskriminanz-Analyse, Regressionsanalyse, Korrelationsanalyse etc., und zum anderen Verfahren, die aus der informationstheoretischen Kybernetik stammen wie neuronale Netze, Entscheidungsbäume, Induktionsregeln, Self-Organizing Maps (SOM), Support-VektorVerfahren, Fuzzy-Logik und wissensbasierte Systeme. Wichtig sind Visualisierungsverfahren zur Unterstützung, denn bei aller Mathematik, Statistik und Informationstheorie ist das menschliche Auge ein gleichwertiger Detektor, wenn man Strukturen adäquat darstellen kann. Die Frage ist nun, mit welcher Data-Mining-Technik man welche Methode unterstützt. Hier gibt es aber keine Eins-zu-eins-Zuordnung. Natürlich gibt es gewisse auf Erfahrung beruhende Regeln, die hilfreich sind, die richtige Data-Mining-Technik als Lösungsmethode

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 94

Wolfgang Martin Team zu wählen, aber diese Regeln sind als heuristisch zu verstehen. Zur Problemlösung zieht man in der Regel verschiedene Techniken heran, um die Ergebnisse mittels Assessment miteinander vergleichen zu können (Abb. 28).

Abbildung 28. Moderne Werkzeuge für Datenanalysen und Data Mining wie hier die Auto-ClusterFunktion des SPSS PASW Modeler 13 erlauben es, datenbasierte Entscheidungsmodelle mit unterschiedlichen statistischen Verfahren zu berechnen und deren prognostische Fähigkeiten miteinander zu vergleichen. Hat man sich für ein geeignetes Modell oder Modellensemble entschieden, wenden diese Werkzeuge die Regeln automatisch an.

Die dritte Phase beschreibt die Entwicklung des Data-Mining-Modells und die Interpretation der Ergebnisse. Trotz deutlicher Fortschritte bei den Data-Mining-Werkzeugen bleibt hier eine Beratung und ein Einsatz von Spezialisten vielfach erforderlich. Insofern ist diese Phase iterativ: Der Data-Mining-Experte leitet das Modell ab und verfeinert es in enger Rückkopplung mit dem das Projekt führenden Fachbereich. Inzwischen gibt es aber auch einige Data-Mining-Werkzeuge, die im Sinne von Self-Service-BI Poweruser in den Fachabteilungen direkt unterstützen. So lässt sich Data Mining in einem Unternehmen breiter einsetzen. Die Verantwortung des Fachbereiches ist die Interpretation der Ergebnisse und das Prüfen auf fachrelevante Verwendbarkeit und Einsetzbarkeit. Die Data-Mining-Vorgehensweise sollte als Methodologie dokumentiert sein, visuell unterstützt sein (Abb. 29) und der resultierende Data-Mining-Prozess sollte am besten ein SOA-basierter Prozess sein. Bisher dauerte die Modellbildung mehrere Tage bis zu Wochen. Dadurch war man in der Anzahl der einsetzbaren Modelle beschränkt. Konsequenterweise wurden dann Aufgabenstellungen zu Gruppen zusammengefasst und alle Gruppenelemente mit einem

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 95

Wolfgang Martin Team Data-Mining-Modell bearbeitet. Besser ist es natürlich, wenn man Modelle schneller erzeugen kann, so dass jedes Modell feiner gemacht werden kann.

Abbildung 29: Modellierung von Data-Mining-Prozessen, hier als Beispiel die Visualisierung des Preprocess-Workflows von Viscovery mit seiner Verwaltung benutzerdefinierter Varianten (Auszug aus einer Churn-Analyse).

Beispiel: Ein Clustering-Modell für eine Kundensegmentierung erstellt für ganz Deutschland ist zwar gut, wenn wir aber ein Modell pro Bundesland oder pro Regierungsbezirk erstellen können, dann haben wir in der Regel ein feineres Modell, da es die regionalen Unterschiede in der Demographie besser herausarbeitet und so nachweislich bessere Ergebnisse liefert. Das bedeutet jetzt, dass wir in der Lage sein müssen, eine große Zahl von Modellen in der gleichen Zeit zu erstellen. Wenn wir jetzt noch die zeitliche Dimension des Modells betrachten, vergrößert sich die Anzahl der zu entwickelten Modelle nochmals. Modelle ändern sich nämlich in der Regel über die Zeit. Ein Modell zu Ostern kann ganz anders aussehen als eins zu Weihnachten oder in der Ferienzeit oder wenn ein Mitbewerber eine Kampagne fährt. Die Anforderung ist also, in einem vorgegeben Zeitfenster (1 bis 2 Tage) viele (hunderte und mehr) Modelle zu erstellen. Die große Zahl von Modellen gilt es jetzt zu managen. Ein Data-Mining-Modell-Management war zwar schon immer erforderlich, aber bei den großen Zahlen von Modellen, die heute zum Einsatz kommen, ist das Modell-Management wichtiger denn je. Die vierte Phase beschreibt den Einsatz des prädiktiven Modells in einem operativen Prozess. Bisher waren der Data-Mining-Modellierungsprozess und der Einsatz des

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 96

Wolfgang Martin Team abgeleiteten prädiktiven Modells strikt voneinander getrennt. Die Einbettung des prädiktiven Modells geschieht heutzutage per Service in den entsprechenden SOA-basierten Prozess. Wenn die Modellierung aber immer noch off-line erfolgt, haben wir mitunter ein Problem: Man weiß nicht, ob nach einiger Zeit das im operativen Prozess eingesetzte prädiktive Modell noch gültig ist, wie wir im Beispiel oben schon beschrieben haben. Es genügt also nicht, die prädiktiven Modelle einmal oder regelmäßig abzuleiten, sondern man muss auch sicherstellen, dass das prädiktive Modell selbst dynamisch den Kontext des Prozesses abbildet: Es muss à jour sein. Dazu setzt man ein Modell-Management ein, das den Prozess der Modellbildung mit dem operativen Prozess, der das Modell nutzt, per Closed-loop zusammenschließt. Hier sind robuste oder adaptive Algorithmen hilfreich. 

Robuste Algorithmen sind in der Lage, die Präzision der Prädiktion bei jeder Interaktion zu messen. So kann man entdecken, wenn eine Modelländerung oder Anpassung notwendig wird. Damit kann man einen (semi-)automatisierten Prozess aufbauen, der das Re-Modellieren des prädiktiven Modells automatisch triggert, also beispielsweise eine Benachrichtigung an den Data-Mining-Spezialisten sendet.



Adaptive prädiktive Modelle sind selbst lernend und liefern im Kontext des Prozessdatenmodells immer aktuelle Prognosen. Mit diesen automatisierten und dynamischen Data-Mining-Lösungen lassen sich Prognosen über beliebige Aspekte von Kunden erstellen, zum Beispiel über die Churn-Gefahr, den Kundenwert oder auch die Umsatzerwartung. Solche Lösungen sind auch zur dynamischen Cross- und Up-SellingPrognose in Prozessen mit sehr kurzen Reaktionszeiten einsetzbar, wie etwa im Telefonmarketing oder auch im E-Commerce.

Schließlich muss der Data-Mining-Prozess wie jeder andere Prozess auch ein PerformanzManagement haben. Es gilt also im Prozess die Messstellen zu definieren, die Metriken zu entwickeln und den Data-Mining-Prozess genau wie jeden anderen Prozess per Closedloop-Ansatz zu überwachen und zu steuern. Zum Schluss noch ein wichtiger Leitsatz, der für alle Data-Mining-Aufgaben gilt: Die Präzision der Ergebnisse als auch die mathematische Eleganz bestimmter Data-MiningTechniken sollten weniger wichtig bewertet werden, als die Geschwindigkeit, mit der Ergebnisse erzielt werden können.

5.7

Textanalytik

Textanalytik ist eine neue Klasse von Analytik28, die linguistische Verfahren mit Suchmaschinen, Text Mining, Data Mining und Algorithmen des maschinellen Lernens kombiniert. Treiber für Textanalytik sind insbesondere Big Data und hier die sozialen Medien.

28

Quelle und weitere Infos : http://www.intelligententerprise.com/blog/archives/2007/02/defining_text_a.html

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 97

Wolfgang Martin Team Social Media: Die Nutzer von Facebook, Xing, LinkedIn, Twitter oder anderen Communities zählen nach Hunderten von Millionen und Milliarden. Ihre Anzahl wächst beständig. Dazu kommen die vielen, meist spezialisierten Blogs und Foren. Das unterstreicht die Attraktivität von Social Media, die ein Mitmach-Web erlauben, bei dem jeder Internaut dabei sein und seine Meinungen, Stimmungen und Vorlieben mitteilen kann. Der Marktforscher, der Produktmanager und jeder im Marketing sieht aber noch etwas ganz Anderes: die neue Dimension an Daten über aktuelle und zukünftige Kunden, über Potenziale, Stimmungen, und Trends im Markt. Denn jeder Internaut kann jetzt in den Social Media auch seine persönlichen Daten mit allen anderen teilen. Das Teilen und Teilhaben lassen ist in den Social Media der große Renner. Mitunter meint man, man hat es in den Netzgemeinschaften mit „digitalen Exhibitionisten“ zu tun: So freizügig werden persönliche und ganz persönliche Daten eingestellt. Das ergibt für die Marketer in den Unternehmen einen wahren Schatz an Information, den es nur zu heben gilt. Vor einigen Jahren haben schon Unternehmen aus der Telekommunikation begonnen, Web-Daten systematisch auszuwerten. Inzwischen sind nicht nur Banken und Versicherungen hinzugekommen, sondern auch Händler und Konsumgüterhersteller machen das – aber niemand spricht gerne darüber. Man will seinen Kunden nicht gerne sagen, dass man inzwischen eine nahezu gläserne Transparenz geschaffen hat. Der Nutzen dieser Transparenz durch Web-Daten liegt auf der Hand: Ein Hersteller von Konsumgütern will beispielsweise wissen, wie Konsumenten sein Angebot und/oder das Angebot seiner Mitbewerber in den einschlägigen Blogs diskutieren. Oder eine Hotelkette interessiert sich für das elektronische Feedback ihrer Gäste und/oder für die Bewertungen der Mitbewerber. Alles wird möglich, wenn all diese Daten zugreifbar und auswertbar werden. (Abb. 30) Als erstes braucht man dazu einen „Staubsauger“, der die relevanten Daten aus dem Web im wahrsten Sinne des Wortes absaugt. Das leisten heute die semantischen Web-Crawler. Diese Technologie zur Webextraktion erlaubt, alle öffentlichen Daten im Web zu lesen und zu extrahieren, auch wenn es keine publizierten Schnittstellen geben sollte. Wir beschreiben diese Technologien in Kap. 6.4. Jetzt kommt es auf die Analyse an. Die klassischen Verfahren aus Statistik und Data Mining greifen hier aber zu kurz, da Web-Daten in der Regel poly-strukturiert, bestenfalls semistrukturiert sind. Die neuen Anforderungen, Web-Daten zu analysieren, hat eine neue Klasse analytischer Werkzeuge und Verfahren in den Fokus des Managements gebracht: die Textanalytik („text analytics“). Die Anforderungen der Social-Media-Daten an die AnalyseWerkzeuge sind hoch. In den sozialen Medien findet man viel Zynismus, Sarkasmus und Polemik. Dazu kommt noch eine semantische Armut in den 140-Zeichen Tweets. Da gut 80% aller Daten im Unternehmen nicht in Datenbanken gespeichert sind, sondern in Form von E-Mail und Dokumenten in poly-strukturierter Form vorliegen, eignet sich Textanalytik nicht nur zur Analyse von Web-Daten, sondern auch von Unternehmensdaten. Man findet ja meistens in den E-Mails und in den entsprechenden Dokumenten den Kontext, der zur richtigen Interpretation von strukturierter Information führt. Insofern leistet die traditionelle Business Intelligence mit OLAP, Statistik und Data Mining das Erkennen des „was“ im Unternehmen, während aus den Text-Daten das „wie“ gefolgert werden kann.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 98

Wolfgang Martin Team

Einbettung von Analytik in Prozesse/Services

Geschäftsprozess oder Business Service

Composite/Mashed Application

RegelMaschine

App

AnalytikModelle ModellDB

Daten-Services Datenintegration

CMS

Externe Daten

Data Warehouse

Files, XML, Spreadsheets

Analytik

Operative Daten

Modell

Hadoop

Dynamischer Datenzugriff © 2015 S.A.R.L. Martin

30

Abbildung 30: Der Analytik-Prozess zur Modellbildung beginnt mit der Datenbereitstellung, die über dynamische, service-orientierte Datenzugriffe auf alle verfügbaren Datenquellen per Datenintegrationsplattform erfolgen sollte. Das (sehr) große Datenvolumen („Big Data“) erfordert eine hohe Performanz und Skalierbarkeit der Algorithmen sowie die Handhabung von bis zu tausenden von Variablen. Die Modellnutzung erfolgt idealerweise durch die Einbettung eines abgeleiteten AnalytikModells, das durch eine Regelmaschine herangezogen wird, in die relevanten Geschäftsprozesse. Das ist dann besonders schnell und flexibel möglich, wenn eine service-orientierte Architektur vorliegt (mittels Rule-Services, siehe Kap. 4.3). So erhalten wir durch Analytik angereicherte smarte Prozesse. Beispielsweise kann so im Kundenerlebnismanagement ein Kunde einem sozialen Profil zugeordnet werden und entsprechend eine sehr gezielte Kaufempfehlung ausgesprochen werden.

Textanalytik ist eine Erweiterung von Analytik, insbesondere von Data Mining und Text Mining und bringt Analytik ins Content Management und ins World Wide Web. Textanalytik meint sowohl die Technologie als auch den Prozess zur Wissensentdeckung in poly-strukturierten Daten. Ziel von Textanalytik ist es in einem ersten Schritt, Entitäten (beispielsweise Namen, Daten, Orte, Bedingungen) und ihre Attribute sowie die Beziehungen, Konzepte und Stimmungen zwischen Entitäten trennscharf zu identifizieren. In einem ersten Schritt gilt es dabei, Strukturen in den zu analysierenden Text zu bringen. Dazu werden so viele Wörter wie möglich identifiziert und einer fachlichen Domäne zugeordnet. So erfolgt eine inhaltliche Klassifikation. Beispiels für fachliche Domänen wären „Markennamen“ oder „Ländernamen“. Bei der Identifikation unterscheidet man im Wesentlichen drei Verfahren: 

Wörterbücher als Referenzmengen. Das ist der typische Ansatz zur Identifikation von Marken- oder Ländernamen. Es wird ein Wörterbuch erstellt, das alle in Frage kommenden Begriffe dieser Domäne enthält. Die Identifikation erfolgt dann durch einen einfachen Abgleich, bei dem auch weitere zusätzliche Information mit einem jeweiligen Begriff verknüpft werden kann.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 99

Wolfgang Martin Team 

Regeln basierend auf Mustern. Damit lassen sich semi-strukturierte Elemente in Texten sehr gut identifizieren, beispielsweise Telefonnummern, Kreditkartennummern, Datumsangaben etc.



Regeln auf Basis der Grammatik. Die werden aus den entsprechenden grammatischen Strukturen wie Deklination, Konjugation etc. einer Sprache abgeleitet.

Die Ergebnisse einer solchen Identifikation nennt man Annotationen. Die lassen sich als Tabelle pro Domäne darstellen. Diese Tabellen bilden die Basis für alle weiteren Schritte der Textanalytik. In einem zweiten Schritt lassen sich auf diesen Strukturen Klassifikationen aufbauen und visualisieren. Ein Beispiel hierzu ist die Identifikation von Meinungsmachern in sozialen Netzen. Beispiel: Nehmen wir eine fiktive Telefongesellschaft. Nehmen wir an, dass einer seiner Mitbewerber einen aggressiven Familienplan anbietet. Der Kundenservice bekommt auf einmal Nachfragen zu diesem Mitbewerbsangebot. Wie bekommt man das als das Marketingteam mit? Schnell ist der Kundenservice überfordert. Bis zu 10% aller Anfragen drehen sich um dieses Mitbewerbsprodukt. Berge von Notizen türmen sich im Kundenservice, vielleicht sogar weltweit. Wenn jetzt die Telefongesellschaft eine Technologie hätte, um Notizen im Kundenservice regelmäßig auf auffällige neue Muster zu untersuchen, dann wäre dieser Angriff eines Mitbewerbers schnell entdeckt und Marketing könnte rechtzeitig reagieren. Mehr noch, man könnte nicht nur interne Daten so kontinuierlich analysieren, sondern auch externe wie beispielsweise in sozialen Netzen, wo über neue innovative Technologien und Produkte gerne diskutiert wird. Das Beispiel zeigt ein weiteres Einsatzgebiet von Textanalytik: Stimmungsanalysen. Automatische Stimmungsanalyse („Sentiment Analysis, Opinion Mining“) aus Web Blogs, Diskussionsforen und Produktbewertungen setzen bereits führende europäische Marktforschungsunternehmen ein. Ziel ist es, im Rahmen der Online-Marktforschung automatisch Stimmungsbilder über Produkte und/oder Unternehmen ihrer Kunden zu erstellen wie beispielsweise zur Analyse von Meinungen zu bestimmten Hotelketten oder Hotels, zu Consumer-Produkten wie Waschmitteln oder über technische Produkte wie Mobiltelefone. Der jeweilige Hersteller bekommt dabei nicht nur Stimmungsbilder zu seinen Produkten, sondern auch den Vergleich zu anderen Produkten von Wettbewerbern und die Kennzahlen zum Controlling der Effektivität und Effizienz von Marketing-Maßnahmen sowie Empfehlungen für bestimmte Marketingmaßnahmen. Gerade die Möglichkeiten von multilingualen Analysen erlauben heute auch globale Analysen, wie beispielsweise eine Marke in verschiedenen Ländern wahrgenommen wird. Automatische Stimmungsbeobachtung spielt auch in der Pharmaindustrie eine Rolle, unter anderem zur Stimmungsanalyse zu neuen Medikamenten, auch zur Wettbewerbsbeobachtung und zum Monitoring des Ansehens eines Pharma-Unternehmens selbst. Im Finanzbereich wird automatische Stimmungsanalyse eingesetzt, um in Texten ausgedrückte Stimmungen/Meinungen zu bestimmten Wertpapieren/Aktien automatisiert zu erkennen. Gute/schlechte Meinungen entsprechen dann beispielsweise Kaufs- bzw.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 100

Wolfgang Martin Team Verkaufsempfehlungen. Stimmungsanalysen wurden auch schon in der Politik angewendet, bereits 2008 im Präsidentschaftswahlkampf in den USA. Textanalytik ist auch erfolgreich, wenn es um das Identifizieren und Abgrenzen von kritischen Kunden, die sehr hilfreich beim Beseitigen von Produktschwachstellen sein können, von notorischen Nörglern und Besserwissern geht. Beispiel: Ein Automobilhersteller wie BMW arbeitet aktiv mit Blogs. Man hat die Erfahrung gemacht, dass Kunden in den Blogs zum Teil so positive Meldungen verbreiten, wie man sie als BMW selbst nie in Werbesprüchen verwenden sollte. (Achtung: Das Gegenbeispiel ist Sony, die versuchten, Blogs zu manipulieren. Als das bekannt wurde, war der Schaden groß.) Für die Käufer der M-Modelle hat man die BMW M Power World geschaffen, ein soziales Netz, bei dem es rund um das sportliche Fahren geht. Hier werden die Kunden auch eingeladen, sich mit BMW Entwicklern und Designer auszutauschen. Der Kunde wird zum Produktentwickler! Automobilhersteller haben so eine Social-Media-Vorwärts-Strategie: Die Möglichkeiten von Social Media sind Teil der CRM-Strategie. Die Alternative ist eine passive Strategie des Beobachtens ausgewählter Blogs und Foren per Textanalytik, um kritische Situationen und Stimmungsänderungen möglichst rechtzeitig mitzubekommen. Das funktioniert zwar, aber die Maßnahmen, die man im Falle des Falles ergreifen kann, sind beschränkt. Blogeinträge lassen sich nicht löschen, denn sollte man es wirklich schaffen, einen Blogeintrag per Gerichtsbeschluss zu löschen, dann taucht der garantiert nicht nur an einer anderen Stelle wieder auf. Das Prinzip „semper aliquid haeret“ ist in den Social Media unerbittlich, wenn auch neuerdings der Gesetzgeber in Europa auf ein Recht des Vergessens drängt. So wurde Google beispielsweise gezwungen, bestimmte Quellen im Web bei berechtigten Einwänden als Suchergebnisse nicht mehr anzuzeigen. Textanalytik wie jede Analytik sollte stets mit einem Performance Management verbunden sein ganz im Sinne des bekannten Leitsatzes: Man kann nur managen, was man auch messen kann. Benötigt werden unter anderem Metriken zur Berechnung der Relevanz von Quellen und der Vernetzung von Quellen, Scorecards zum Visualisieren und Verdichten der Monitoring-Ergebnisse und schließlich auch ein Reporting, insbesondere ein AusnahmeReporting, um automatisch Auffälligkeiten in den Social Media wie ein Anstieg von Tags, von Autoren, von Threads etc. anzuzeigen. Anbieter zu Textanalytik finden Sie im Kapitel 10.4. Auch wenn Textanalytik-Lösungen dem Namen nach als Komplettlösungen daherkommen, heißt das nicht, dass diese „Produkte“ out of the box einsatzbereit sind. Die Anwendung von Textanalytik sollte durch Data Scientists erfolgen. Da diese in den Unternehmen vielfach noch nicht ausreichend vorhanden sind, ist Textanalytik heute ein sehr lohnendes Feld für Berater. Eine individuelle Beratung ist notwendig, denn sowohl die Analyse wie auch die Interpretation der Ergebnisse erfordern ein tiefes Fachwissen. Mittels mathematischer Verfahren gefundene Strukturen und Beziehungen sind zwar faktisch richtig, aber solche Fakten müssen nicht unbedingt etwas mit der realen Welt zu tun haben. Das gilt ganz besonders für gefundene Fakten auf Basis von Social-Media-Daten, denn Bewertungen können aus Freundschaft erfolgt sein, Meinungen in Blogs können manipuliert und Profile in sozialen Netzen auch frei erfunden sein. Daher ist es ganz wichtig, die durch Textanalytik gefundenen Fakten als Hypothesen auf Plausibilität zu testen (vgl. hierzu auch Kap.2.4). Das ist heute Aufgabe eines Data Scientists.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 101

Wolfgang Martin Team 5.8

Location Intelligence – Die Bedeutung des „Wo“

Unter Location Intelligence versteht man die geographische Dimension von Business Intelligence. Location Intelligence nutzt geographische Daten, die beschreiben „Wo“ sich ein Kunde, ein Lieferant, ein Partner, ein Unternehmen oder ein Produkt befindet oder eine Dienstleistung vollbracht wird. Sie beschreibt die Fähigkeiten, komplexe Phänomene zu verstehen und zu organisieren mittels geographischer Beziehungen, die sich in nahezu jeder Information befindet wie in Adressen und Routen. 80% der Information im Unternehmen haben ex- oder implizit etwas mit Ortsangaben, dem „Wo“ zu tun.29 Durch die Kombination geographischer und raumbezogener Daten mit anderen Business-Daten lassen sich zusätzliche Einsichten gewinnen, so dass bessere Entscheidungen getroffen und Geschäftsprozesse optimiert werden können. Die Vorläufer zu Location Intelligence sind geographische Informationssysteme (GIS). Ein GIS war in der Regel eine generische, abteilungsbezogene Nischenapplikation, die von wenigen Experten verstanden und genutzt wurde. Location Intelligence bezieht sich auf das gesamte Unternehmen und ist prozess- und marktbezogen. Sie adressiert prinzipiell jeden Mitarbeiter im Unternehmen. Location Intelligence kombiniert Technologie, Daten und Services mit Fachwissen, um Organisationen in die Lage zu versetzen, ihre Geschäftsdaten auch räumlich geographisch zu messen, zu vergleichen, zu visualisieren und zu analysieren. Mit Location Intelligence verfolgt man das gleiche Ziel wie mit Business Intelligence: Aus Daten soll Information, aus Information Wissen und aus Wissen sollen Entscheidungen und Aktionen zur Steuerung des Unternehmens gewonnen werden (Abb. 31). Als Konsequenz folgt, dass Location Intelligence sowohl bei rein analytischen, dispositiven Fragestellungen eingesetzt werden kann als auch operativ, sogar in Echtzeit in Geschäftsprozesse eingebettet werden kann. Daher wird heute Location Intelligence genau wie Analytik per Services angeboten, um IT-mäßig diese beiden Aufgabenbereiche dispositiv und operativ gleichermaßen abdecken zu können. Beispiele für dispositive Location Intelligence sind Netzwerk-Planung und -Design in Branchen wie Versorgung (Wasser und Elektrizität), Telekommunikation und IT, Stadtund Standortplanung und -Analyse (Öffentliche Verwaltung, Gesundheitswesen, Banken, Handel und Touristik), Risiko-Management (Versicherungen) und Markt- und Kundenanalysen (alle Branchen im B2C). Beispiele für operative Location Intelligence findet man vor allem im Kundenbeziehungsmanagement (Neukundengewinnung, Cross-/Up-Selling und Kundenbindung) und in vielen Branchen wie Versicherung (Schadenmanagement, Risiko-Management) und Transport (Pannen- und Rettungsdienste sowie Tracking und (Echtzeit-)Routen-Management).

29

Siehe http://www.intelligententerprise.com/print_article.jhtml;jsessionid=SFANAIHXNPWYMQSNDLOSKH0CJUNN2JVN ?articleID=181503114

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 102

Wolfgang Martin Team Wie die Beispiele zeigen, hat operative Location Intelligence vor allem auch ein hohes Potential bei mobilen Diensten, denn hier kommt es ja ganz besonders auf das „Wo“ an.

Abbildung 31: Daten-Analyse im Positionskontext von Landkarten mit Cubeware Cockpit V6pro: Besonders gut einsetzen lässt sich diese im Vertrieb, um beispielsweise Umsatzvergleiche, Varianten und Zeitreihenanalysen, zeitliche Betrachtung von Betreuungs- und Versandstrukturen sowie Abweichungsanalysen geografisch und gebietsbezogen durchzuführen. Im Screenshot zu sehen ist eine ABC-Analyse interaktiv über die Postleitzonen einer Deutschlandkarte visualisiert. Durch die Karte wird ersichtlich, dass die sich nicht so gut entwickelnden Regionen (Kategorie C der ABCAnalyse) geographisch zusammenhängen.

Die Datenquellen für Location Intelligence sind vielfältig. Es beginnt bei den eigenen Kundendaten und geht weiter zu externen Datenquellen wie kunden-demographischen Daten, Luft- und Satellitenbildern und geographischen Daten. Das unterstreicht die Bedeutung von Service-Orientierung für Location Intelligence. Das Mashing-up von Information aus unterschiedlichen Quellen und die Kombination mit anderen Business-Daten bringen den Mehrwert. Das funktioniert umso besser, wenn die geographische Information als Web Services oder andere standardisierte Services angeboten werden. Das ist heute in der Regel der Fall: Das Nutzen von Location Intelligence als neue Dimension zu Business Intelligence wird so einfacher und schneller. Der besondere Nutzen, der durch Location Intelligence erreicht werden kann, wird deutlich, wenn man kundenzentrischen Daten eine räumliche Koordinate zuordnet, und damit in die Lage versetzt wird, den Kundenstamm räumlich darzustellen. Allein hierin liegt bereits ein enormes Wertsteigerungspotential.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 103

Wolfgang Martin Team Die Werkzeuge von Location Intelligence sind die Verortung von Daten (Geocodierung), beschreibende Kartographie, Visualisierung und die analytische Kartographie bis hin zu prädiktiven Vorhersagemodellen (Abb. 32). Geocodierung hat zwei Komponenten, zum einen die Codierung von Adressdaten und zum anderen die Codierung von IP-Adressen. Letztere ist entscheidend, um im mobilen Internet Nutzer räumlich identifizieren zu können.

Location Intelligence Services

Predict

© 2015 S.A.R.L. Martin

32

Abbildung 32: Location Intelligence besteht aus geographischen Informations-Services, die unterschiedliche Sichten auf die „reale Welt“ geben wie beispielsweise Straßen-, Parzellen-, Nutzungs- und Höhen-Information, die dann mit Kundeninformation kombiniert werden können. Location Intelligence-Prozesse beschreiben das Mashing-up der geographischen InformationsServices in den Phasen Lokalisieren, Visualisieren, Analysieren, Planen und Vorhersagen.

Entscheidend für den Erfolg von Location Intelligence ist die Interaktivität und Intuitivität. Wenn man von einer Karte spricht, denkt man immer noch an ein statisches Dokument. Das ist nicht vergleichbar mit interaktiven Kartierungen von heutigen Location IntelligenceWerkzeugen. Die Interaktivität macht auch hier das menschliche Auge zum Detektor von bisher unbekannten Mustern, Trends und Strukturen, die sich durch die Kombination von räumlichen und Business-Daten ergeben. Insofern bieten die Location IntelligenceWerkzeuge auch ein mächtiges Komplement zu Data Mining und statistischen Auswerteverfahren. Auf das „Wo“ kommt es eben bei Business Intelligence ganz besonders an, im Dispositiven und im Operativen: Location matters!

5.9

Big Data trifft Performance Management und Analytik

Im Zeitalter von Big Data wird Performance Management und Analytik um Social-MediaFunktionalität, um Wissensmanagement, um neue Technologien (Web- und Cloud-

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 104

Wolfgang Martin Team Integrationswerkzeuge, analytische Datenbanken, Textanalytik) und um neue Anwendungsfelder (Social-Media-Performance-Management, Social-Media-Analytik) erweitert und ergänzt. Schauen wir uns das jetzt genauer an und fragen uns schließlich, was der Nutzen ist. Social-Media-Funktionalität und Kollaboration. Social Media beschränkt sich nicht auf private Nutzung, sondern dringt auch in die Unternehmen ein. Wer gewohnt ist, im Privatleben mit Social Media zu leben, der will auch ähnliche Konzepte im Unternehmen haben. Social Media bringen so eine neue Arbeitsumgebung auch in Performance Management und Analytik. Als erstes wird das traditionelle BI-Portal ersetzt, bzw. ergänzt. Facebook und andere Social-Media-Angebote haben hier Standards gesetzt: Es haben sich neue, intuitive Benutzeroberflächen herausgebildet, die inzwischen jeder ohne jeglichen Schulungsaufwand versteht und nutzen kann. Dazu kommt die neue Art der Kommunikation im Netzwerk. In den Netzwerken läuft Kommunikation entlang der Netzwerkstrukturen. Es ist eine „viele-zu-viele“ Kommunikation, eben à la Facebook und Twitter. Das wird jetzt konsequent beim Nutzen von Performance Management und Analytik-Werkzeugen umgesetzt. So lassen sich Berichte und Kennzahlen zum ersten Male auch Autoren zuordnen. Sie lassen sich annotieren und diskutieren, ja auch Fragen zu den Zahlen können gestellt werden. So kommt Wissen aus den Köpfen der Mitarbeiter in die BI-Ergebnisse und schafft eine um ein Vielfaches höhere Transparenz. Die Zahlen stehen nicht mehr isoliert in Tabellen oder Graphiken. Sie sind um semantische Aspekte erweitert. Damit sind sie besser zu verstehen und umzusetzen, da die Interpretation in der Gruppe unter der aktiven Mitwirkung aller Beteiligten geschieht („wisdom of the crowd“). Social Media kommen auch mit einem völlig neuen Ansatz zum „Suchen und Finden“, denn ein altes BI-Problem war das Auffinden von nützlicher Information. Welchen Report brauche ich oder hatte jemand schon eine ähnliche Fragestellung? Zwar lassen sich solche Fragen theoretisch über eine rigorose BI-Governance regeln, aber dann finden die Ergebnisse in der Praxis oft keine Akzeptanz. In den Social Media gibt es hier Alternativansätze, die dem „wisdom of the crowd“-Prinzip folgen. Reports und Kennzahlen werden von den Abonnenten bewertet. So kommt man zu Top-Listen. (Abb. 33) Es werden die Abonnements (wenn notwendig anonymisiert) ähnlicher Jobprofile angezeigt, beispielsweise könnte einem Controller im Amazon-Stil vorgeschlagen werden, dass der Controller im Lande X auch noch den Bericht Y intensiv nutzt. Daher sollte man überlegen, ob man diesen Bericht nicht auch abonnieren wolle. Auf diese Weise wird über die Social-Media-Werkzeuge und Konzepte eine BI-Governance im Bottom-up-Verfahren geschaffen. Die hat dann per se Akzeptanz, und so schafft man auch nachgewiesener Maßen Motivation. Zu den Social-Media-Verfahren zum Finden der richtigen Information kommen dann noch state-of-the-art Suchverfahren dazu, mit denen man sowohl Inhalte wie auch die entsprechenden Metadaten zum Finden nutzen kann. Ein weiterer Aspekt ist hier auch „Mobile BI“ (vgl. Kap. 2.7). Eine korrekte, gerätekonforme Anzeige von BI-Ergebnissen auf mobilen Geräten ist an sich schon nützlich, aber mobile BI meint mehr. Gerade die Social Media sind auf das mobile Internet ausgerichtet. Das überträgt sich direkt auf Mobile BI.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 105

Wolfgang Martin Team

Abbildung 33. arcplan Engage als Beispiel zu Social-Media-Stil Report-Suche und Bewertung, oben: Ergebnis einer Suche, unten: Auswahl des 2. der oben angezeigten Reports „Bullet Graphs“.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 106

Wolfgang Martin Team Kollaborative Funktionalität ist also auch in der Regel über Apps mobil verfügbar. So kann sich jeder, wo immer er sich auch befindet, an der Diskussion und Interpretation der Zahlen beteiligen. Das gibt auch Anstöße zu neuen Analysen. Die Kreativität aller Beteiligten wird gefördert und auch gefordert. Das Ergebnis ist ein „CDM“ (common decision making), also echte Teamarbeit. Wissensmanagement. Wissensmanagement hat zwei Aufgaben, den Wissenstransfer von Person zu Person und die Dokumentation von Wissen. Es geht nicht nur darum Wissen in die Köpfe der Mitarbeiter im Unternehmen zu bringen und dort zu halten, sondern vielmehr auch darum, dieses Wissen zu extrahieren und für andere nutzbar zu machen. In der Vergangenheit ist Wissensmanagement im Unternehmen in der Regel daran gescheitert, dass die Werkzeuge dazu nicht die notwendige Akzeptanz fanden und Wissensmanagement als eine lästige Pflicht empfunden wurde. Initiativen zum Wissensmanagement verliefen so meistens im Sande. Mit dem Aufkommen der ersten Web 2.0-Werkzeuge hat sich das geändert und Wissensmanagement kann heute die Akzeptanz finden, die man zur Durchsetzung braucht. Am besten funktioniert es, wenn die Mitarbeiter gar nicht merken, dass sie Wissensmanagement machen. Mit Wikis fing es an. Es sind gute Instrumente, wenn es um gelebtes Wissensmanagement geht, so die Erfahrung inzwischen in vielen Unternehmen, die in Richtung Social Business gegangen sind. Die Idee ist: jeder macht mit, jeder trägt bei, das Unternehmen wird zur Community. Die Mitarbeiter treten in einen echten Dialog ganz wie bei Facebook und anderen Social Media. Die heutigen Social-MediaWerkzeuge sind in diesem Sinne bestens geeignet für ein Wissensmanagement, das so ein fester Bestandteil von BI-Prozessen wird: Unternehmenssteuerung wird so auf die Fakten der Analytik und auf das Community-Wissen der Mitarbeiter gestellt. Man erreicht, was man mit BI immer wollte, aber bisher nicht geschafft hat. Neue Technologien. Eine Performance Management und Analytik-Architektur besteht aus drei Schichten (Abb. 34). Die oberste Schicht war bisher die traditionelle BI-Portal-Schicht, die jetzt als Social-Media-Plattform neu definiert wird. Darunter befinden sich die AnalytikPlattform mit den Werkzeugen und die Information Management-Schicht inklusive Extraktionswerkzeugen und Datenbanken. Beginnen wir unsere Diskussion mit der Information Management-Schicht. Big Data bedeutet ja nicht nur ein riesiges Datenvolumen, sondern auch einen Mix aus strukturierten und poly-strukturierten Daten mit komplexen Beziehungen untereinander. Die Quellen im Web sind vielfältig: Portale, Web-Applikationen, Social Media, Videos, Fotos und mehr, eben Web-Content aller Art. Dazu kommen die Daten aus dem mobilen Internet und dem Internet der Dinge. Neben der schieren Datenflut ist die Unterschiedlichkeit und Vielfalt der Quellen das zweite große Problem: Der Zugriff auf eine Quelle im Big Data ist jedes Mal neu zu definieren: Das schafft den Unternehmen ein Zeit- und Ressourcenproblem. Im Big Data steckt großes Potential. Aber aus den Daten Information und Wissen zu erzeugen ist nicht so einfach, denn besonders wegen der vielen und unterschiedlichen Quellen von unüberschaubaren, fragmentierten und in der Regel nicht zu Analysezwecken erzeugten Daten ist es schwierig, die Daten zu identifizieren, zu extrahieren, zu speichern, zu verwalten, zu analysieren. Hier braucht man neue Ansätze und Technologien. Traditionelle IT-Werkzeuge zur Datenextraktion und Integration helfen hier nicht unbedingt weiter. Wir brauchen Innovation in der Information-Management-Infrastruktur. Das bedeutet

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 107

Wolfgang Martin Team neue Werkzeuge, die uns eine agile Integration der Unternehmens-, Web- und CloudDaten erlauben. Es geht um das schnelle und flexible Erschließen und Nutzen aller relevanten Quellen im Big Data. Das bedeutet auch ein Extrahieren von Daten aus dem Big Data ohne APIs, denn nicht alle relevanten Quellen sind ausreichend mit APIs ausgestattet. Wer als erster Wissen aus dem Big Data ziehen und umsetzen kann, hat einen deutlichen Wettbewerbsvorsprung: Wissen ist Macht und Time-to-Market ist entscheidend. Das meint auch die Gartner Group, die Organisationen mit einer Information-Management-Infrastruktur für Big Data als zukünftige Markt-Outperformer sieht.30 Solche agilen Integrationswerkzeuge beschreiben wir in Kap. 6.4.

PM und Analytik: Architektur Web

Mobil

Data Discovery, Prädiktive Analytik

Performance Management

Kollaboration & Suchen

Wissens-Management

Analytik-Plattform

Governance

Planung, Budgetierung, Konsolidierung

Analytische und NoSQL-Datenbanken

Information Management

Metadaten-Management

Social Media User Experience Präsentationsschicht

Datenintegrations-Plattform Traditionelle & agile Web/Cloud/Enterprise-Extraktionswerkzeuge Big Data

Operative Daten

Data Warehouse

Files, XML, Spreadsheets

Ereignisse Services © 2015 S.A.R.L. Martin

34

Abbildung 34. Big Data treibt die konsequente Fortsetzung und Erweiterung von Analytik und Performance Management. Die Architektur besteht aus drei Schichten. Information Management bildet die untere Schicht. Hier gibt es neue Werkzeuge, die neben traditionellen ETL-Prozessen auch eine agile Integration von Unternehmens-, Web- und Cloud-Daten erlauben, i.e. ein Extrahieren von Daten auch ohne APIs, denn nicht alle relevanten Quellen im Big Data sind ausreichend mit APIs ausgestattet. Die Analytik-Plattform als mittlere Schicht nutzt neben den traditionellen Datenbanken auch analytische und NoSQL-Datenbanken. Hier finden sich die zentralen Dienste von Performance Management und Analytik: analytisches Workflow- und Regel-Management, Kollaborations- und Suchdienste, Wissensmanagement und die zentrale Verwaltung aller Ressourcen. Auf der AnalytikPlattform setzen die Werkzeuge zu Planung, Budgetierung und Konsolidierung, Performance Management sowie Data Discovery und prädiktiver Analyse auf. Die Präsentationsschicht als obere Schicht kann gleichermaßen über Web-Browser oder mobile Apps angesprochen werden und vermittelt eine Social Media User Experience. Dazu kommen eine durchgängige Governance und ein zentrales, integriertes Metadaten-Management.

Big Data treibt nicht nur die neue agile Web- und Cloud-Integration, sondern auch den Einsatz innovativer Datenbank-Technologien, um die Petabytes von Daten analysieren und 30

Gartner Präsentation “The Grand Challenges of Information: Innovating to Make Your Infrastructure and Users Smarter,” Bill Hostmann und Mark Beyer, Oktober 2010.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 108

Wolfgang Martin Team auswerten zu können. Solche „analytischen und NoSQL-Datenbanken“ beschreiben wir in Kapitel 7.2 und 7.3. Die werden mehr und mehr als Datenbanken für analytische Plattformen eingesetzt. Hier vollzieht sich eine weitere Innovation: Die analytischen Werkzeuge verlagern immer mehr Funktionalität und Algorithmen direkt in die Datenbank, weil man so weitere Performance-Vorteile erhält. Das alte Paradigma „data to compute“ wandelt sich in „compute to data“. Bei den Werkzeugen zu Data Discovery und prädiktiver Analytik gibt es neue Methoden und Verfahren. Hierzu gehören insbesondere die Fortschritte in der Datenvisualisierung und Location Intelligence. Weiterhin hat sich eine Evolution von Data Mining über Text Mining zu Textanalytik vollzogen (vgl. Kap. 5.7). Treiber für Textanalytik sind insbesondere die Social Media. Mit Textanalytik lassen sich diese Daten systematisch auszuwerten. So bekommt man im CRM beispielsweise eine nahezu gläserne Transparenz. In der Verbindung mit den Unternehmenskundendaten erhält man so nicht nur eine 360°-Sicht auf den Kunden, wie immer gefordert, sondern sogar eine 360°-Sicht auf den gesamten Markt. Denn in den Social Media spiegelt sich ja der Markt mit allen Marktteilnehmern wieder. Neue Anwendungsfelder. Analog den unterschiedlichen Aufgaben von Performance Management und Analytik in der traditionellen Welt vor dem New Normal gibt es nun bei der Nutzung der Social Media ein Social-Media-Performance-Management. Es nutzt den Closed-loop-Ansatz von Performance Management. Insofern gibt es ein Social-MediaMonitoring, das sich inzwischen in führenden B2C-Unternehmen etabliert hat. Hier geht es um das Aufspüren, wo, wann und wie über ein Unternehmen, eine Persönlichkeit, ein Produkt oder eine Marke geredet und diskutiert wird. Auf Basis des Social-Media-Monitoring kann im nächsten Schritt ganz im Sinne des Closed-loop eine Social-Media-Analyse und folgerichtig eine Social-Media-Interaktion aufgebaut werden. Das Unternehmen kann jetzt auf relevante Beiträge sofort reagieren und intervenieren. Das bringt Vorteile vor allem im Kundenservice oder bei der Einführung neuer Produkte im Markt, da sich sofort eine Kommunikation mit Communities im Web aufbauen und unterhalten lässt. Das hatten wir bereits in einem der Beispiele in Kap. 2.4 zum Nutzen von Big Data diskutiert. Fazit. Analytik und Performance Management hat sich mit Big Data als Treiber deutlich weiterentwickelt. Die Benutzerschnittstelle wird jetzt Social Media konform, und damit wird Analytik und Performance Management für jeden verständlicher und besser nutzbar. Sie unterstützt weiterhin sehr viel besser die kollaborativen Aspekte. Dadurch wird Analytik und Performance Management gleichzeitig durch ein implizites Wissensmanagement ergänzt. Fortschritte in der Datenvisualisierung und neue analytische Methoden und Werkzeuge wie Textanalytik, agile Web- und Cloud-Integration sowie analytische und NoSQL-Datenbanken erweitern das Portfolio von analytischen Lösungen. So erreichen Unternehmen beispielsweise eine neue, bisher nicht machbare 360°-Sicht auf den gesamten Markt, da die Daten im Big Data jetzt nutzbar, auswertbarbar und umsetzbar werden im Sinne der Positionierung von Unternehmen, Persönlichkeiten, Marken und Produkten. So lassen sich neue, bisher nicht erreichbare Umsatzpotenziale identifizieren und erschließen.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 109

Wolfgang Martin Team

6 Information Management Das Informationsmanagement organisiert den Umgang mit Information im Unternehmen. Dabei ist es sowohl für die Nutzbarmachung der internen, als auch der externen Informationen verantwortlich, die zur Erreichung des Unternehmensziels erforderlich sind.31 In der traditionellen BI wurde Information Management zum Thema, als es um das Füllen und Auffrischen eines Data Warehouse ging. Die Lösung waren und sind Extraktions-, Transformations- und Lade- (ETL) Prozesse. Die Zielsetzung war es, vertrauenswürdige Daten zu schaffen. Das Data Warehouse wurde zum Ort dieser vertrauenswürdigen Daten und stellte den „single point of truth“ dar. Im Zuge der Prozess-Orientierung steigt in Performance Management und Analytik die Bedeutung von Information Management. Information Management ist jetzt die Grundlage, um Prozesse mit Daten zu versorgen und um die Daten für Performance Management und Analytik – auch in Echtzeit – zu liefern. Das ändert die Bedeutung eines Data Warehouse. Die vertrauenswürdigen Daten entstehen jetzt im Information Management (vgl. Abb. 7). Der „single point of truth“ liegt jetzt in den Meta- und Stammdaten, wie wir zeigen werden.

6.1

Die Aufgaben von Information Management

Wie wir schon in Kapitel 3.1 gesehen haben, ist Information Management die Grundlage und Voraussetzung für Prozess-Orientierung im Unternehmen und in Unternehmensnetzen, in denen Lieferanten, Partner und Kunden mit dem Unternehmen zusammenarbeiten und gemeinsame Prozesse betreiben. Schauen wir uns die Aufgabenbereiche von Information Management im Einzelnen an (Abb. 35): 

Daten-Definition per Business-Vokabular. Das Business-Vokabular (auch „BusinessGlossar“ genannt) spielt die zentrale Rolle in einem prozess-orientierten Unternehmen, denn Prozesse brauchen eine einheitliche gemeinsame Terminologie zur Modellierung und Kommunikation mit allen an den Prozessen Beteiligten, den Mitarbeitern in den Fachabteilungen und in der IT, aber auch den Lieferanten, Partnern und sogar den Kunden. Das Business-Vokabular stellt so die Terminologie der gesamten Fachlichkeit in einem Unternehmen und seinem Unternehmensnetzwerk dar. Daher kann man das Erstellen eines Business-Vokabulars auch nicht in die IT delegieren. Wenn es fehlt, dann herrscht Babylon. Ein bekannter Effekt ist auch auf der Vorstandsebene bekannt: Begriffe wie Umsatz, Deckungsbeitrag oder Storno bedeuten in verschiedenen Fachabteilungen etwas Verschiedenes und passen dann in der Top-Sicht nicht zusammen. Oder –

31

Universität des Saarlandes, Fachbereich 5.6 Informationswissenschaften, Aufgaben des Informationsmanagements (Zugriff am 22. Januar 2014) http://www.uni-saarland.de/campus/fakultaeten/fachrichtungen/philosophische-fakultaetiii/fachrichtungen/informationswissenschaft/infowissthemen/wissensinformationsmanagement/aufgabendesinform ationsmanagements.html

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 110

Wolfgang Martin Team anderes Beispiel – die Frage „Wer ist unser Kunde?“ kann nicht zweifelsfrei beantwortet werden. Hier helfen auch vorbelegte Business-Vokabulare, die Quasi-StandardTerminologien in verschiedenen Branchen als Start zum Aufbau des unternehmenseigenen Business-Vokabulars anbieten. 

Datenmodellierung. Die Beziehungen zwischen den fachlichen Begriffen eines Unternehmens, die im Business-Vokabular definiert sind, werden per Datenmodellierung in einem Datenmodell erfasst. So erhält man die Semantik eines Unternehmens. Daher ist auch Datenmodellierung eine gemeinsame Aufgabe von Fachabteilungen und der IT.

Information Management

Datenqualität

StammdatenManagement

Datenintegration

Information Governance

Information Life Cycle Management Daten-Definition, -Modellierung, -Klassifikation, -Sicherheit, -Schutz, -Archivierung





Prozesse verbrauchen und erzeugen Information. Prozesse wandeln Information in Wert. © 2015 S.A.R.L. Martin

35

Abbildung 35: Die technischen Basis-Bausteine von Information Management. Die Grundlage ist Informationslebenszyklus-Management, auf der Datenintegration, Stammdaten-Management und Datenqualitäts-Management aufsetzen. Information Governance stellt die umfassende Klammer dar, die die Prozesse des Informationsmanagements mit der Organisation und den Rollen verbindet.



Meta- und Stammdaten-Management. Weil früher jede Applikation ihre eigenen Metaund Stammdaten hatte, sind wir in ein Fragmentierungsproblem gelaufen. Daher nutzt man heute im Information Management Meta- und Stammdaten-Services, um die isolierten Applikations-Stammdaten auf einheitliche, zentrale Stammdaten abzubilden, die in einem Repository verwaltet werden. Das ist entscheidend, wenn es um die Definition neuer Produkte, das Gewinnen neuer Kunden und/oder das Hinzufügen neuer Lieferanten zum Geschäftsnetzwerk geht. Ein einfaches Update per Meta- oder Stammdaten-Service synchronisiert sicher und zuverlässig alle betroffenen Applikationen. Darauf gehen wir genauer im Kapitel 6.5 ein.



Datenqualitäts-Management. Datenqualität ist eine weitere Voraussetzung, um mit Information Management erfolgreich zu sein. Datenqualität bezeichnet die Bedeutsamkeit, Relevanz und Korrektheit von Daten und von Information. Eine Best-

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 111

Wolfgang Martin Team Practice für Datenqualitäts-Management ist ein „Total Quality Management (TQM)“Ansatz: Baue Datenqualität vom Beginn an in die Prozesse ein. Das diskutieren wir in Kapitel 6.6. 

Datenintegration. Prozess-Orientierung erfordert durchgängige Prozesse. Daher müssen Prozesse applikationsunabhängig sein: Sie verlaufen ja über die Applikationsinseln und auch über Unternehmensgrenzen hinweg. Folglich müssen die Schnittstellen mit den Applikationen und die Daten intern und extern integriert und synchronisiert werden. Weitere Einzelheiten in Zusammenhang mit Performance Management und Analytik geben wir in Kapitel 6.2



Daten-Klassifikation. Eine Datenklassifikation ist die Unterteilung von Daten in Kategorien anhand eines Merkmals, so dass Daten innerhalb einer Kategorie die gleiche Eigenschaft teilen. Daten-Klassifikationen lassen sich Bottom-up mittels Data/TextMining-Verfahren finden. Sie können aber auch Top-down aus bestimmten Unternehmenszielen abgeleitet werden. Das findet besonders bei Storage-Strategien und im Life-Cycle-Management Anwendung. Beispielsweise kann bei einer solchen Top-down-Datenklassifikation eine Kategorie „Vertraulichkeit“ gebildet werden, die dann aus Klassen wie „streng vertraulich“, „vertraulich“, „intern“ und „öffentlich“ bestehen könnte. Andere Kategorien in diesem Beispiel könnten sein Verfügbarkeit, Aufbewahrungsfrist, Revisionssicherheit etc.



Daten-Archivierung. Datenarchivierung dient der Auslagerung von nicht mehr aktiv verwendeten Daten in einen Datenspeicher und dort der langfristigen Aufbewahrung. Die in solchen Datenarchiven gespeicherten Dateien sind entweder ältere Daten, die als Referenz auch in der Zukunft noch wichtig sind, oder es handelt sich um Daten, die aus Compliance-Gründen archiviert werden müssen. Datenarchive sind mit einer Suchfunktion versehen, um Dateien ganz oder teilweise wieder abrufen zu können. Datenarchive sind nicht mit Datenbackups zu verwechseln, die zur Wiederherstellung von Dateien dienen, falls diese manipuliert oder zerstört wurden.



Informationslebenszyklus-Management. Informationsmanagement begleitet Information über ihren Lebenszyklus. Das beginnt mit der Phase der Informationsentstehung, also der Generierung und Erfassung von Information. Danach folgen die Phasen der Informationsaufbereitung und Informationsbereitstellung. Um Information persistent zu machen, ist ein Ablegen auf externe Speichermedien im Rahmen der Speicherungsphase erforderlich. Im Rahmen der Verknüpfungsphase wird Information in einen Kontext gesetzt und zu unternehmerischem Wissen verarbeitet. Darauf folgt die Phase der Verteilung und Nutzung der Information bis zum Ende des Lebenszyklus, der Archivierung oder Löschen von Information bedeuten kann.



Daten-Sicherheit und Schutz. Schließlich gilt es die gesetzlichen Regelungen zu respektieren und auch technisch umzusetzen, die die vom Unternehmen gespeicherten Daten vor unberechtigter Nutzung, Missbrauch und Weitergabe schützen. Analog zur Datenqualität empfiehlt sich auch hier der TQM-Ansatz: Datenschutz und Sicherheit sollte von vorneherein in alle Prozesse mit eingebaut sein.



Content Management (Web, Rich Media). Der weitaus größere Teil der Unternehmensdaten ist poly-strukturiert (Dokumente, Verträge, Briefe, Memos, E-Mail,

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 112

Wolfgang Martin Team Bilder, Grafiken, Zeichnungen, Videos, Audios etc.). All diese Typen von Information sind gleichermaßen zu managen. Eine Information Governance muss daher allumfassend sein. Fazit: Information Management schafft vertrauenswürdige Daten. Es löst das Problem der Fragmentierung von Daten und ist so die Voraussetzung für Prozess-Orientierung. Es ist eine gemeinsame Aufgabe von Business und IT, die – weil kritischer Erfolgsfaktor für Industrialisierung, Agilität und Compliance – absolute Chefsache ist.

6.2

Vom Data Warehouse zur Datenintegration

Definition: Datenintegration ist definiert als das Zusammenführen von Daten aus verschiedenen Datenquellen aus dem Unternehmen und aus dem Big Data mit in der Regel unterschiedlichen Daten-Modellen und Strukturen in ein gemeinsames einheitliches Datenmodell. Die Aufgabe von Datenintegration ist es sowohl eine vertrauenswürdige Datenbasis für Analytik und Performance Management zu liefern, als auch Data Discovery über Daten zu erlauben, die nicht den Unternehmensstandards entsprechen. Ein Data Warehouse ist ein bekanntes Konzept aus den 90er Jahren für eine subjektorientierte, integrierte, zeitbezogene und dauerhafte Haltung von Information zur taktischen und strategischen Entscheidungsunterstützung im Unternehmen. Es ist eine von den operationellen IT-Systemen getrennte Datenhaltung, die im Wesentlichen aus den Transaktionsdaten des Unternehmens abgeleitet wurde. In der Vergangenheit hat man in der Regel auch ein Data Warehouse mit externen Daten angereichert, um beispielsweise im Data Mining die Unternehmensdaten mit zusätzlicher Information zu kombinieren (siehe Abb. 29). Ein Data Warehouse wurde entweder im Batch mittels ETL- oder ELT-Prozessen gefüllt oder auch in nahezu Echtzeit mittels einer Datenintegrationsplattform. Es diente so als Basis für Performance Management und Analytik. Big Data ändert nun die Situation nachhaltig. Unternehmensdaten und die bisher sogenannten externen Daten reichen im Zeitalter des Big Data nicht mehr aus, um die fundamentalen Fragen eines Unternehmens ausreichend beantworten zu können: Wer kauft oder nutzt unsere Produkte und/oder unsere Dienstleistungen wann, wie und wo? Diese Frage kann über beliebig viele Dimensionen gestellt werden: Geographie, Kanäle, Kampagnen, Interaktionsmethoden etc. Beispiel: Optimierung und Personalisierung von Werbemaßnahmen und Steigerung von Cross- und Up-Selling aufgrund von besserem Kunden- und Marktwissen. Im Handel kennen wir solche Strategien bereits von den Big-Data-Vorreitern wie Amazon und eBay und auch von sozialen Netzen, wo uns Freundschaften vorgeschlagen werden. Natürlich profitiert man auch in anderen Branchen von solchen personalisierten Kundeninteraktionen, beispielsweise im Versicherungswesen. Hier können Versicherungspolicen auf den Kunden individuell zugeschnitten werden. Als

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 113

Wolfgang Martin Team Datenbasis dazu dienen kontinuierlich angepasste Profile der Kundenrisiken, Änderungen in der Vermögenslage oder auch Lokalisierungsdaten. Kraftfahrzeuge können beispielsweise mit speziellen Sendern ausgerüstet werden, so dass sie über eine Lokalisierung im Falle eines Diebstahls wiedergefunden werden können. Das senkt das Risiko eines Versicherers, und das gibt Versicherer und Kunden einen geldwerten Vorteil. Im Big Data gibt es eben unzählige weitere Quellen mit für das Data Warehouse neuen Datentypen wie zum Beispiel XML, Clickstream-Daten, poly-strukturierte Daten aus den Social Media, Log-Daten, Maschinendaten und viele andere. Hier wird das „alte“ Data Warehouse mit seiner auf relationalen Datenbanken basierenden Architektur durch die neuen Technologien und Technologiefortschritte gefordert: Virtualisierung, Cloud Computing, Hadoop und NoSQL-Datenbank-Technologien. Wir brauchen also eine neue Generation von Data Warehouse, die in der Lage ist, all die unterschiedlichen Big-Data-Quellen zu integrieren und die entsprechenden Datenvolumen zu beherrschen. Datenintegration wird so zum „neuen“ Data Warehouse. Das „alte Data Warehouse ist jetzt eine Komponente einer Datenintegrations-Plattform. Datenintegration ist damit die zentrale Plattform, die sowohl den „single point of truth“ liefert so wie früher das Data Warehouse, als auch Data Discovery über Daten aus beliebig kombinierten Datenquellen erlaubt, die nicht einem solchen „single point of truth“ entsprechen. Um eine solche Architektur zu entwickeln, beginnt man besten mit einer Kategorisierung aller Datentypen in Abhängigkeit der Art der Daten und den entsprechenden Verarbeitungsanforderungen. Anschließend gilt es die Integrationsprozesse zu modellieren und zu implementieren. Dazu braucht man wie immer eine Prozess- und eine Regelmaschine, die dann die Verarbeitungslogik und den Verarbeitungsfluss unterstützen. Ein solcher Integrationsprozess kombiniert schließlich Big Data mit den Unternehmens-Metaund Stammdaten und semantischen Technologien wie Taxonomien. (Abb. 36) Schauen wir uns die Daten-Kategorisierung genauer an: 

Transaktionsdaten. Das sind die traditionellen OLTP-Daten. Im Gegensatz zum Data Warehouse stehen diese nun für Analytik und Performance Management direkt zur Verfügung.



Web-Applikationsdaten. Hierzu gehören Clickstream Data, E-/M-Commerce Data, Daten über Kundenbeziehungen, Chatdaten aus dem Call Center etc.



Data-Warehouse-Daten. Als Komponente ist das Data Warehouse mit seinen verschiedenen Datamarts jetzt Bestandteil der Datenintegrations-Plattform. Sollte es mehr als ein Data Warehouse im Unternehmen geben, dann gehören die alle in diese Plattform.



Analytische Daten. Das sind Daten, die durch Analysen und analytische Systeme erzeugt werden.



Poly-strukturierte Daten. In diese breite Kategorie gehören: o o o

Text: Dokumente, Notizen, Memos, Verträge. Bilder: Fotos, Diagramme, graphische Darstellungen. Videos: Unternehmens- und Kunden-Videos.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 114

Wolfgang Martin Team o o o o o o o 

Social Media: Facebook, Twitter, Instagram, LinkedIn, Forums, YouTube, Blogs etc. Audio: Call Center-Interaktionen, Podcasts und Aufzeichnungen aller Art. Maschinen-Daten: Das sind Daten, die über alle möglichen Arten von Sensoren erfasst werden. Server Log-Daten: Das sind die Logs aller Server, die Unternehmensaufgaben erfüllen. Wetter-Daten: Die haben einen nicht zu unterschätzenden Einfluss sowohl auf das Kundenhalten als auch auf die Logistik. Wissenschaftliche Daten: Hierzu gehören insbesondere medizinische, pharmazeutische und Gesundheitsdaten genauso wie statistische Daten. Finanzmarktdaten: Die dienen insbesondere der Vorhersage von Markttrends, finanziellen Risiken und versicherungsmathematischen Berechnungen.

Semi-strukturierte Daten. Dazu gehören E-Mails, Präsentationen, mathematische Modelle, geografische Daten etc.

Datenintegration mit Big Data

UnternehmensStammdaten

UnternehmensMetadaten

semantische Technologien

Datenverarbeitung und Datenvirtualisierung

Web-Applikationsdaten

Transaktionsdaten

Data Warehouse-Daten

analytische Daten

strukturierte Daten

nicht strukturierte Daten

© 2015 S.A.R.L. Martin

36

Abbildung 36: Architektur einer Datenintegrationsplattform. Datenintegration arbeitet bidirektional. Einfließende Daten werden über ETL-/ELT-/CDC-Prozesse oder Textverarbeitung mit den Meta- und Stammdaten sowie semantischen Technologien kombiniert, integriert und geladen. Diese Daten stehen dann als Quellen für Analytik und Performance Management zur Verfügung und werden über Informations-Services bereitgestellt (vgl. Abb. 17).

Wenn die verschiedenen Datenkategorien identifiziert und beschrieben sind, dann lassen sich die Daten-Charakteristiken definieren. Dazu gehören der Datentyp, die assoziierten Metadaten, Stammdatenelemente und die Verwendung der Daten. Letzteres beschreibt dann auch die Nutzer der Daten aus der Sicht der Verantwortlichkeiten und der Data Steward-Perspektive.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 115

Wolfgang Martin Team Beispiel: Das Anreichern von Daten durch Social-Media-Daten. Hier hat man die Aufgabe, die Kundendaten im Unternehmen mit den entsprechenden Daten aus den Social Media zusammenzuführen, denn Personen in den Social Media nennen sich teilweise anders, sind anonym oder benutzen falsche Identitäten. Ein solches Problem der „Identity Resolution“ hatte man auch schon in gewissem Umfang bei Adressdaten, wenn es um die Dublettenbereinigung ging. Jetzt ist das Problem im Big Data entsprechend schwieriger, denn wir haben es mit unterschiedlichen Social Media, unterschiedlichen Sprachen, mit unterschiedlichen Schrifttypen und deren unterschiedlichen Transkriptionen zu tun. Die Aufgabe ist es, ein „soziales Profil“ eines Kunden aufzustellen und mit dem Unternehmensprofil des Kunden abzugleichen. Das schafft man mit den Methoden und Technologien der sogenannten „Entity Identity Resolution“ (mehr dazu in Kap. 6.7). Die Herausforderungen einer Implementierung einer solchen Datenintegrations-Plattform bestehen nun im Laden der Daten, Datenverfügbarkeit, Managen des Datenvolumens, Leistung der Datenspeicher, Skalierbarkeit, die Last von Analytik und Performance Management und schließlich die operativen Kosten. Dabei greift man wie bei Hadoop beim Laden von Daten aus dem Big Data auf ein einfaches Zugreifen auf die Daten und ein Einszu-eins-Speichern der Daten als Dateien zurück. Die anderen Herausforderungen von Datenintegration geht man heute mit Datenvirtualisierung an, bei der die Integration erst bei einem Datenzugriff stattfindet. Kern einer Datenvirtualisierung ist ein logisches Datenmodell. Es stellt einerseits die Schnittstelle zu den Quelldaten und deren Datenmodellen dar und bietet andererseits zugreifenden Services mittels InformationsServices eine integrierte globale sowohl lesende wie auch schreibende Schnittstelle zu den föderierten Daten. Definition: Datenvirtualisierung meint den virtualisierten (logischen) Zugriff auf Daten mittels einer Abstraktionsebene, wobei der Zugriff auf Daten zentralisiert wird, ohne die Notwendigkeit die Daten zu replizieren bzw. zu duplizieren. Datenvirtualisierung basiert also auf einer Abstraktion von Ort, Speicher, Schnittstelle und Zugriff. So werden beliebige Datenoperationen in einer logischen View ermöglicht. Die Ergebnis-Mengen werden als Views oder Informations-Services bei Benutzeranforderung bereitgestellt. In solche Informations-Services lassen sich weitere Services zur Datenaufbereitung oder Anreicherung integrieren, beispielsweise Datenqualität-Services zu Gültigkeitsprüfungen. Datenvirtualisierung heute ist eine Weiterentwicklung der „data federation“, auch Enterprise Information Integration (EII) genannt. Datenvirtualisierung ist auch für Echtzeit-Analytik bestens geeignet und erlaubt eine Nulllatenz-Datenintegration, i.e. die Analytik arbeitet synchron mit den Transaktionsdaten. Eine solche Lösung war bisher wegen der Performanz-Anforderungen an die notwendige Netzwerk- und Hardware-Infrastruktur aber eine teure Lösung. Heute bietet In MemoryVerarbeitung eine interessante und preiswertere Alternative. Aber auch wenn In-MemoryVerarbeitung attraktiv ist, ist Nulllatenz in manchen analytischen Fragestellungen gar nicht notwendig.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 116

Wolfgang Martin Team Beispiel: In Kap. 2.3 haben wir bereits die Business-Metrik Produktverfügbarkeit = diskutiert. Diese Kennzahl ist eine operative Steuerungsinformation, die proaktiv und in Echtzeit als Frühwarngröße arbeitet und das Problem „ausverkauft“ minimiert, in dem automatisch nachbestellt wird, wenn die Produktverfügbarkeit Null oder kleiner als Null wird. Was aber meint Echtzeit in diesem Beispiel? In der heutigen Praxis wird die Produktverfügbarkeit in der Regel zweimal am Tag gemessen. Das ist, wie schon in Kap. 3.1 ausgeführt, ein Erfahrungswert, der eine Balance zwischen den Kosten des Messens und dem Risiko, Produktverfügbarkeit in der Prozessüberwachung zu ignorieren. Mit InMemory-Verarbeitung lässt sich das verbessern, so dass wir jetzt Produktverfügbarkeit stündlich oder sogar schneller kalkulieren können. Aber in jeder Prozessinstanz jedes Mal, wenn ein Kunde ein Produkt in seinen Warenkorb legt, die Produktverfügbarkeit zu kalkulieren, ist in den meisten Webshops nicht angemessen. Eine ausreichende Lösung ist solchen Fällen eine Niedrig-Latenzlösung. Wesentlich ist es also, herauszufinden, welche Latenz in einem gegebenen Prozess toleriert werden kann, denn die Latenz ist ja mit Kosten gekoppelt: je niedriger die tolerierte Latenz, umso höher werden die Kosten. Im Niedriglatenz-Modell werden die relevanten Transaktionsdaten und analytischen Daten in einem so genannten „Low-Latency-Data-Mart“ (LLDM) speichert. Das erfordert eine Integration der Datenintegrationsplattform mit dem Enterprise Service Bus (ESB), der die Transaktionen quer über die operativen Applikationen managt. Der LLDM wird entweder durch Message / Queuing oder durch Stapelläufe aufgefrischt, wobei der Stapellauf in kurzen Zeitabständen entsprechend der tolerierten Latenz ausgeführt wird (z.B. stündlich). Ein LLDM bietet sich zur Niedriglatenz-Datenpropagation an. Das ist eine Rückkopplungsschleife, um Ereignisse in operativen Systemen durch prozessübergreifende Metriken auszulösen. Diese Kopplung mit operativen Systemen verlangt, dass die Datenintegrationsplattform wie ein ESB gemanagt werden muss: Die Datenintegrationsplattform ist ein operatives System.

6.3

Informations-Services

Wir haben Informations-Services bereits als ein Service-Modell von SOA-Services kennengelernt (Abb. 17), und im vorigen Kapitel haben wir Informations-Services als Zugriffsmethode von Datenvirtualisierung kennengelernt. Beginnen wir mit einer detaillierteren Definition von Informations-Services. Definition: Ein Informations-Service ist ein modularer, wiederverwendbarer, wohldefinierter, fachlich-relevanter Service, der den Zugriff, die Integration und die rechtzeitige Bereitstellung von strukturierten und poly-strukturierten, internen oder externen Daten unternehmensweit und unternehmensübergreifend ermöglicht. Ein Informations-Service ist entweder ein Metadaten-, Stammdaten- oder ein Daten-Service.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 117

Wolfgang Martin Team Nach der Definition eines Informations-Service ist jetzt der nächste Schritt, ausgehend vom Bedarf der Informationskonsumenten die verschiedenen Kategorien von InformationsServices und ihre Architektur zu beschreiben. (Abb. 37)

Informations-Services: Architektur Informations-KONSUMENT

AdministrationsServices

JMS

Portale Social Media Web Services Analytische Services Applikationen Mobile

Web Svc

JDBC

SQL

Bereitstellungs-Services

Daten-Integrations-Services Universelle DatenzugriffsServices

REST

InfrastrukturServices

Prozesse Applikationen

EXTERN

Meta und StammDaten-Services

INTERN

Datenquellen Big Data

Datenbanken

Transaktionen

Flat Files Messages

poly-strukturierte Daten XML

Cloud

Data Warehouse © 2015 S.A.R.L. Martin

37

Abbildung 37. Information und Daten werden per Services bereitgestellt. Informations-Services bestehen aus sechs Kategorien. Universelle Datenzugriffs-Services erlauben den service-orientierten Zugriff auf alle Unternehmensdaten und auf Big-Data-Quellen. Daten-Integration-Services ermöglichen alle Arten von Mapping, Matching und Transformation. Bereitstellungs-Services publizieren Information an alle Informationskonsumenten – intern oder extern. Meta- und Stammdaten-Services bilden das gemeinsame Business-Vokabular. Infrastruktur-Services definieren Authentifizierung und Security. Administrations-Services liefern Funktionalität für Administratoren, Business-Analysten und Entwickler zum Managen des Lebenszyklus aller Services.



Universelle Datenzugriffs-Services: Datenzugriffs-Services bestehen aus den Basis“CRUD” Services (“create, read, update und delete) für alle Backend-Systeme, strukturiert oder poly-strukturiert, intern oder extern. Datenzugriffs-Services ermöglichen auch einen Null- oder Niedrig-Latenz-Zugriff auf verteilte Daten im Sinne von Datenvirtualisierung.



Infrastruktur-Services: Infrastruktur-Services umfassen die Basis-Funktionalität für Authentifizierung, Zugriffskontrolle, Logging, etc.



Daten-Integrations-Services: Integrations-Services transportieren Daten aus Quelldatenmodellen in Zieldatenmodelle mittels Synchronisierung, Transformation, Matching, Cleansing, Profiling, Anreicherung, Aufteilung, etc.



Meta- und Stammdaten-Services: Ihr Zweck ist das service-orientierte Managen und Konsumieren der technischen und fachlichen Meta- und Stammdaten für Revision, beispielsweise Datenherkunfts- und Impaktanalysen.



Daten-Bereitstellungs-Services: Sie automatisieren und standardisieren die Publikation von Information an alle Konsumenten gemäss einem Anfrage/Antwort-Modell oder einem

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 118

Wolfgang Martin Team Publiziere/Subskribiere-Modell (Daten-Syndikation). Bereitstellungs-Mechanismen sind Massendaten- und/oder Einzelsatz-Lieferung im Batch, Echtzeit-Messaging oder per Delta-Mechanismen basierend auf Datenupdates. 

Administrations-Services: Das sind Services für das Lebenszyklus-Management aller Services, i.e. Entwicklung, Management sowie Überwachung und Steuerung.

Das Modell der Service-Orientierung bietet noch einen weiteren Vorteil. Aufgrund des UnterService-Prinzips lassen sich jetzt beliebige zusammengesetzte (“composite”) InformationsServices per Mashing-up für alle möglichen Verwendungszwecke komponieren und orchestrieren. Typische Beispiele sind die traditionellen Data-WarehouseBelieferungsprozesse und Datenmigrations- und Konsolidierungsprozesse. Wir werden weitere Prozesse wie Stammdaten-Management und Datenqualitätsmanagement in den folgenden Kapiteln kennenlernen.

6.4

Agile Integrations- und Extraktionswerkzeuge im Big Data

Heute im Zeitalter des Big Data sind Unternehmen im zunehmenden Maße daten-gesteuert. Wir brauchen Daten, um Information und schließlich Fakten, Wissen und Wettbewerbsvorteile zu erzeugen: Time-to-Market ist entscheidend! Zugriff auf und Nutzung von Daten auch in Echtzeit wird so mehr denn je zum kritischen Erfolgsfaktor im New Normal. Jetzt haben wir Daten im Überfluss, im Web, in der Cloud und im Unternehmen. Aber wie bekommt man Daten schnell, flexibel, zuverlässig und auch in Echtzeit aus dem Web und der Cloud in seine Unternehmens-Infrastruktur, wie in die Cloud oder von einer Cloud in die Cloud eines anderen Cloud-Anbieters? Eine Antwort und Lösung bieten agile Integrationswerkzeuge, die Unternehmens-, Webund Cloud-Information parallel und gleichzeitig aus dem Big Data extrahieren und integrieren können. Sie basieren auf einem völlig neuen Konzept für Datenzugriff und Extraktion: Agile Integrationswerkzeuge arbeiten im Browser-Stil mit der immer gleichen visuellen Schnittstelle für alle Datenquellen. (Abb. 38) Das ist neu und nicht vergleichbar mit traditionellen IT-Werkzeugen: Agile Integrationswerkzeuge können alle Datenquellen im Web, in der Cloud und im Unternehmen ohne vordefinierte Schnittstelle und ohne Programmierung visuell erschließen. Das ist ein weiterer Vorteil, denn Schnittstellen sind fast immer entweder nicht vorhanden und müssen erst langwierig spezifiziert und programmiert werden, oder sie leisten nicht das, was man gerade braucht. Schnittstellen schränken vielfach den Zugriff auf Daten ein. Man bekommt nicht immer alle Daten. Ein browser-basiertes Integrationswerkzeug dagegen gibt Zugriff auf alle sichtbaren Daten und zwar sofort und auch in Echtzeit. So kommt man an die kompletten Daten und das ohne zusätzlichen Aufwand einer Schnittstellenprogrammierung und Nutzung. Die Schnittstelle wird „on-the-fly“ implizit erzeugt, wenn man visuell im Browserstil spezifiziert, welche Daten man extrahieren möchte. Nicht nur Daten können so extrahiert werden, sondern jede Information aus Web-Applikationen. Die agilen Integrationswerkzeuge können auf jede Schicht von Web-Applikationen zugreifen und

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 119

Wolfgang Martin Team Information extrahieren. Ein weiterer Vorteil dabei: Diese browserbasierte, visuelle Schnittstelle ist für alle Quellen im Big Data immer die gleiche.

Big Data als Quelle für Analytik Operative Daten

ETL Data Warehouse

Files, XML, Spreadsheets

Performance Management

Social Media

Data Discovery

Lokalisierungsdaten

Location Intelligence Prädiktive Analytik

Call Data Records

Semantische Suche

SensorDaten

Anreicherung Ereignisse MachinenDaten

Big Data-Management

Web ClickStream Daten

Big Data-Analytik

Analytische und NoSQL-Datenbanken © 2015 S.A.R.L. Martin

38

Abbildung 38: Big Data bedeutet nicht nur die Datenflut, sondern auch eine Vielzahl unterschiedlichster Quellen im Internet, die meist nicht über Schnittstellen verfügen oder die Schnittstellen haben, die nicht den vollen Datenzugriff erlauben. Hier helfen im Big-Data-Management die Browser-basierten agilen Web-Integrations- und Extraktionswerkzeuge, die alle in einem Browser sichtbaren Daten abgreifen können. Zusätzlich sind auch semantische Suchmaschinen hilfreich, die Quellenidentifikation entsprechend einer vordefinierten Relevanz erlauben. Aus dem Big Data extrahierte Daten werden in Hadoop geladen, das sich mehr und mehr durchsetzt, die Plattform für Big-Data-Analytik zu werden. Wir gehen im Kapitel 7.5 auf die Beziehung zwischen Hadoop und dem Data Warehouse ein.

Sie erlauben aufgrund des visuellen Arbeitens eine optimal abgestimmte Zusammenarbeit der Fachabteilung mit der IT. Ein gemeinsames Team bestehend aus einem IT- und Fachabteilungs-Mitarbeiter kann so den Extraktions-Job schnell und eben agil durchführen. Erster Schritt ist die Identifikation der relevanten Quellen für die Datenbeschaffung. Das lässt sich bereits teilweise automatisieren. Mit Suchbegriffen und auch komplexen semantischen Suchmustern lassen sich die relevanten Webseiten finden. Nach der Identifikation erfolgt die visuelle Spezifizierung. Bei der Extraktion arbeiten die Werkzeuge dann wie Mikro-Workflow-gesteuerte Roboter. In den Workflows werden Regeln und Schleifen eingesetzt. So kann eine umfangreiche Workflow-Logik aufgebaut werden, die Extraktionen jeder Komplexitätsstufe ohne Programmierung ermöglicht. Die Roboter können mittels einer Management-Konsole geplant und kontrolliert werden. Damit kein Webmaster das Extrahieren bemerkt und womöglich Gegenmaßnahmen ergreift, können sie auch bewusst langsam arbeiten, um einen menschlichen Leser vorzutäuschen. All das macht sie zuverlässig und sicher.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 120

Wolfgang Martin Team Die heutigen agilen Integrations- und Extraktionswerkzeuge besitzen genügend Intelligence, um auch dynamische Webseiten abzugreifen. Wenn sich die Position von abzugreifenden Daten auf der Webseite ändert, dann wird das in gewissen Grenzen auch automatisch vom Roboter erkannt und nachgezogen. Wenn das nicht gelingt, wird das einer ManagementKonsole gemeldet, so dass ein menschlicher Eingriff die Situation schnellstens wieder bereinigen kann. Anbieter solcher agilen Werkzeuge finden Sie im Kap. 10.5. Der Einsatz solcher agilen Werkzeuge ist auch im B2B sehr sinnvoll, wenn es beispielsweise um OnlinePreisvergleiche geht, oder man im Rahmen von Unternehmensnetzen Information zwischen Portalen automatisiert austauschen will. Hier haben beispielsweise Brainware Speziallösungen für den Zahlungsverkehr entwickelt, Lixto für Lieferantenportale und Kapow Software hat sechs Lösungsszenarien für den Einsatz agiler Integrations- und Extraktionswerkzeuge entwickelt32. So beschafft man sich die notwendigen Web-Daten automatisiert und schnell. Dabei darf man allerdings gesetzliche Aspekte nicht vergessen. Selbst wenn Daten nicht geschützt und öffentlich sind, verstößt man unter Umständen bereits gegen die AGBs der Seiten, wenn man automatisch ausliest. Daten, die auf den Netzgemeinschaften als privat gekennzeichnet sind, darf man so natürlich unter keinen Umständen nutzen. Bei öffentlichen Daten ist ein opt-in den Kunden mehr als empfehlenswert. Die juristischen Details wollen wir aber hier nicht weiter vertiefen. Das ist eine Diskussion jenseits dieses White Papers.

6.5

Meta- und Stammdaten-Management

Metadaten. Prozess-Orientierung braucht Metadaten-Management. Metadaten erstrecken sich über alle Schichten der SOA. Sie sind der Schlüssel zu einem konsistenten Datenmodell mit Lebenszyklus-Management für konsequentes Verständnis und Kommunikation des Datenmodells, für Datenqualität, Zugriffsschutz und datenschutzrechtliche Aspekte. Metadaten lassen sich in drei Schichten organisieren: 

Schicht 1 – Stammdaten: Das sind fachlich orientierte Metadaten, die die Basis für das Business-Vokabular darstellen. Es sind die Metadaten, die die Business-Strukturen wie Anlagen, Produkte und Dienstleistungen und die Geschäftsparteien (beispielsweise Lieferanten, Kunden, Mitarbeiter, Partner etc.) beschreiben. Damit erhält man eine einheitliche Sicht auf alle Unternehmensstrukturen.



Schicht 2 - Navigations-Metadaten: Das sind ebenfalls fachlich orientierte Metadaten, die die Informationsflüsse beschreiben. Sie geben Antwort auf Fragen wie: „Wo kommen die Daten her? Was ist die Aktualität der Daten? Wo werden die Daten noch verwendet?“



Schicht 3 - Administrations-Metadaten: Das sind IT-orientierte Metadaten, die die Rollen und Verantwortlichkeiten beschreiben. Sie geben Antwort auf Fragen wie: „Wer ist verantwortlich? Wer soll Zugriff haben? Wer hat wann was getan?“

32

siehe Research Note zu Kapow Software auf http://www.wolfgang-martin-team.net/research-notes_dt.php

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 121

Wolfgang Martin Team Metadaten stellen den „single point of truth“ dar, den traditionellerweise das Data Warehouse für BI bereitstellte. Datenintegration hat diese Rolle jetzt geändert. Jetzt spielt das BusinessVokabular die zentrale Rolle. Das ist zwingend notwendig, denn Prozesse brauchen eine einheitliche gemeinsame Terminologie zur Modellierung und Kommunikation mit allen an den Prozessen Beteiligten, den Mitarbeitern in den Fachabteilungen und in der IT, aber auch den Lieferanten, Partnern und sogar den Kunden. Das Business-Vokabular kontrolliert also sowohl BPM wie Performance Management. Es wird in einem Repository verwaltet. (Abb. 39)

Transparenz und Nachvollziehbarkeit Stammdaten-Management bezeichnet die Menge aller Policies, Services, Prozesse und Technologien zum Anlegen, Warten und Managen von Daten, die mit den Geschäfts-Entitäten als Datensatzsystem des Unternehmens verbunden sind. Lieferanten

Unternehmen

Kunden

Die 3 Säulen von Metaund StammdatenManagement • Datenintegration • Datenqualität • Data Governance Synchronisieren

Repository

Historisieren

Meta- und Stammdaten

39

Meta- und Stammdaten-Management ist Kern-Disziplin und integraler Bestandteil von Information Management. © 2015 S.A.R.L. Martin

Abbildung 39: Meta- und Stammdaten-Management bedeutet Informations-Services für das Synchronisieren und Historisieren von über verschiedene Applikationsinseln verstreuten Meta- und Stammdaten einzurichten, um so über ein Repository allen Prozessen ein gemeinsames BusinessVokabular zur Verfügung zu stellen. Die optimale Architektur für ein solches Repository ist eine Huband-Spoke-Architektur analog zur Architektur eines ESBs. Die 3 Säulen von Meta- und StammdatenManagement werden in Kap. 6.2 (Datenintegration), Kap. 6.6 (Datenqualität) und Kap. 6.8 (Data Governance) diskutiert.

Stammdaten. Stammdaten sind die Basis für das Business-Vokabular. Sie beschreiben die Datenobjekte von Prozessen, Regeln und Metriken. Sie sind die speziellen fachlichen Metadaten aus der Schicht 1 und beschreiben die Strukturen eines Unternehmens (Abb. 39): Kunden, Lieferanten, Händler, Partner, Produkte, Dienstleistungen, Mitarbeiter, Anlagen, kurz alles, was ein Unternehmen besitzt und ausmacht. Operative und analytische Stammdaten. Man unterscheidet operative und analytische Stammdaten (Abb. 40). Die operativen Stammdaten sind Teil der operativen Daten der OLTP (online transaction processing) Systeme. Man klassifiziert operative Daten in die (operativen) Stammdaten und die Bestands- und Bewegungsdaten. Die unterschiedlichen Typen von operativen Stammdaten leiten sich aus der Grundstruktur eines Unternehmens ab. Das sind alle an den Prozessen beteiligten Objekte und Personen, also die Produkte und

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 122

Wolfgang Martin Team die Geschäftsparteien: Mitarbeiter, Kunden, Händler und Lieferanten. Die analytischen Stammdaten leiten sich aus dem Performance-Management-Modell und Prozessträgermodell ab, also aus dem Prinzip des Messens und der Verantwortlichkeiten: Zeit, Raum, Plan und organisatorische Einheiten (wie Kostenstellen, Kostenträger etc.) Repository und Life-Cycle-Management. Als Behälter für die Metadaten dient ein Repository. Es spielt die Rolle einer Integrationsdrehscheibe für die Metadaten aller Backend-Systeme im BPM. Wenn in einer SOA die Services von Backend-Systemen im Rahmen eines Prozesses miteinander kommunizieren sollen, dann müssen sie die Sprache sprechen, die durch das Business-Vokabular im Repository festgelegt ist. Eine Punkt-zuPunkt-Kommunikation führte hier wieder ins Chaos. Die Lösung ist, das Metadaten-Modell jedes Backend-Systems in das zentrale Business-Vokabular des Repositories zu transformieren (siehe auch Abb. 17), dann kann über das zentrale Vokabular jeder mit jedem sprechen und das Anschließen neuer Systeme wird deutlich einfacher und schneller.

Meta- und Stammdaten-Management Metadaten (DNA)

Datenintegration

Big Data

analytische Stammdaten      

Kunden Partner Lieferanten Produkte Mitarbeiter Anlagen

   

operative Stammdaten

B2BDaten

Raum Zeit Plan Organisation

Bestands/Bewegungsdaten

operative Daten (OLTP) © 2015 S.A.R.L. Martin

40

Abbildung 40: Ableitung von Stammdaten aus operativen und externen Daten (OLTP – online transaction processing – Systeme; B2B business to business – z.B. Partner- und Kundendaten) und Klassifikation in operative und analytische Stammdaten. Stammdaten sind Teil der fachlichen Schicht von Metadaten (D = Definition, N = Navigation, A = Administration).

Dazu kommt: Stammdaten sind nicht statisch. Nicht nur die Akquisition eines Unternehmens durch ein anderes Unternehmen verändert die Stammdaten, indem neue Strukturen notwendig werden, sondern jede Organisationsänderung, jede Geschäftsregeländerung, jede Marktänderung erfordert eine Fortschreibung des Stammdatenmodells. Jeweils nur den letzten Zustand des Stammdatenmodells im Repository vorrätig zu haben, ist nicht ausreichend. Man braucht den gesamten Lebenszyklus der Meta- und Stammdaten für die Unternehmensplanung, für die Wirtschaftsprüfer und die typischen analytischen Fragestellungen. Deshalb ist ein Stammdaten-Lebenszyklus-Management erforderlich. Das

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 123

Wolfgang Martin Team ist heute immer noch eine Schwachstelle auf Anbieter- und Nutzerseite, aber ohne Metaund Stammdaten-Management geht es nicht: BPM-, Performance-Management- und SOAInitiativen werden sonst scheitern. Daher sollten Stammdaten konsistent, vollständig, aktuell und korrekt sein, damit ein eigentlich selbstverständliches Ziel erreicht werden kann: dem richtigen Kunden das richtige Produkt in der richtigen Menge zum richtigen Preis an den richtigen Ort liefern mit der richtigen Rechnung. Diese Anforderung klingt fast banal, hat es aber in sich. Schauen wir uns dazu die Situation in einem typischen Unternehmen an. Hier werden die Unternehmensprozesse durch Applikationen unterstützt. Es gibt ein ERP, ein CRM, ein SCM, ein PLM, ein Data Warehouse und verschiedene branchentypische Applikationen. Mitunter sind es rund 50 oder mehr Applikationen, die ein Unternehmen unterstützen. Da jede Applikation ihre eigenen Stammdaten hat, steckt man in einem Fragmentierungsproblem. Das bedeutet, Stammdaten werden redundant über die Applikationen gehalten und sind verstreut. Jede Applikation hat ihr Eigenleben und entwickelt ihre eigene Terminologie. So wird Stammdaten-Management zum Alptraum. Kunden-, Produkt- oder Auftragsnummern in einer Applikation stimmen mit denen in anderen Applikationen nicht überein. Teilweise hilft sich hier die IT mit Übersetzungstabellen, mit denen versucht wird, die Stammdaten-Terminologie einer Applikation in die einer anderen Applikation zu überführen. Das ist auch keine gute Lösung, denn jetzt wird beispielsweise die Kollaboration mit Lieferanten und Kunden zum Kostentreiber: Jedes Mal, wenn ein neuer Lieferant, ein neuer Kunde oder ein neues Produkt dazu kommt, muss eine neue Übersetzungstabelle erstellt werden und/oder der neue Begriff in allen Übersetzungstabellen hinzugefügt werden. Das macht Änderungen in der IT langsam, fehleranfällig und vor allen Dingen auch (sehr) teuer. Alles in allem: Das Unternehmen verliert an Agilität. Aber noch viel schlimmer sind die Auswirkungen eines unprofessionellen oder fehlenden Stammdaten-Managements in den Fachabteilungen. 

Wenn die Erfassung und Pflege von Stammdaten redundant pro Applikation erfolgt, dann entsteht in den Fachabteilungen ein deutlicher Mehraufwand. Zusätzlicher Mehraufwand entsteht durch eine unzureichende Datenverfügbarkeit. Man verliert Zeit beim Suchen. Das steigert sich exponentiell mit der Anzahl der Applikationen, die man betreibt. Die Mitarbeiter verlieren sich in operativen Tätigkeiten. Für die geschäftsrelevanten Aktivitäten bleibt nicht genügend Zeit, es sei denn, man stellt zusätzliche Ressourcen ein: Die Kosten steigen.



Eine redundante Stammdatenhaltung erhöht das Datenvolumen und führt zu Daten unterschiedlicher Qualität und Aktualität. Es entstehen Inkonsistenzen und Fehler im operativen Geschäft. o

Daraus folgen fehlerhafte Prozess-Ergebnisse. Das bedeutet erhebliche Mehrkosten durch falsche Produktion, falsche Lieferungen, falsche Preise, falsche Rechnungen und daraus resultierende Retouren, Stornos und Kundenunzufriedenheit.

o

Das führt zu Prozess-Stillstand oder sogar zu Prozess-Abbruch. Das bedeutet einen Verlust an Produktivität und erhebliche Mehrkosten durch manuelle Eingriffe in die Prozesse, durch Zeitverlust und mögliche Konventionalstrafen.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 124

Wolfgang Martin Team 

Ein unzureichendes Stammdaten-Management verursacht auch Inkonsistenzen und Fehler auf der taktischen und strategischen Ebene. o

Inkonsistenzen im Berichtswesen führen zu falschen Schlüssen im Management. Man diskutiert über die Zahlen und nicht über das Geschäft. Dadurch werden Gelegenheiten im Markt verpasst.

o

Fehlerhafte Analysen bedeuten fehlerhafte Managemententscheidungen mit zum Teil nicht absehbaren Folgen.

o

Fehler im Unternehmen senken die Kundenzufriedenheit und Kundenbindung. Das bedeutet mittel- und langfristig sinkende Umsätze. Dazu kommt ein ImageVerlust, was sich wiederum negativ auf die Umsätze auswirkt.

Das zeigt mehr als deutlich, dass ein professionelles Stammdaten-Management absolut notwendig ist und sich auch rechnet. Es vermeidet Prozesskosten, die sich pro Prozess monetär berechnen lassen. Es steigert die Geschwindigkeit („Time-to-Market“), was sich auch monetär erfassen lässt. Schließlich steigert es den Umsatz, auch das lässt sich mit Geld bewerten. Der so bezifferte geldwerte Vorteil kann dann in ein Budget für professionelles Stammdaten-Management umgerechnet werden. Konzept des „Golden Records“ im Stammdaten-Management. Der Golden Record ist das Herzstück eines professionellen Stammdaten-Managements. Zu verstehen ist der Golden Record als ein Stammdatensatz, der die relevanten Attribute aus allen Datenquellen vereinigt und damit eine Obermenge aller Attribute aus allen Datenquellen darstellt. Verwaltet werden die Golden Records in einem zentralen Repository. Data Cleansing und Matching stellen die Datenqualität sicher. Identity Resolution (siehe Kap. 6.7) ordnet ähnliche Sätze aus verschiedenen Quellen einem einzigen Golden Record zu. So werden Dubletten vermieden und die Datenqualität weiter gesteigert. Im Sinne der Historisierung von Stammdaten muss der Lebenszyklus aller Golden Records im Repository verfügbar sein (siehe Abb. 39). Zudem enthält der übergeordnete Datensatz die Links zu allen Stammdatensätzen in verschiedenen Datenquellen, in denen Attribute aus dem Golden Record verwendet werden. So kann sichergestellt werden, dass bei der Änderung eines Attributs in einer beliebigen Datenquelle diese Änderung in allen anderen betroffenen Quellen nachgezogen wird. Die Daten bleiben so konsistent und brauchen nicht physikalisch bewegt und damit redundant gespeichert werden. Das Ergebnis ist eine Synchronisierung der Datensilos im Unternehmen. Fragmentierte Daten gehören der Vergangenheit an. Über individuelle Regelwerke kann der Golden Record im Weiteren automatisiert und bei Bedarf manuell bearbeitet und ergänzt werden. Bausteine eines erfolgreichen Stammdatenmanagements. Ein Stammdatenmanagement-Programm wird aber nicht nur von technischen Anforderungen, sondern ganz besonders und vor allem durch die Anforderungen der Fachbereiche bestimmt. Stammdatenmanagement ist ein von den Fachbereichen gesteuertes durch Technologie unterstütztes Programm und nicht anders herum! Um ein solches Programm erfolgreich zu leiten, sollte man sich auf sieben Basiskomponenten des Programms stützen: 

Ziel des Stammdatenmanagements im Unternehmen. Das Ziel sollte sich aus der Unternehmensstrategie ableiten. Es sollte klar formuliert und publiziert werden. Hinter

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 125

Wolfgang Martin Team dem Programm sollte auch ein Sponsor stehen, der dieses Ziel auf der Geschäftsleitungsebene vertritt und im Gesamtrahmen der unterschiedlichen Zielsetzungen der unterschiedlichen Programme im Unternehmen verankert. Das Ziel des Programms sollte beschreiben “was” das Programm liefern soll und “warum”. 

Die Strategie des Programms. Hier sollte formuliert werden, mit welchen Ressourcen, in welcher Zeit und mit welchem Budget das Programm durchgeführt werden soll. Weiterhin sollte hier der aktuelle Reifegrad des Stammdatenmanagements im Unternehmen beschrieben werden und welche Maßnahmen man braucht, um zur nächsten Stufe der Reifegradskala zu kommen.



Festlegen der Kennzahlen (Metriken). Die am Programm beteiligten Teams sollten am Beginn des Programms festlegen, welche Kennzahlen für den Fortschritt und Erfolg des Programms am wichtigsten sind. Diese Kennzahlen müssen in den Kontext der Ziele und Strategie des Programms und des Unternehmens gestellt werden: Es darf keine sich widersprechenden Metriken geben! Ist beispielsweise Ziel des Programms, die Kundendaten zu verbessern, dann sollte eine Kennzahl den prozentualen Anstieg der Genauigkeit der Kundendaten über die Zeit messen. Darüber hinaus sollten die Teams die Kennzahlen auch in den Kontext von Umsatzsteigerung und Kostenreduktion stellen. In unserem Beispiel einer Kennzahl zum Messen der Genauigkeit von Kundendaten sollte daher in den regelmäßigen Programmberichten und Präsentationen gezeigt werden, wie eine Verbesserung dieser Kennzahl sich entsprechend auf Vertriebs- und andere relevante Prozesse auswirkt. Das Aufzeigen solcher geldwerten Vorteile, die durch das Programm erreicht werden, hilft natürlich, weiteres notwendiges Budget und Ressourcen zu bekommen.



Aufbau der Governance-Hierarchie. Eine effektive Governance-Struktur in einem großen Unternehmen besteht typischerweise aus dem Sponsor und aus Managern, die auf verschiedenen Management-Ebenen sitzen und das Programm anleiten und in die richtige Richtung steuern. Die Struktur eines Lenkungsausschusses hat sich und ist immer noch bewährt und als wesentlich und notwendig für den Erfolg eines Stammdatenmanagement-Programms bewiesen.



Verankern des Programms in der Organisation. Die wichtigste Rolle im Stammdatenmanagement bekleiden die Data Stewards (siehe auch Kap.6.8 und 6.9) Das Programm muss diese Rolle im Sinne des Reifegradmodells für Stammdatenmanagement ausbauen und verstärken, denn die Data Stewards haben den besten Einfluss auf alle am Stammdatenmanagement im Unternehmen Beteiligten. Dadurch lässt sich ein nachhaltiger Erfolg des Programms erreichen. Verankern des Programms in den Geschäftsprozessen. Zu den kritischen Erfolgsfaktoren des Programms gehört das Verstehen, welche Geschäftsprozesse vom Stammdatenmanagement-Programm betroffen sind. Ein Programm, das keine Auswirkungen auf die Geschäftsprozesse hat, hat nur sehr wenig Wert, wenn überhaupt. Es gilt also aufzuzeigen, welche Geschäftsprozesse durch das Stammdatenmanagement-Programm wie geändert und verbessert werden.



Modellieren und Implementieren einer soliden Infrastruktur. Schließlich darf man die technologischen Aspekte nicht vergessen. Bei der Auswahl der

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 126

Wolfgang Martin Team Stammdatenmanagement-Plattform und der Werkzeuge geht man aber wieder von den fachlichen Anforderungen aus und leitet daraus die technischen Anforderungen ab.

6.6

Datenqualität – Vorsorge tut Not

An welchem Tag im Jahr haben die meisten Menschen Geburtstag gemäß den in allen Datenbanken der Welt gespeicherten Daten über die Geburtstage? Unsinnige Frage? Ganz und gar nicht, denn das Ergebnis verblüfft: Es ist der 11.11. Warum der 11.11.? Ganz einfach, wenn ein neuer Kunde in einer Datenbank erfasst wird, dann gibt es “Muss”-Felder und “Kann”-Felder. Bei den Muss-Feldern wird die Eingabe vom System geprüft, bei den Kann-Feldern nicht. Geburtstagsdaten sind häufig in Kann-Feldern gespeichert. Was passiert: der Mensch ist faul. Die schnellste und einfachste Eingabe ist eben 1,1,1,1,1..... Für viele Millionen Euro haben Unternehmen SAP und andere Standardsoftware eingeführt. All die Daten sollten erfasst werden, die man braucht, um im Wettbewerb die Nase vorn zu haben: CRM per Selbstbedienung, Coupons, Pay-Cards, Klubs und Weblogs ist da ein durchaus erfolgreicher Ansatz bei der Jagd auf das Budget des Kunden. KundenOrientierung ist die Devise und Marketing, Vertrieb und Kundendienst arbeiten nolens – volens in kollaborativen Prozessen zusammen. Mit Lauerkampagnen im Kundenkontaktzentrum und Web-Shop, mit Analytik, besonders mit Data-Mining-Lösungen ist die nachfrage- und kundengetriebene Supply Chain Realität. Voraussetzung dazu ist, dass die Datenqualität stimmt. Beispiel: In der Bekleidungsbranche werden schon seit langem die Daten jeder Verkaufstransaktion in einem Data Warehouse gesammelt. Kundenprofile werden abgeleitet. Daraus setzen sich Nachfrageprofile pro Boutique zusammen. Entsprechend diesen Nachfrageprofilen werden die Waren-Kollektionen individuell pro Boutique zusammengestellt. Ergebnis: Der Kunde findet in seiner Boutique stets das Produkt, das er will. Er wird zufriedener, er kommt wieder, er wird ein immer profitablerer Kunde. Und auf der Kostenseite lässt sich nachrechnen: Liegt in den Boutiquen die richtige Ware vor Ort, dann liegt weniger Ware auf Lager, und das bedeutet weniger Kosten. Einsparungen von 30% bis 40% Lagerhaltungskosten werden erzielt. Datenqualität ist die wesentliche Voraussetzung, um mit Information erfolgreicher zu werden. Das Prinzip „garbage in – garbage out“ ist gnadenlos. Stellt man erst beim Aufbauen von Performance-Management-Lösungen fest, dass die in SAP oder anderen Systemen gespeicherten Daten nicht den Qualitätsansprüchen von SOA-basierten Geschäftsprozessen genügen, dann ist es in der Regel zu spät. Beispiel: Ein großer europäischer Versandhändler hatte ein Problem mit seinen Geburtstagsdaten. Geburtstagsdaten dienen in einfachster Form der Altersbestimmung der Kunden. Das Alter ist ein überaus wichtiger Parameter in der Kundenbeziehung, vor allem im Konsumgüterbereich. Ausgerechnet die

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 127

Wolfgang Martin Team Altersangaben in seiner Datenbank waren unzuverlässig. Eine Lösung konnte gefunden werden, die Verbesserung brachte: Da Vornamen Modetrends unterliegen, lässt sich über den Vornamen mit einer gewissen Wahrscheinlichkeit das Alter des Kunden schätzen. Wie man sich vorstellen kann: Eine teure Lösung, die zudem niemals ganz sicher und zuverlässig ist. Viel teurer und viel ungenauer, als wenn man gleich von Anfang an die richtige Datenqualität in seine operativen Prozesse einbaut. Qualität gleich von Anfang an in die Prozesse einbauen, das klingt nach einer vertrauten, bekannten Maßnahme. Das war nämlich genau die Idee von TQM (total quality management) vor gut 20/25 Jahren in der Fertigungsindustrie. Total Quality Management (TQM) bezeichnet die durchgängige, fortwährende und alle Bereiche einer Organisation erfassende, aufzeichnende, sichtende, organisierende und kontrollierende Tätigkeit, die dazu dient, Qualität als Systemziel einzuführen und dauerhaft zu garantieren. TQM wurde in der japanischen Automobilindustrie weiterentwickelt und schließlich zum Erfolgsmodell gemacht. TQM benötigt die volle Unterstützung aller Mitarbeiter, um zum Erfolg zu führen.33 TQM für die Informatik ist nicht erst jetzt das Thema. Mit der Einführung von SAP & Co. hätte man datenqualitäts-sichernde Maßnahmen schon ergreifen sollen. Aber das Thema Datenqualität ist noch heute ein Dauerbrenner. Der Data Quality Check 2007 (Lehmann, Martin, Mielke, 2007), eine Untersuchung des deutschsprachigen Marktes zu Datenqualität und Datenqualitäts-Management, brachte es an den Tag:  Nur 10% der Unternehmen betreiben ein Datenqualitäts-Management wie weiter unten beschrieben, aber so gut wie alle meinen, es sei ein sehr wichtiges Thema.  61% der befragten Unternehmen setzen keine Werkzeuge zum DatenqualitätsManagement ein!  Was in den meisten Unternehmen immer noch fehlt, ist ein hinreichend hoch in der Unternehmenshierarchie angesiedelte(r) Verantwortliche(r) und Sponsor(in) von und für Datenqualität. Denn Datenqualität ist Chefsache. Diese Untersuchung ist zwar inzwischen sieben Jahre alt, aber hat sich in dieser Zeit in Sachen Datenqualität Entscheidendes geändert? Beispiel: Nehmen wir an, Sie wollen eine 360° Grad Sicht auf den Kunden aufbauen, also den Kunden mit allen möglichen Ausprägungen kennen, damit Sie ihn immer bestens gemäß seinem Kundenwert bedienen können. Man weiß, dass 60% bis 80% der Aufwendungen für den Bau solcher integrierten Kundendaten in die Infrastruktur fließen. Bei dieser Datenintegration gilt es Daten aus unterschiedlichen Quellen zusammenzuführen in ein einheitliches Kundendatenmodell. Die Daten stammen aus unterschiedlichen operativen Systemen (Ein großer Mittelständler hat im Median 50 operative Systeme im Einsatz.), aus historischen und möglicherweise archivierten Datenbeständen und nicht zu vergessen: externe Marktdaten, demographische Daten, Daten aus sozialen Netzen und Web-Clickstreamdaten. Weiter in unserem Beispiel. Beim Bauen Ihrer Kundendatenbank merken Sie auf einmal: System A hat 33

nach Wikipedia http://de.wikipedia.org/wiki/Total-Quality-Management (Zugriff am 12.03.2013)

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 128

Wolfgang Martin Team eine Tabelle mit Daten über den Kunden, die man nur noch mit der Tabelle Z aus SAP verknüpfen müsste, dann hätte man eine tolle neue Sicht auf den Kunden. Nur leider ist das Verknüpfungsfeld eins der berühmten Kann-Felder (die immer so viele “Einser” enthalten). Damit scheitert die schöne Idee, diese Daten für den Fachbereich zusammenzuführen. Welcher Projektleiter kann schon zum Betreiber des Prozesses mit dem Kann-Feld in der besagten Tabelle gehen und ihm sagen, er solle ab sofort das Kann-Feld als Muss-Feld behandeln? Datenqualität ist eben Chefsache. In führenden, fortgeschrittenen Unternehmen gibt es bereits Datenqualitäts-Direktoren. Sie koordinieren die Rollen von “Data Stewards”, die an verantwortlicher Stelle in den Fachabteilungen sitzen. Sie sind in der Regel gleichzeitig auch die Prozess-Verantwortlichen. Ihnen wird die Verantwortung für die Stamm- und Bewegungsdateninhalte und die Metadaten delegiert. Mit anderen Worten, DatenqualitätsManagement funktioniert nur mit einer Information Governance. Daher sollte eine solche DQInitiative im Kompetenzzentrum für Stammdaten-Management oder im Kompetenzzentrum für Information Management angesiedelt werden (siehe Kap. 6.8). Datenqualität sollte bereits in die operativen Prozesse im Rahmen einer TQM-Initiative eingebaut werden. Die vier Eckpfeiler von Datenqualität sind34: 

Qualität wird als Grad der Übereinstimmung mit Anforderungen definiert.



Das Grundprinzip der Qualitätsplanung ist Vorbeugung.



Null-Fehler-Prinzip muss zum Standard werden.



Qualitätskosten sind die Kosten für Nichterfüllung der Anforderungen.

Doch die Ist-Situation ist anders. Hier gilt in zu vielen Unternehmen immer noch die Devise: Unsere Daten sind doch in Ordnung! In Wahrheit sieht es anders aus. Zahlen in verschiedenen Berichten und Dashboards weichen voneinander ab. Treffen von Entscheidungen auf Basis von Fakten? Fehlanzeige! Gleichzeitig steigt unter anderem die Anzahl abgebrochener Transaktionen, weil wichtige Basisdaten fehlerhaft sind, steigt die Anzahl von Stornierungen, weil Kunden falsche Produkte zugestellt bekommen, steigt die Zahl der Retouren, weil die Adressdaten nicht mehr stimmen, und, und, und. Da wird man hellhörig, denn zumindest sieht man, dass so die Kosten steigen. In einer Hauruck-Aktion wird dann oft eine Datenqualitäts-Management-Maßnahme beschlossen, die jedoch allenfalls auf die Symptome reflektiert, die eigentlichen Ursachen jedoch völlig außer Acht lässt. So wird beispielsweise eine Massendatenbereinigung eingeleitet. Zuerst macht man ein Profiling, um den Datenbestand zu analysieren. Data-Profiling. Mit Data Profiling wird die Beschaffenheit von Daten analysiert und ein Datenprofil mit identifizierten Mängeln und Eigenschaften der untersuchten Daten erstellt. Dazu dienen drei Typen von Analysen:

34

Nach Philip Bernd Crosby http://de.wikipedia.org/wiki/Qualit%C3%A4t#Die_4_Eckpfeiler_der_Qualit.C3.A4t_nach_Crosby

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 129

Wolfgang Martin Team 

Feld-Profile. Die Analyse von Inhalt und Datenqualitätsprobleme im Zusammenhang Verteilungen und Varianzen erkennen.



Abhängigkeits-Profile. Im Rahmen einer Abhängigkeitsanalyse werden die Verbindungen zwischen Attributen einer Relation überprüft. Das ergibt Aufschluss über erwartete, unerwartete und unscharfe funktionale Abhängigkeiten sowie potenzielle Schlüsselattribute. Damit erhält man eine gute Unterstützung zur Normalisierung von Datenquellen.



Redundanz-Profile. Mittels einer Analyse der Überlappungen zwischen Attributen verschiedener Relationen können Redundanzen und Fremdschlüsselbeziehungen innerhalb eines Datenbestandes aufgedeckt werden.

Struktur einzelner Attribute lässt mit Datentypen, Wertebereichen,

Abbildung 41: Uniserv-Screenshot-Ausschnitt als Beispiel für Data Profiling. Die verschiedenen Fenster geben unterschiedliche Sichten auf den Profiling-Prozess. Unten: Progress (Fortschrittsanzeige aktuell laufender Lade- oder Metrik-Verarbeitungen). Rechts oben: Value Distribution (grafische Werteverteilungsansicht auf Feldebene), links daneben Records (Anzeige der aktuell selektierten Datensätze - Filterung, Sortierung), Main Window: Kumulierte Basis-Information auf Feldebene.

Werkzeuge zum Data Profiling (vgl. Abb. 41) setzen Regel-Maschinen und Verfahren der deskriptiven Statistik (Verteilungsanalysen, Ausreißer-Tests etc.) sowie des Data Mining (Cluster-Analysen und Entscheidungsbaumverfahren) ein. Das Data Profiling dient also zur Ist-Analyse und Aufwandsschätzung für alle weiteren Aktivitäten. Durch den Einsatz von Werkzeugen werden Datenqualitätsprobleme wesentlich schneller erkannt als mit einer manuellen Analyse. Hat man so die Schwachstellen mittels Data Profiling identifiziert, lässt

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 130

Wolfgang Martin Team sich mit der anschließenden Datenbereinigung (Data Cleansing) das notwendige Qualitätsniveau wieder herstellen. Data-Cleansing. Datenbereinigung nutzt verschiedene Methoden: 

Parsing: Zusammengesetzte Einträge in Datenfeldern werden in deren atomare Bestandteile zerlegt.



Semantischer Ansatz: Daten werden nach definierten Regeln in Standardwerte und formate überführt.



Benchmarking: Vergleich unternehmensinterner Daten mit externen Datenbeständen zur Verifizierung.



Matching: Identifikation von ähnlichen Inhalten in unterschiedlichen Datenfeldern (beispielsweise die Zuordnung von Kundeninformation in verschiedenen Applikationen zu ein und demselben Kunden).



Dubletten werden bereinigt (typisch für CRM: Adressbereinigung).



Konsolidierung: Zusammenführen von verstreuter Information zu Datensätzen (beispielsweise das Zusammenführen der Kundenadresse).



Householding: Aufdecken von Zusammenhängen in den Daten, beispielsweise das Identifizieren aller Privatpersonen eines Haushalts.



Datenanreicherung: Mit Hilfe externer Daten kann der Nutzen der bereinigten unternehmensinternen Daten gesteigert werden.

vollständigen

Grundsätzlich lassen sich hier wahrscheinlichkeitstheoretische, deterministische und wissensbasierte Verfahren unterscheiden. Die beiden ersten Ansätze nutzen entsprechende Algorithmen, der wissensbasierte Ansatz nutzt landesspezifische Wissensdatenbanken zur Adresszusammensetzung, Namen oder Rechtsformen. Vielfach wartet man nach einem Data Profiling und Data Cleansing, bis wieder Datenqualitätsprobleme auftreten und wiederholt dann die Prozedur. Etwas fortschrittlichere Unternehmen wiederholen in einer gewissen vorbeugenden Art und Weise die Bereinigung in gewissen Zeitabständen. Die Datenqualität über die Zeit entspricht so in ihrem Abbild einer Sägezahnkurve. Datenqualität ist nach einer Bereinigung am höchsten und fällt dann mit der Zeit kontinuierlich ab, bis wieder eine Datenbereinigung durchgeführt wird und die Datenqualität so wieder auf den Sollwert gebracht wird – auf, ab, auf, ab. Optimal ist das nicht. In der Tat, es geht besser, denn Vorbeugen ist besser als Heilen. Und das Prinzip der Vor-sorge gilt: Ein Schaden soll erst gar nicht eintreten. Das ist natürlich besonders wichtig im Geschäftsleben: Risiken zu vermeiden ist besser als entstandene Schäden nachträglich zu beheben. Denn Risiken vermeiden bedeutet nicht nur weniger Kosten, sondern beispielsweise auch Prozesse, die weiterlaufen und nicht zum Stillstand kommen oder gar abbrechen. Das bedeutet vor allem auch Zeitgewinn. Risiken zu vermeiden ist das Ziel von Risiko-Management: die (Ab-)Sicherung des Unternehmens. In diesem Sinne sollte auch das Datenqualitäts-Management als Risiko-Management zur Sicherung des Unternehmens verstanden werden. Dazu kommt: Datenqualität als Risiko gesehen lässt sich recht einfach in Geld umrechnen und somit monetär bewerten, denn die

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 131

Wolfgang Martin Team Datenqualität bestimmt die Prozessqualität. Falsche Daten in Entscheidungsprozessen bedeuten falsche Entscheidungen. Die Kosten und der Zeitverlust durch falsche Entscheidungen lassen sich Fall für Fall recht präzise im Voraus berechnen. Falsche Daten in operativen Prozessen bedeuten höhere Prozesskosten und langsamere Abläufe. Denn falsche Daten halten Prozesse auf, verhindern Automation, bedeuten EskalationsManagement oder Stornos, Retouren bis hin zu Regressansprüchen, die an das Unternehmen gestellt werden. Alles in allem heißt das wieder Kosten und Zeitverlust, die pro Prozess ausgerechnet werden können. Es gilt eben: kein Prozess ohne Daten. Daten treiben und steuern die Prozesse.

DQM als Echtzeitservice Geschäftsprozess Mitarbeiter, Partner, Kunden

Datenerfassungs-Service

Dokumente Quellen aller Art

DatenqualitätsServices

Mobil Identity Resolution Validierung Referenzdaten Geo-Codierung

FehlerBerichte

Total Quality Management von Datenqualität © 2015 S.A.R.L. Martin

42

Abbildung 42: TQM von Datenqualität bedeutet einen Regelkreisansatz („closed loop“). Bei der Datenerfassung werden gleichzeitig die Daten mittels Datenqualitätsservices geprüft. Fehlerhafte Daten werden in einer Zwischendatenbank gespeichert, ein Fehlerbericht an die fehlerverursachende Quelle der Datenerfassung geschickt, so dass eine Korrektur vorgenommen werden kann. Ist die Korrektur erfolgreich, wird der entsprechende Datensatz in der Zwischendatenbank entsprechend markiert. Periodische Berichte erlauben zudem ein Performance Management des Regelkreisansatzes.

Datenqualitäts-Management als Risiko-Management ist im Endeffekt ein Total Quality Management: Datenqualität wird von Anfang an und über den gesamten Lebenszyklus von Daten sichergestellt. Datenqualitäts-Management beginnt bei der Erfassung der Daten und endet erst mit dem Löschen von Daten (Abb. 42). Daten fließen aus unterschiedlichen Quellen auf das Unternehmen zu und müssen erfasst werden: manuell durch Mitarbeiter, Partner, Kunden und andere oder automatisiert über Dokumentenaustausch (Scan- und Fax-Techno-logien), über elektronischen Datenaustausch (EDIFACT, SEPA etc.), über Maschine-zu-Maschine-Kommunikation (M2M) oder heutzutage natürlich auch über mobile Geräte. Eine Datenerfassung wird in der Regel durch einen Prozess angestoßen oder auch umgekehrt: Ein Ereignis schafft Daten und stößt einen

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 132

Wolfgang Martin Team Prozess an. Hier sehen wir noch mal sehr deutlich die Verbindung zwischen Daten und Prozessen. Im Augenblick der Datenerfassung wird sofort („in Echtzeit“) eine Prüfung der Daten auf Vollständigkeit, Korrektheit und Redundanz vorgenommen. Das geschieht mittels Datenqualitätsservices. Das sind zum einen Services zur (Customer) Identity Resolution. So wird sichergestellt, dass ein neuer Datensatz dem richtigen Unternehmensstammdatensatz zugeordnet wird. So vermeidet man beispielsweise Dubletten im Datenbestand. Denn Identitätsattribute eines Kunden können aufgrund von Übertragungs-, Schreib- und Transskriptionsfehlern voneinander abweichen. Hier gilt es, Ähnlichkeiten zu finden und dann entsprechende Zuordnungen vorzunehmen (siehe dazu das folgende Kap. 6.7). Eine andere Gruppe von Datenqualitätsservices sind Validierungsservices. Das sind Regeln, die beschreiben, wie ein bestimmter Datensatz auszusehen hat. Hier werden die Muss- und Kann-Felder auf ihren Füllgrad geprüft, Datentypen, Wertebereiche, Rechtschreibung und Grammatik untersucht sowie Beziehungen zwischen Attributen und Datensätzen validiert. Eine weitere Gruppe von Datenqualitätsservices ist ein Abgleich gegen spezielle Wissensbasen. Hier geht es darum, im Rahmen eines Matchings sicherzustellen, dass beispielsweise auf internationalem Niveau bestimmte Landesspezifika Berücksichtigung finden, bestimmte Standards zum Beispiel in der Adressierung eingehalten werden oder auch unterschiedliche Zeichensätze verarbeitet werden können. Darüber hinaus werden gerade und vor allem im Zeitalter von Big Data Geocodierungsservices als weitere Facette von Datenqualitätsservices immer wichtiger. Geocodierung bedeutet die Adressbewertung in lokalen Märkten, sprich: Kunden lokalisieren und neue Potenziale erschließen (vgl. Kap. 5.8). Das funktioniert folgendermaßen: 1. Geocodierung des Datenbestandes: Jede Adresse erhält eine Raumkoordinate (x-yKoordinate). 2. Fehlerhafte Adressen oder Ortsangaben werden selektiert und mittels Datenbereinigungsservice validiert. 3. Jeder Adresse kann jetzt zusätzlich eine eindeutige räumliche Raster-ID zugeordnet werden, die eine Vielzahl weiterer Attribute beispielsweise zur Soziodemographie, Kaufkraft, Produktaffinität oder zum Lifestyle liefert. In diesem speziellen Fall sprechen wir dann von Datenanreicherung. Geocodierung ergänzt also ganz im Sinne der eingangs zitierten Risikovorsorge das traditionelle Datenqualitäts-Management: Sie wirkt quasi wie ein Profiling, identifiziert Fehler in Adressdaten und bereinigt sie. Gleichzeitig erfolgt eine Anreicherung der Daten, womit sich die Daten wieder für weitere Anwendungen nutzen lassen, wie beispielsweise Clusterbildungen zur Potenzialanalyse. Dies alles kann bereits bei der Datenerfassung in Echtzeit erfolgen. Insofern können Datenqualitätsservices sowohl mittels On Premise Software als auch mittels SaaS als CloudComputing-Lösung angeboten und konsumiert werden. Das ist Data Quality as a Service (DQaaS). Auch eine hybride Nutzung, also sowohl on Premise als auch on Demand, bietet sich an. Datensätze, die aufgrund der Qualitätssicherung mittels der Datenqualitätsservices fehlerhaft sind und nicht automatisch bereinigt werden können, werden jetzt im Sinne eines

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 133

Wolfgang Martin Team geschlossenen Regelkreises in eine Zwischendatenbank geschrieben und eine Fehlermeldung geht an die Quelle der Datenerfassung. Dort wird ein EskalationsManagement ausgelöst mit dem Ziel, den Fehler zu bereinigen. Das bedeutet in der Regel einen manuellen Eingriff durch den am Prozess Beteiligten, der die notwendige Expertise zur Korrektur hat. Ist der Datensatz bereinigt, kann er in den Datenbestand übernommen und im Prozess verwendet werden. In der Zwischendatenbank wird er dann entsprechend markiert. Ein Data Quality Dashboard (oder auch einfache Berichte) gibt Auskunft über die Leistung dieses geschlossenen Regelkreises zum Datenqualitäts-Management (Abb. 43). Somit hat man schließlich auch das notwendige Performance Management, um den Regelkreis kontinuierlich zu verbessern, wie es ein TQM erfordert. Das Ergebnis ist eine nahezu konstante Datenqualität auf hohem Niveau. Das stellt gegenüber dem traditionellen Ansatz, bei dem die Datenqualität über die Zeit einer Sägezahnkurve folgte, einen deutlichen Fortschritt dar.

Abbildung 43: Mit einem Dashboard wie zum Beispiel der Data Quality Score Card von Uniserv lässt sich die Datenqualität im Blick halten: Korrektheit, Vollständigkeit und Eindeutigkeit. Maßnahmen zur Qualitätssicherung können so rechtzeitig eingeleitet werden.

Big Data Quality. Datenqualität spielt auch im Big Data eine wichtige Rolle, vor allem dann, wenn Unternehmensdaten mit Information aus dem Big Data angereichert werden sollen, also beispielsweise Kundendaten durch Daten aus den sozialen Medien oder Patientendaten mit therapeutischen Daten im Gesundheitswesen. Die Grundaufgaben von Data Quality

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 134

Wolfgang Martin Team Management bleiben die gleichen. Es geht wie immer um das Profiling, das Cleansing und das Anreichern und Abgleichen mit Referenzdaten. Als weitere Aufgabe wird ein Entity Identity Resolution Management wichtig, da unterschiedliche Stammdaten aus unterschiedlichen Quellsystemen selten identisch sein werden, sondern in der Regel nur noch ähnlich. Dann gilt es, ähnliche Stammdatensätze in den unterschiedlichen Quellen zu finden, um dann die Daten zusammenführen zu können. Das werden wir im folgenden Kapitel weiter verfolgen, und im Kapitel 6.9 gehen wir weiter auf Big Data Quality ein.

6.7

Entity Identity Resolution

„Entity Identity Resolution“ hat zur Aufgabe, Unternehmen bei den Herausforderungen im Umgang mit Entity-Identitätsdaten zu helfen: Das sind die Daten aus unterschiedlichen Quellen, die spezifisch und korrekt eine Entität (beispielsweise Produkt, Dienstleistung, Kunde, Lieferant, Interessent, Meinungsmacher, Patient, Steuerzahler, Kriminelle etc.) identifizieren. Entitäten werden in unterschiedlichen Quellen in der Regel auch unterschiedlich gespeichert. Das macht das Zusammenführen von Daten aus unterschiedlichen Quellen schwierig, da man jetzt nicht einfach durch einen Zeichenketten-Vergleich Entitäten aus unterschiedlichen Quellen identifizieren kann. Beispiel: Nehmen wir an, unsere Entitäten sind Kundendaten. Eine Kundin, die in der Kundendatenbank im Unternehmen mit dem Namen Ruth-Hanna Friese eingetragen ist, könnte beispielsweise in einem sozialen Netz Ruth Anne Friese heißen oder als Ruth Friese reklamieren. Sind das jetzt drei Personen oder ist das eine Person mit drei Identitätsbezeichnungen? Solche Probleme wie im Beispiel mit der Kundenidentität sind nicht selten, sondern fast die Regel. Ursachen sind eine natürliche Variabilität wie im Beispiel von Frau Friese, aber auch unerwartete Fehler durch Schreib- oder Transskriptionsfehler wie Spitznamen, Abkürzungen und Schreibweisen in unterschiedlichen Schriftsätzen (wie arabisch, chinesisch, griechisch, kyrillisch, lateinisch etc.) oder sogar professionell gemachte Lügen, die eine falsche Identität vortäuschen sollen. Noch schwieriger wird es, Identitäten zu finden, wenn der Kunde anonym auftritt. Im Endeffekt haben wir es bei einer solchen Entity Identity Resolution mit einer der zähesten Herausforderungen im Information Management zu tun. Das Kern-Thema von Entity Identity Resolution ist nicht neu. Ist die Entität beispielsweise der Kunde, dann kommt „Customer Identity Resolution“ im Datenqualitäts-Management seit langem bei der Einrichtung und beim Betrieb eines Data Warehouse zum Tragen – oder im analytischen CRM beim Aufbau einer einzigen Sicht auf den Kunden. Auch im Direktmarketing ist Customer Identity Resolution nichts Neues – sorgt doch die Dublettenbereinigung hier für reibungslose Prozesse. Ob bei der Konsolidieren von Adressbeständen, Bestandsbereinigung, Fremdbereinigung, Listen-Mischung, ClusterAbgleich, Negativ-Abgleich (insbesondere bei der Robinsonliste), Positiv-Abgleich zur

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 135

Wolfgang Martin Team Datenanreicherung und im internationalen Abgleich bei unterschiedlichen SchriftsatzRäumen – der richtige Umgang mit Kunden-Identitätsdaten ist hier erfolgsentscheidend. Customer Identity Resolution greift auf all diesen Gebieten und ist als spezielle Methode im Datenqualitäts-Management daher nicht mehr wegzudenken. Heute im Zeitalter der sozialen Medien – wie Facebook, LinkedIn, Xing, Twitter, Pinterest etc. – ist Customer Identity Resolution noch wichtiger geworden. Jetzt ist es für Unternehmen entscheidend und wettbewerbskritisch zu wissen, was die Kunden in den sozialen Netzen sagen und meinen. Für das Marketing bieten die Kundendaten in den sozialen Netzen eine bisher nicht gekannte und gekonnte Möglichkeit, das Kundenwissen anzureichern und entsprechend zu nutzen. Beim Abgleich und der Anreicherung der Unternehmens-Kundendaten mit sozialen Daten ist Customer Identity Resolution erfolgskritisch. Indem man jede Information in den Gesamtkontext eines Kunden stellen und dann kumulieren kann, erhält man ein besseres Verständnis und vor allem neue Kenntnisse über seine Kunden35. Man spricht hier auch von „sozialem Stammdaten-Management (Social MDM)“ Aus zusammengefügten Informations-Puzzleteilen entsteht so ein Kundengesamtbild: Auf Basis von Customer Identity Resolution erhält man ein präziseres Multikanal-Erscheinungsbild des Kunden, kann so bessere Kundenmodelle im Rahmen von prädiktiver Analyse aufbauen und im Endeffekt die Geschäftsergebnisse verbessern. Entsprechendes gilt, wenn die Entität gleich Produkt ist („Product Identity Resolution“). Will man im Internet beispielsweise Preisvergleiche anstellen, dann muss man sicher sein, dass die entsprechenden Produkte auch identisch sind, sonst ist ein Preisvergleich wertlos. Wenn ein Online-Händler sein Produktangebot mit dem eines Mitbewerbers preislich vergleichen will, dann wird er nicht immer identische Produkte, die sich in seinem und im Angebot des Mitbewerbers befinden, identifizieren können, wohl aber ähnliche. Ein solches Suchen auf Ähnlichkeit bedeutet dann im Endeffekt ein fehler-tolerantes Suchen. Die verwendeten Methoden basieren auf landesspezifischen Regel- und Begriffstabellen, auf sprachraumspezifischer Phonetik und Entitäts-spezifischer Fuzzy-Logik (Mehr Details zu den Methoden finden Sie im grau-gesetzten Kasten am Schluss dieses Kapitels). Informationstechnisch wird Entity Identity Solution am besten als Service angeboten. Dann lassen sich Entity Identity Resolution Services sowohl in Batch-Läufen zur Massenverarbeitung einsetzen, beispielsweise bei der Bereinigung großer Datenbestände, als auch in Geschäftsprozesse einbetten, wo sie in Echtzeit angewendet werden können. Beispiel: Transaktionen im Handel. Manche Händler betreiben unterschiedliche Webshops. Wenn ein Neukunde in einem Shop eine Bestellung aufgibt, dann sollte man wissen, ob er vielleicht bereits ein guter Kunde in einem anderen Shop ist, um im Sinne von CRM die Kundenbindung weiter zu steigern. Vielleicht ist es aber auch ein „fauler“ Kunde, der bereits auf der schwarzen Liste des Unternehmens oder bei Kreditbewertungsorganisationen steht, und sich nun unter einer falschen Identität in einem anderen Shop bedienen will. Mit Customer Identity Resolution in Echtzeit kann noch vor dem Abschluss der Transaktion die wahre Identität festgestellt und entsprechend gehandelt werden.

35

Wir gehen davon aus, dass der Zugriff auf Kundendaten im Rahmen der Datenschutzgesetze geschieht.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 136

Wolfgang Martin Team Das Beispiel zeigt auch sehr deutlich, dass Entity Identity Resolution nicht nur wie früher im Direktmarketing der Kostensenkung durch Dublettenbereinigung dient, sondern auch, angewendet im CRM, Kundenbindung und Kundenprofitabilität steigern kann oder im Sinne von Risiko-Management betrügerische Transaktionen vermeiden kann. Entity-Identity-Resolution-Management-Services haben weiterhin den Vorteil, dass sie nicht nur als On-Premise-Services, sondern auch als SaaS im Rahmen von Cloud Computing genutzt werden können. Mit anderen Worten: Entity Identity Resolution Services lassen sich schnell installieren, testen und in einem Pilotprojekt auf Kosten und Nutzen prüfen.

Methoden des Entity Resolution Management. Traditionelle Verfahren in der Entity Identity Resolution setzten Zeichenketten-Vergleiche und MatchCodes ein. Heute werden mehr und mehr mathematische Verfahren insbesondere aus der FuzzyLogik eingesetzt, die durch landesspezifische Wissensbasen (Abb. 44) ergänzt werden. Diese Wissensbasen sind offen und können daher im Lauf der Zeit mittels Lernverfahren verbessert werden. So können zunächst allgemeine Wissensbasen problemspezifisch angepasst werden. Eine umfassende Zusammenstellung der gängigen und auch fortgeschrittenen Verfahren findet man bei den entsprechenden Anbietern, beispielsweise bei Uniserv36. Beim Entity Identity Resolution Management können natürlich auch Fehler auftreten. Man spricht von einem Fehler der ersten Art (oder auch „falsch positiv“), wenn zwei Datensätze, die zu verschiedenen Entitäten gehören, einer Entität zugeordnet werden. Vom Fehler zweiter Art (oder auch „falsch negativ“) spricht man, wenn zwei Datensätze, die die gleiche Entität bezeichnen, nicht zugeordnet werden. Das folgende Schaubild erläutert die Situation:

100 hohe Ähnlichkeit = Datensätze sind identisch

Ähnlichkeitsmaß

Datensätze sind zu prüfen

oberer Schwellenwert unterer

niedrige Ähnlichkeit = Datensätze sind nicht identisch

0

Datensätze

Im Schaubild oben bedeutet der „obere Schwellenwert“ die Mindestübereinstimmung, damit verschiedene Datensätze einer Identität zugeordnet werden. Entsprechend bedeutet der „untere Schwellenwert“, dass alle Datensätze mit einem kleineren Ähnlichkeitsmaß verschiedenen Identitäten zugeordnet werden. Datensätze mit Ähnlichkeitsmaßen, die zwischen dem oberen und unteren Schwellenwert liegen, sind manuell zu prüfen. Setzt man den oberen Schwellenwert zu niedrig an, dann erhöht man die Anzahl der falsch positiven Entscheidungen. Setzt man den unteren Schwellenwert zu hoch an, dann erhöht man die Anzahl der falsch negativen Entscheidungen. Im Laufe der Zeit gewinnt man Erfahrung und kann den oberen und unteren Schwellenwert empirisch optimieren.

36

siehe http://www.uniserv.com/unternehmen/blog/detail/article/verfahren-und-algorithmen-imadressmanagement/

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 137

Wolfgang Martin Team

© 2015 S.A.R.L. Martin

44

Abbildung 44. Die Qualität von traditionellen Verfahren wie Zeichenkettenvergleichen und MatchCodes ist in der Regel nicht ausreichend, kann aber sehr gut durch mathematische Verfahren der Fuzzy-Logik verbessert werden. Um schließlich auf einen Qualitätslevel von nahezu 100% zu kommen, sollten landesspezifische Wissensbasen eingesetzt werden.

6.8

Information Governance – Schlüssel zu erfolgreichem Information Management

Kritischer Erfolgsfaktor für Information Management ist schließlich die Governance. Information Management braucht eine geeignete Organisation mit klaren Rollen und Verantwortlichkeiten, es braucht die richtigen und rigorosen Prozesse und Policies (die „Regeln“), und nicht zuletzt braucht es die richtige Technologie und Plattform, auf der die Information Governance abgebildet werden kann. Die richtige Information Governance dient dazu, Information Management zu industrialisieren im Sinne von „schlanken“ Prozessen. Beim Aufbau einer Information Governance sind für die beschriebenen Aspekte von Information Management jetzt die Prozesse und Policies zu modellieren und zu implementieren. Dazu kommt auch ein kontinuierlicher Verbesserungsprozess. Wie die Geschäftsprozesse werden auch die Governance-Prozesse des Information Management mittels eines Performance Management operativ gesteuert. Auf der strategischen und taktischen Ebene dienen die gemachten Erfahrungen zu einer stetigen Verbesserung der Prozesse. Das ist der Schlüssel zu einem industrialisierten Information Management. Weiterhin ist im Zuge des Aufbaus von Information Management die Organisation im Sinne von organisatorischer Einheit, Rollen und Verantwortlichkeiten zu bestimmen. Hier hat sich als Best-Practice ein Kompetenzzentrum für Information Management bewährt. Die Organisationsstruktur besteht analog dem eines BI-Kompetenzzentrums (vgl. Kap. 3.4) aus

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 138

Wolfgang Martin Team einem Leitungsgremium, dem ein Information-Management-Sponsor vorsitzt, dem eigentlichen Information-Management-Kompetenzzentrum und den Data Stewards. Der Sponsor sollte aus der Geschäftsführung oder dem Vorstand kommen, damit die Information-Management-Strategie und die Policies der Information Governance auch durchgesetzt werden können. Die Data Stewards sitzen in den Fachbereichen und sind dort über die Information Governance eingebunden. Das Information-ManagementKompetenzzentrum zentralisiert das Management der Information-Management-Strategie und der Information-Management-Methoden, -Standards, -Regeln und -Technologien. Sein Leitsatz ist: Das Information-Management-Kompetenzzentrum plant, leitet und koordiniert InformationManagement-Projekte und sorgt für den effizienten Einsatz von Personal und Technologie.

Information Governance Information Governance

Data Governance

BI Governance



Information Governance: Lebenszyklus-Management von strukturierter und unstrukturierter Information.



Data Governance ist Information Governance eingeschränkt auf strukturierte Information.



BI Governance ist Teil von Information Governance und beschäftigt sich mit der Informationsbereitstellung. © 2015 S.A.R.L. Martin

45

Abbildung 45: Positionierung und Überschneidungen von Information Governance, Data Governance und BI-Governance dargestellt als Venn-Diagramm.

Da Information Management sowohl Grundlage für Performance Management und Analytik als auch für Prozess-Management ist, empfiehlt es sich sowohl ein BI-Kompetenzzentrum für die „eigentlichen“ Aufgaben in Performance Management und Analytik zu haben also auch ein Kompetenzzentrum für Information Management. Hier trifft sich Information Governance mit BI-Governance. Daneben gibt es auch noch den Begriff der Data Governance. Was ist jetzt was und wie kann man diese Begriffe und Aufgabenbereiche voneinander trennen? Wo sind mögliche Überschneidungen? Der am weitest gehende Begriff ist der der Information Governance, deren Domäne das Information Management ist. Information Management bedeutet das Managen des Lebenszyklus von strukturierter und poly-strukturierter Information. Data Governance ist eine Untermenge von Information

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 139

Wolfgang Martin Team Governance, die sich nur mit der Governance strukturierter Information beschäftigt. BIGovernance ist ebenfalls eine Untermenge von Information Governance. Sie bezieht sich sowohl auf strukturierte wie auch auf poly-strukturierte Information, aber die BI-Governance beschäftigt sich nicht mehr mit dem gesamten Lebenszyklus-Management, sondern nur noch mit der Informationsbereitstellung und den dazu notwendigen Werkzeugen. Die Abbildung 45 zeigt die Positionierung der drei Governance-Bereiche im Rahmen von Information Management. In diesem Sinne sollte eine Information Governance die Governance-Prozesse und Policies der folgenden Aufgaben (vgl. Kap. 6.1) abdecken:  Daten-Definition per Business-Vokabular  Meta- und Stammdaten-Management  Datenmodellierung  Datenqualitäts-Management  Datenintegration  Daten-Klassifikation  Daten-Sicherheit und Schutz  Content Management (Web, Rich Media) Schließlich ist die Technologie auszuwählen, die die Prozesse entsprechend unterstützt. Hier ist heute eine service-orientierte Plattform state-of-the-art, da so auch die InformationManagement-Prozesse selbst den Zielen Industrialisierung, Agilität und Compliance gerecht werden. Das Ergebnis sind schlanke Prozesse fürs Information Management. Die Marktbefragung des Wolfgang Martin Teams (Martin, 2012) zeigt, dass Information Governance sich bei Unternehmen im deutschsprachigen Markt eine recht hohe Bedeutung verschafft hat. Als Treiber werden in erster Linie Daten- und Prozessqualität gesehen. Aber erst knapp die Hälfte der Unternehmen setzen Information Governance ein oder planen den Einsatz. Dazu kommt, dass 47% der Unternehmen sich in der Planungs- oder Anfangsphase sehen, erst 21% in der Endphase der Umsetzung. In kleinen Unternehmen (unter 1.000 Mitarbeiter) liegt bei der Sponsorship die Geschäftsführung klar vorne, bei den großen (über 1.000 Mitarbeiter) ist eher die IT (der CIO) in der Verantwortung. Die Zusammenarbeit zwischen IT und Fachabteilung in Sachen Information Governance ist fast ideal: 80% sehen sie als gemeinsame IT- und Fachabteilungsaufgabe. Auch der Einsatz von Werkzeugen ist noch nicht wirklich zufriedenstellend: Nur 60% der Befragten sagen, sie setzen Werkzeuge zur Information Governance ein. In der Praxis macht man auch immer wieder die Erfahrung, dass Governance-Organisation und Prozesse als einschränkendes Regelwerk empfunden werden, die Flexibilität und die heute immer wieder geforderte Agilität behinderten. Hier haben sich inzwischen kollaborative Methoden und Werkzeuge bewährt und Abhilfe geschaffen. Diese Ansätze sind aus den Social Media abgeleitet. Durch den Social-Media-Arbeitsstil lassen sich die Mitarbeiter mitnehmen und selbst für eine BI Governance begeistern, da Social Media den MitmachEffekt fördern und zur Transparenz wesentlich beitragen. So wird aus einem Top-Down empfundenen, lästigen Regelwerk eine Bottom-Up gelebte Kollaboration, in der jeder mit jedem auf gleicher Augenhöhe kommunizieren und diskutieren kann. Heutige InformationManagement-Plattformen sind zu einem guten Teil bereits mit solchen kollaborativen Werkzeugen ausgerüstet. Das sollte bei Plattform-Auswahlverfahren unbedingt

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 140

Wolfgang Martin Team berücksichtigt werden und mit einem hohen Gewicht in die Bewertung eingehen. Denn mit einer funktionierenden Information Governance haben Sie die besten Chancen auf nachhaltigen Erfolg. Fazit: Information Management braucht eine Information Governance, um vertrauenswürdige Daten zu schaffen. Information Governance bringt Menschen, Strategien, Prozesse und Organisation zusammen. Mit der richtigen Governance lässt sich ein schlankes Information Management aufbauen: Man erreicht die Industrialisierung des Information Management, mit anderen Worten: den besten Wirkungsgrad im Sinne des Kosten- und Ressourceneinsatzes.

6.9

Die Zusammenarbeit von Data Stewards und Data Scientists

Wir haben bereits gesehen, dass Data Stewards dafür sorgen, dass die Information Governance von allen im Unternehmen bei allen Tätigkeiten beachtet und umgesetzt wird. So soll sichergestellt werden, dass Information korrekt, konsistent und durchgängig im ganzen Unternehmen angelegt, gemanagt und genutzt wird. Diese Aufgabe sollten sie nicht als polizeiliche Kontrollinstanz erfüllen, sondern im Gegenteil als Dienstleister in den Fachabteilungen. Dazu gehören unterschiedliche Tätigkeiten. Data Stewards sollten eine führende Rolle bei der Entwicklung von Datendefinitionen einnehmen. Sie sollten Data Profiling unterstützen, um Fehler in Daten aufzudecken und die Auswirkungen solcher Fehler abschätzen. Sie sollten die Nutzung von Daten propagieren und für Datensicherheit sorgen. Sie sollten auch über die Einhaltung aller Regeln und über die Qualität der Daten mittels Monitoring wachen. Sie sind auch beteiligt, wenn es um die Priorisierung von DatenqualitätsMaßnahmen geht. Die Aufgaben von Data Stewards sollten natürlich auch im Rahmen der Unternehmensstrategie und der Unternehmensziele priorisiert werden. So sollte beispielsweise ein Softwareunternehmen den Schwerpunkt der Arbeit von Data Stewards auf die Kundendaten legen, die in den Vertriebs- und Marketing-Prozessen genutzt werden, auf denen das Unternehmen aktuell einen Fokus gelegt hat. Einen Fokus auf Kundendaten ganz allgemein legen, wäre hier eine zu unscharfe Vorgabe, die in der Regel nicht zum Erfolg führen wird. Data Stewards können mit ihrer Arbeit im Unternehmen starten, auch wenn noch keine ausgefeilte Information Governance besteht. Ein kleines gemischtes Team aus Mitarbeitern aus den Fachabteilungen und der IT kann mit der Formalisierung von Datendefinitionen und Informationsmanagement-Prozessen und Nutzungsregeln beginnen. Die Mitarbeiter/innen sollten gute Kommunikatoren und Vermittler sein sowie geschickt verhandeln können. Sie müssen nicht unbedingt Vollzeit in das Team delegiert werden, aber man sollte darauf achten, dass genügend Zeit für die Tätigkeit als Data Steward eingeplant wird. Das Einstellen neuer Mitarbeiter für diese Aufgaben hat sich in der Regel nicht bewährt, da Data Stewards das Unternehmen inklusive der informellen Informationskanäle gut kennen müssen, um erfolgreich arbeiten zu können.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 141

Wolfgang Martin Team Das Team vernetzt sich dann im Unternehmen. Es hat auf diese Weise auch die Aufgabe, eine funktionierende Partnerschaft zwischen den Fachabteilungen und der IT zu etablieren. Organisatorisch fasst man am besten das Team mit seinen Ansprechpartnern in der IT im Kompetenzzentrum für Stammdaten-Management oder Information Management zusammen, wobei die Data Stewards ihren Sitz in den Fachabteilungen beibehalten. Ein solches Kompetenzzentrum hat einen Sponsor auf der Führungsebene des Unternehmens und wird von einer Doppelspitze geleitet, einem Data Steward aus der Fachabteilung der als Primus inter Pares agiert, und einem Mitarbeiter aus der IT. Es hat ein Budget, verantwortet das Programm und entwickelt seine Methodologie, die Information Governance. Data Steward-Programme stoßen mitunter im Unternehmen auf kulturelle Probleme. Beispielsweise wollen manchmal von einer Fachabteilung Probleme mit schlechter Datenqualität nicht gesehen werden, weil in dieser Fachabteilung die Daten zwar entstehen, aber hauptsächlich an anderer Stelle genutzt werden. Daher hat eine solche Fachabteilung möglicherweise wenig Interesse, in Datenqualität zu investieren. Hier können Data Stewards für Transparenz sorgen und aufzeigen, welche Probleme dem Gesamtunternehmen entstehen und wie man diese Fachabteilung in Sachen Datenqualität unterstützen kann. Kommt man allerdings auch dann nicht weiter, so wird man im Unternehmen an dieser Stelle ein formales Change Management einsetzen müssen. Big Data Management. Data Stewards haben die Verantwortung für die Unternehmensdaten und/oder – im jeweiligen Umfang – für Daten aus den Fachabteilungen. Jetzt kommt Big Data. Wie beeinflusst das Management von Big Data die bisherigen Aufgaben und Zielsetzungen von Data Stewards? Schauen wir zuerst auf die Anforderungen von Big-Data-Analytik. Sie erfordert gegenüber der traditionellen Analytik neue Skills und Rollen, die sich organisatorisch gesehen am besten in einem erweiterten BIKompetenzzentrum ansiedeln lassen. In einigen Unternehmen wie Amazon, eBay, Facebook, Google, Twitter u.a., die sich schon einige Zeit mit Big Data beschäftigen, haben sich solche neuen Rollen gebildet, die zusammen ein Big-Data-Team ausmachen. Die hatten wir bereits in Kapitel 3.6 kennengelernt. Wie arbeiten jetzt das Business-Intelligence-Kompetenzzentrum, in dem die Data Scientists sitzen, und das Informationsmanagement-Kompetenzzentrum, in dem die Data Stewards sitzen, zusammen? Die Schnittstelle bilden die Data Hygienists (siehe Kap. 3.6), die die Aufgaben von Data Stewards in Big-Data-Initiativen übernehmen. Hier sehen wir bereits den Unterschied in der Arbeitsweise von Data Stewards. Im Unternehmen sind Data Stewards das ausführende Organ der Information Governance, die unternehmensweit in gleichem Maße für alle Unternehmensdaten Gültigkeit hat. In Big-Data-Initiativen wird die Richtigkeit und Vollständigkeit der Daten pro Projekt jedes Mal neu festgelegt. Es gibt keine durchgängige Information Governance, sondern eine Data Governance, die pro Projekt vor allem von den Data Scientists bestimmt wird. Das kann auch bedeuten, dass manche Big-Data-Projekte komplett ohne Governance ablaufen. Data Scientists argumentieren hier, dass eine Bereinigung der Daten aus den verschiedenen Big-Data-Quellen die analytischen Ergebnisse beeinflussen könnte, weil dann die Daten durch Annahmen der Data Stewards zur Datenqualität verfälscht werden könnten. Auch könnten gerade in Ausreißern wichtige Information stecken, die man im Rahmen von

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 142

Wolfgang Martin Team Data Discovery unbedingt bräuchte. Die Big-Data-Analytiker gehen daher entsprechend dem Kontext und der Zielsetzung einer Big-Data-Analyse mitunter ohne Hypothese – also ohne Ausreißer-Bereinigung – in die Analysen. Das bricht natürlich die bekannten Regeln von Datenqualitäts-Management. Hier spielen vor allem zwei Dinge eine Rolle: 

In der Big-Data-Analytik werden Entscheidungen auf Basis von Milliarden analysierten Datensätzen getroffen. Die Annahme ist N = alle, i.e. „alle“ Daten werden analysiert, kein Datenpunkt wird ausgelassen. Trends entstehen nicht aufgrund einfacher "X=Y" Vergleiche, sondern durch Milliarden von "X=Y" Vergleichen. Entscheidungen werden dann über Aggregate getroffen, um Trends aufzuzeigen und um die Wahrscheinlichkeit eines Ereignisses anzuzeigen. Big-Data-Cluster dienen nicht dazu, präzise Zahlen wie im Finanzwesen zu erzeugen, sondern Potenziale basierend auf den ausgewerteten Daten aufzuzeigen. Es geht nicht um deterministische Fakten, sondern mehr um Fuzzy-Logik.



Die Geschwindigkeit der Datenproduktion zwingt auch zum Umdenken in Sachen Datenqualität. Was bringt Datenqualität, wenn beispielsweise stündlich mehrere Terabytes an Daten anfallen? Wenn da aufgrund von Hardware- oder SoftwareProblemen “schlechte” Daten dabei sind, wird man natürlich kurzzeitig an Präzision verlieren, aber wenn dann in der folgenden Stunde neue Daten einströmen, dann wird die kurzeitige Ungenauigkeit mindestens ausgeglichen oder gar überschrieben.

Datengeschwindigkeit und Volumen reduzieren den Einfluss von fehlerhaften Daten in ein paar Datensätzen. Das ist ein wesentliches Merkmal von Big-Data-Analytik: Es geht nicht so sehr um spezifische Datenpunkte sondern es geht um Metatrends. Dahinter steht auch der gute Gedanke, dass in Big-Data-Projekten die Daten dem Zweck des Projektes zu dienen haben, während im Unternehmen die Daten der langfristig angelegten UnternehmensStrategie zu dienen haben. Fazit: Die Aufgabe von Data Stewards ist das Informationsmanagement der Unternehmensdaten und/oder Daten aus Fachabteilungen unter den Rahmenbedingungen der Information Governance - mit der Zielsetzung, den Fachabteilungen qualitativ hochstehende Daten, die leicht zugänglich sind, in der notwendigen Konsistenz zur Verfügung zu stellen. Sie sind auch dafür verantwortlich, die Information Governance kontinuierlich an der Unternehmensstrategie auszurichten. Data Scientists haben die Aufgabe, Big Data in „Big Value“ zu wandeln. Sie sind verantwortlich für die Methodologie von Big-Data-Analytik sowie die Kommunikation von analytischen Resultaten gegenüber dem Vorstand und dem gesamten Unternehmen. Data Stewards haben auch in Big-Data-Initiativen ihre Rolle, nämlich die der Data Hygienists, die sich aber jeweils an den Projektzielen und nicht an der Unternehmensstrategie ausrichtet. Sie spielen in der Big-Data-Analytik die Rolle eines SWAT-Teams37, also eines taktisch agierenden Spezialteams, und nicht die strategische Rolle wie im Unternehmen. Insofern sind sie wieder ein Dienstleister, der aber bei Big-DataInitiativen von den Data Scientists gerufen wird, aber nicht selbständig agiert. 37

SWAT (= special weapons and tactics) ist ein Ausdruck in der amerikanischen Marketing-Terminologie.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 143

Wolfgang Martin Team

7 Auf die Latenz kommt es an Performance Management und Analytik müssen heute alle Aspekte der Überwachung und Steuerung nahtlos bedienen – operative, taktische und strategische. Analyse, Überwachung und Steuerung müssen ja mit der Prozessgeschwindigkeit synchronisiert werden (vgl. Abb. 9 und 10). Wenn die Prozessgeschwindigkeit hoch ist und wenn es auf Sekunden und Bruchteilen von Sekunden ankommt, wie bei Kundeninteraktionen, Fertigungs- und Logistikprozessen, dann spielen Echtzeit-Technologien wie Business Activity Monitoring und Complex Event Processing eine große Rolle. Die Aufgabe ist, aus dem operativen Verlauf eines Prozesses heraus Probleme und Risiken zu erkennen und basierend auf dieser Kenntnis heraus Gegenmaßnahmen zur Prozesssteuerung einzuleiten. Das ist das operative Performance Management von Prozessen, ein Basiskonzept des Internets der Dinge, wie wir es vom Prinzip her bereits im Kap. 3.1 kennengelernt haben. Das wird in Kap. 7.1 vertieft. Wenn es bei der Analyse auf Geschwindigkeit ankommt, spielen neue Datenbanktechnologien wie analytische und NoSQL-Datenbanken eine immer größere Rolle. Wenn nämlich das Datenvolumen schneller steigt als die Leistung von traditionellen relationalen Datenbanken, schafft man es einfach nicht mehr, Daten im Detail zu analysieren, da es schlichtweg gesagt zu lange dauert. Gartner sagte bereits in seinem Bericht zum Magic Quadrat for Data Warehouse Database Management Systems 2010: „Gartner-Klienten stehen bei der Abfrage von Data Warehouses immer häufiger vor erheblichen Performanceproblemen. Auf Grundlage dieser Information dürften rund 70 % aller Data Warehouses mit derartigen Problemen zu kämpfen haben." Daher haben sich neue Methoden und Technologien der Datenhaltung entwickelt, um Big Data in den Griff zu bekommen. Neben den traditionellen relationalen Datenbanken gibt es heute die analytischen Datenbanken, NoSQL-Datenhaltungssysteme und -Datenbanken. Sie sind darauf ausgelegt, riesige Datenbestände bei gleichzeitig hoher Anzahl von Abfragen durch viele bis sehr viele Nutzer in Sekundenschnelle zu analysieren: Analytik und die analytischen Prozesse werden beschleunigt. Hierzu gibt es schon Ansätze seit rund 20 Jahren, aber erst seit 2010 nimmt der Einsatz solcher analytischen Datenbanken zu. Nach dem in 2011 eingesetzten Boom ist ein weiterer Anstieg der Nachfrage nach diesen Alternativen zu relationalen Datenbanken in 2015/17 zu erwarten, nicht nur ganz allgemein in Analytik, sondern auch ganz besonders im analytischen CRM, wenn es um den Kunden und das Kundenwissen geht. Analytische und NoSQL-Datenbanken diskutieren wir in Kap. 7.2 und 7.3, die Marktentwicklung in Kap. 10.6. Es sollte noch betont werden, dass all diese Datenhaltungssysteme auch „as a Service“ als Cloud Computing angeboten werden können. Das gilt für alle Formen des Cloud Computings: private, öffentliche oder hybride Wolke.

7.1

Business Activity Monitoring und Complex Event Processing

Das Konzept der Prozessorientierung verlangt, dass Prozesse, wenn immer möglich und sinnvoll, zu automatisieren sind. Da werden Metriken für ein Performance Management

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 144

Wolfgang Martin Team automatisierter Prozesse umso wichtiger, weil in operativ laufenden Prozessen Abweichungen vom Normalverhalten auch automatisch erkannt werden sollten und, wenn gewünscht, auch per „Autopilot“ gesteuert werden sollten. Das bewirken Metriken, die Regelmaschinen (Entscheidungsmaschinen) treiben: So können Maßnahmen automatisch ausgelöst werden.

Wert

Echtzeit und Aktionszeit Ereignis EchtzeitDatenintegration BAM/ CEP/ analytische/ NoSQL-DBMS RegelMaschinen

DatenLatenz AnalyseLatenz

agile Methoden u.a. Maßnahme implementiert

EntscheidungsImplementierungsLatenz Latenz Window of Opportunity

Aktionszeit

46

Implementierungszeit

Zeit

© 2015 S.A.R.L. Martin

Nach: Richard Hackathorn und Colin White

Abbildung 46: Wenn ein Ereignis eintritt, kann Zeit zu einem kritischen Faktor werden. Denn zu einem Ereignis gehört ein „Window of Opportunity“. Das ist die Zeit, die maximal zur Verfügung steht, in der man Maßnahmen treffen und implementieren muss, um vom Ereignis zu profitieren oder einen durch das Ereignis möglichen Schaden zu vermeiden. Das Aktionszeitmodell beschreibt die Phase vom Eintreten eines Ereignisses bis zum Treffen der notwendigen Maßnahme. Es zerlegt Aktionszeit in Daten-Latenz, Analyse-Latenz und Entscheidungs-Latenz, und es zeigt, durch welche Ansätze im Rahmen von Analytik die Aktionszeit minimiert werden kann. An die Aktionszeit schließt sich die Implementierungszeit an, die notwendig ist, um die getroffene Maßnahme auch umzusetzen. Hier ist jetzt ein agiles Business Process Management notwendig, um Prozessänderungen schnell und flexibel durchzuführen oder auch agile Softwareentwicklungsmethoden, um eventuell notwendige neue Business Services zu modellieren und zu implementieren.

Aber nicht jeder Prozess ist voll automatisierbar: In Ausnahmesituationen, beim EskalationsManagement, bei Genehmigungsverfahren, bei Eingabe von Triggern (im Falle von Selbstbedienung) und vor allem im Rahmen von kollaborativen Diensten sind menschliche Interaktionen stets nötig. Ein Prozess besteht daher in der Regel aus einer Kombination von automatisierten Teilstrecken und manuellen Eingriffen. Wenn jetzt das Entdecken von Alarmsituationen und das Erkennen von Ausnahmesituationen zeitkritisch werden, werden menschliche Reaktionen mitunter zu langsam. Jetzt kommt es auf die Latenz an, die Aktionszeit wird kritisch (Abb. 46). Das Aktionszeitmodell zeigt drei kritische Phasen: DatenLatenz, Analyse-Latenz, Entscheidungs-Latenz. Datenlatenz bezeichnet die Zeit, die notwendig ist, um die zur Identifikation eines Ereignisses notwendigen Daten zu erfassen und zur Analyse bereitzustellen. Das wird durch Echtzeit-Datenintegration adressiert. Das hatten wir schon in Kapitel 6.1 diskutiert. BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 145

Wolfgang Martin Team Analyselatenz bezeichnet die Zeit, die notwendig ist, um die Daten zu analysieren und entscheidungsrelevante Information zu liefern. Das wird entweder durch Business Activity Monitoring(BAM)- und Complex Event Processing (CEP)-Lösungen oder durch den Einsatz von analytischen oder NoSQL-Datenbanken adressiert: Analytik muss jetzt in Echtzeit verfügbar sein. Dabei hängt die Analyselatenz von der Komplexität des Ereignisses ab. Deshalb ist es vorteilhaft, unterschiedliche Typen von Ereignissen herauszuarbeiten, um die unterschiedlichen Typen von BAM- und CEP-Lösungen und deren Anforderungen an Analyselatenz zu verstehen. Wir folgen hier den Ansätzen von Luckham (2002). 

Einfache Ereignisse. Das sind Ereignisse, bei denen alle Daten zur Entdeckung des Ereignisses mit dem Eintreten des Ereignisses vorhanden sind. Beispiele wie Produktverfügbarkeit oder Produktlieferbarkeit hatten wir schon kennengelernt. Im Prinzip geht es in diesen Beispielen um das Vergleichen einer Metrik mit einem kritischen Schwellenwert, um Aktionen zum Gegensteuern auszulösen. Die Daten- und AnalyseLatenz hängt natürlich vom Datenvolumen ab. Spielen sich beispielsweise Ereignisse im Big Data ab, so werden zur Reduktion der Latenzzeit analytische oder NoSQLDatenbanken eingesetzt. Das wird in Kapitel 7.2 und 7.3 diskutiert. Analyselatenz kann aber auch kritisch werden, wenn man prädiktive Modelle einsetzt. Es ist in der Regel ausgeschlossen, eine Ableitung des prädiktiven Modells im Augenblick der vorzunehmenden Analyse durchzuführen: Data-Mining-Verfahren arbeiten in der Regel nicht in Echtzeit. Das war der Grund, warum die Ableitung eines prädiktiven Modells per Data Mining von seiner Nutzung in operativen Prozessen getrennt wurde (vergl. Kap. 5.6). Ein einmal abgeleitetes Modell wurde offline eingesetzt, und man half sich hier, indem man das prädiktive Modell regelmäßig (z. B. wöchentlich, monatlich) neu ableitete. Hier bringen neue Ansätze eine Alternative. Mittels adaptiver Algorithmen werden prädiktive Modelle selbstlernend und passen sich im operativen Betrieb dynamisch an den Prozesskontext an. Ein solches prädiktives Modell ist damit „online“ und bildet aufgrund der aktuellen Daten die aktuelle Gegenwart ab. So erreicht man zumindest eine Niedriglatenzlösung für die Analyselatenz: In Bruchteilen von Sekunden können solche Modelle adaptiert werden, so dass sich Einsatzmöglichkeiten für intelligente Kundeninteraktionen beispielsweise im Call Center oder im Web-Shop ergeben.



Ereignisströme. Das sind kontinuierliche, zeitlich geordnete Sequenzen von Ereignissen. Die zeitliche Ordnung ergibt sich beispielsweise aus der Ankunftszeit der Ereignisse im BAM- oder CEP-Werkzeug oder durch Zeitstempel. Solche Ereignisströme sind typisch, wenn es um das Überwachen und Steuern komplexer Netzwerke geht. Solche Fälle gibt es beispielsweise bei der Überwachung von allen Arten von Verkehr in Telefonnetzen, in Rechnernetzen, im Straßenverkehr, in der Luftfahrt etc. Für BAM- und CEP-Werkzeuge stellen sich hier im Prinzip drei unterschiedliche komplexe Aufgabenstellungen: o Einfache Mustererkennung. BAM-Werkzeuge nutzen hier die Methoden der Zeitreihenanalyse. Die Aufgabe ist die Vorhersage des Eintreffens eines Folgeereignisses. Beispiele sind hier das vertriebliche Forecasting, Vorhersage von Aktienkursen oder Lastspitzen.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 146

Wolfgang Martin Team o Komplexe Mustererkennung. Ereignisströme können sich untereinander bedingen. Sie können an unterschiedlichen Orten zu unterschiedlichen Zeiten ablaufen und sich gegenseitig beeinflussen. Hier werden CEP-Werkzeuge eingesetzt. In diesem Kontext basieren sie auf der multivariaten Zeitreihenanalyse. Beispiele wären hier konkurrierende oder kollaborierende Prozesse wie vertriebliche Produkt-Promotionen mehrerer Wettbewerber im gleichen Markt. Die Aufgabe von CEP-Werkzeugen könnte hier sein, die Wirksamkeit der eigenen Marketingmaßnahmen zu verfolgen und den Einfluss der Wettbewerbsaktionen zu messen, um darauf Marketing-Abwehrund Angriffsstrategien zu entwickeln. o Musterabstraktion. Aufeinanderfolgende Ereignisse können auch als detaillierte Ereignisse eines übergeordneten Ereignisses verstanden werden. CEP-Werkzeuge haben hier die Aufgabe, aus den einzelnen und vielfach isolierten Ereignisbausteinen per semantischem Schließens das in der Regel höherwertige Ereignis zu entdecken. Ein Beispiel ist hier die Analyse von Kaufsignalen eines Kunden. Besonders bei größeren Investitionen (Autokauf, Hausbau) sendet der Kunde bestimmte Signale. Die Aufgabe eines CEP-Werkzeuges ist hier das möglichst rasche Schließen auf Kaufbereitschaft eines Kunden aus wenigen Kaufsignalen, um eben vor einem Mitbewerber mit dem Kunden in Verkaufsgespräche zu gehen. BAM- und CEP-Werkzeuge für Ereignisströme basieren auf speziellen schnellen Algorithmen (beispielsweise Matching-Algorithmen und anderen semantischen Verfahren). Dieser Entwicklungsbereich ist außer dem relativ gut bekannten Gebiet der Zeitreihenanalyse noch Neuland, viele Lösungen noch in einem experimentellen Zustand. Entscheidungslatenz bezeichnet die Zeit, die notwendig ist, um auf Basis entscheidungsrelevanter Information Maßnahmen zu treffen. Wenn Zeit dabei eine kritische Rolle spielt, dann können Entscheidungen tatsächlich nicht mehr von Menschen getroffen werden; das ist dann die Aufgabe von Regelmaschinen (Entscheidungsmaschinen). Solche Regeln können Bottom-up durch prädiktive Modelle generiert werden. Ein solches Regelwerk kann beliebig komplex werden. Bei intelligenten Kundeninteraktionen beispielsweise im eCommerce oder mCommerce berechnet man prädiktive Modelle aus Echtzeit-Verhaltens-Daten auf der Webseite und historischen Verhaltensdaten wie Kaufverhalten, Kaufhistorie, Kataloginformation, Vertriebsstrategie und anderen externen Bedingungen wie Tageszeit, Wochentag und Jahreszeit, um so Empfehlungen mit mehr Relevanz zu geben. In vielen Fällen wendet man ein Scoring an und reduziert so das Regelwerk auf einen Parameter. Solche Entscheidungsregeln und Scores werden also identifiziert aus Daten und entdeckten Datenstrukturen und Mustern. Regeln können auch festgelegt werden durch einen Top-down-Ansatz von Experten. Das ist eine Wiedergeburt der alten Experten-Systeme aus den 80er und frühen 90er Jahren. Am besten können Regelmaschinen durch eine Kombination von prädiktiven Modellen mit Expertenregeln modelliert werden. Das hatten wir auch schon in Kapitel 4.3 diskutiert. Eine detaillierte Darstellung zu Entscheidungsmaschinen findet man auch in Martin (2003-B). Implementierungslatenz bezeichnet die Zeit, die notwendig ist, um auf Basis getroffener Maßnahmen diese auch zu implementieren. Hier ist jetzt ein agiles Business Process Management notwendig, um Prozessänderungen schnell und flexibel durchzuführen oder auch agile Softwareentwicklungsmethoden, um eventuell notwendige neue Business

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 147

Wolfgang Martin Team Services zu modellieren und zu implementieren. Abhandlung nicht weiter verfolgen.

7.2

Das wollen wir aber hier in dieser

Analytische Datenbanken

Analytische Datenbanken basieren auf speziellen Datenhaltungs-Methoden und Technologien, um große bis sehr große Mengen an strukturierten Daten mit höchster Leistung analysieren zu können. Es gibt sie bereits seit den frühen 90er Jahren, aber ihr Erfolg im Markt war bisher eher bescheiden. Das ändert sich jetzt im Big Data. Was machen analytische Datenbanken anders als herkömmliche Datenbanken? Da gibt es verschiedene Methoden, die sich auch miteinander kombinieren lassen. Beginnen wir mit spaltenorientierten Datenbanken. Herkömmliche relationale Datenbanken sind zeilenorientiert. Das schafft bei großen Datenmengen einige Probleme, die wir jetzt zuerst beleuchten, um danach die Vorteile von spaltenorientierten Datenbanken herauszuarbeiten. Ein Datensatz, der beispielsweise einen Kunden beschreibt, hat - nehmen wir einmal an 1.000 Attribute, aber wir haben so viele Sätze, wie wir Kunden haben, also durchaus Millionen Sätze und vielleicht sogar noch mehr. Wenn wir nun in einer herkömmlichen Datenbank nach gewissen Kunden mit bestimmten Merkmalen (definiert über die Attribute) suchen, dann muss man eben alle Datensätze lesen. Beim Lesen stößt man gleich an ein ganz allgemeines Problem von herkömmlichen Datenbanken. Die sind nämlich gar nicht zum Lesen vieler Datensätze gebaut, sondern vom Design her eher transaktions-orientiert. Sprich, eine Datenbank gibt mir über einen Index in Bruchteilen von Sekunden eine bestimmte Datenmenge zum Ändern, Löschen oder Neuanlegen38. Will man also Ad-hoc-Abfragen auf herkömmlichen relationalen Datenbanken durchführen, dann braucht man Indizes und Aggregate, um schnelle Antworten zu erzielen. Das bedeutet aber, dass die Abfragen schon vorher bekannt sein müssen und durch Datenbankspezialisten aus der IT vorbereitet werden müssen (Sie bauen die Indizes und Aggregate). Mit anderen Worten, das ist teuer, weil gut bezahlte Spezialisten notwendig sind. Das ist zudem langsam: Denn wenn man mit einer neuen Idee kommt, zu der es noch keine Indizes und Aggregate gibt, dann müssen die erst gebaut werden. Wenn man eine Abfrage ohne eine solche Vorbereitung startet, kann der ganze IT-Betrieb empfindlich gestört werden. Indizes und Aggregate haben noch eine weitere unangenehme Eigenschaft: Sie brauchen Platz und machen die Datenbank um einen meist zweistelligen Faktor grösser als notwendig. Damit wird sie dann immer langsamer. Das führt dazu, dass irgendwann der Augenblick kommt, ab dem man gar keine Abfragen an die Datenbank mehr stellt, weil die Antworten viel zu spät eintreffen. Der Nutzer ist frustriert, das Wissen liegt brach in der Datenbank. Information wird zu einem reinen Kostenfaktor. Wissen über Kunden, Markt, Mitbewerber und Risiken lässt sich nicht mehr anwenden. An dieser Stelle stehen heute viele Unternehmen.

38

Das ist das sogenannte CRUD-Prinzip: „create, read, update, delete“.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 148

Wolfgang Martin Team Analytische Datenbanken schaffen hier Abhilfe durch ihre Spaltenorientierung. Bei einer spaltenorientierten Datenbank kann jede Spalte in einer eigenen Datei liegen, d.h. auf einen Wert eines Attributs eines Datensatzes folgt in Lese-Reihenfolge nicht das nächste Attribut des selben Datensatzes, sondern das gleiche Attribut des nächsten Datensatzes: Die Zeilen und Spalten der Tabelle werden miteinander vertauscht. Intuitiv funktioniert dies, da in der Analytik meistens wenige Attribute von sehr vielen Datensätzen benötigt werden. Aufgrund der Spaltenorientierung müssen die restlichen Attribute nicht gelesen werden. Mit anderen Worten: das Lesen wird drastisch reduziert, weil man durch das Vertauschen von Zeilen und Spalten nur noch höchstens so viele Datensätze wie Attribute hat. Da die Anzahl der Attribute in der Regel klein ist gegen die Anzahl der Datensätze, bringt das einen hohen Performance-Gewinn. Jedoch wird das Schreiben von Datensätzen dadurch jedoch sehr teuer, was man aber oft durch Differenzdateien zum Teil ausgleichen kann. Aufgrund dieser Basiseigenschaft von spaltenorientierten Datenbanken erhält man einen weiteren Vorteil. Man braucht keine Indizes und Aggregate mehr. Das macht die Datenbank schlanker, was wiederum das Lesen beschleunigt. Zusätzlich lassen sich die Daten dann komprimieren. Dazu werden einfache Verfahren genutzt, die es erlauben, relationale Operationen auf den komprimierten Daten auszuführen. So können beispielsweise mehrfach vorkommende Werte durch Kürzel fixer oder variabler Länge ersetzt werden, die durch ein Wörterbuch bei Bedarf wieder in die ursprünglichen Werte übersetzt werden können. Folgen identische Werte direkt aufeinander, können diese Sequenzen lauflängencodiert abgelegt werden. Sortierte ganzzahlige Daten können durch Differenzbildung zum jeweiligen Vorgänger oder zu einem lokalen Minimum in wenigen Bits untergebracht werden. Ein solches Komprimieren bringt also Kostenvorteile, da die Datenbank „klein“ wird (Relativ zu einer zeilenorientierten Datenbank können die Daten bis zu 80% komprimiert werden.) Man erhält so weitere Performance-Vorteile. Eine weitere Beschleunigung lässt sich durch Parallelisieren der Verarbeitung auf Clustern und durch In-Memory-Verarbeitung erreichen. Das gilt sowohl für zeilen- wie auch spaltenorientierte Datenbanken. Daten werden dabei automatisch und gleichmäßig über alle Server eines Clusters verteilt, so dass für Abfragen alle Hardware-Ressourcen optimal ausgenutzt werden. Die Software ist so konzipiert, dass jeglicher Tuningaufwand entfällt, wie er in konventionellen Systemen üblich ist. Die Datenbanklösung legt Indizes automatisch an, analysiert und komprimiert die Daten selbständig und verteilt sie optimal über die Knoten. Intelligente Algorithmen fangen Server-Ausfälle auf und sorgen dafür, dass das System für Nutzer innerhalb weniger Sekunden ohne dessen Zutun wieder zur Verfügung steht. Aber all diese Methoden und Verfahren schaffen an anderer Stelle Probleme: Die Transaktionsverarbeitung gemäß dem ACID-Prinzip39 ist zum Teil nicht mehr möglich. Daher sprechen wir in solchen Fällen auch besser von Datenhaltungssystemen als von Datenbanken, da Datenbanken per Definition Transaktionssicherheit bieten müssen. Analytische Datenbanken werden in unterschiedlichen Ausprägungsformen angeboten. Es gibt parallelisierte herkömmliche Datenbanken, die in der Regel als Appliance angeboten werden, also eine spezielle Hardware und den parallelen Zugriffsmethoden und Algorithmen.

39

ACID (atomicity, consistency, isolation, durability) ist eine Menge von Eigenschaften, die garantieren, dass Datenbank-Transaktionen zuverlässig abgewickelt werden.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 149

Wolfgang Martin Team Dabei sind solche Datenbanken dann immer noch zeilenorientiert. Dann gibt es analytische Datenbanken, die spaltenorientiert sind, aber weitgehend Hardware-unabhängig eingesetzt werden können. Und schließlich gibt es spaltenorientierte Datenbanken, die als Appliance teilweise mit spezieller Hardware angeboten werden und insbesondere In-Memory einsetzen. Daneben gibt es auch noch besondere Verfahren wie beispielsweise „Database Images“, objekt-orientierte Datenbanken oder spezielle Data Appliances, die die Kommunikation zwischen Server und Speicher optimieren. Die Klassifikation von Anbieterlösungen finden Sie in Kap. 10.3. Analytische Datenbanken lösen die Probleme, mit denen die Kunden heute kämpfen: Performance, Skalierbarkeit und Kosten. Fassen wir nochmal die Vorteile zusammen: 

Information ist flexibler abrufbar und steht bis zu 100mal schneller zur Verfügung.



Die Nutzerzufriedenheit erhöht sich signifikant aufgrund des schnelleren und flexibleren Zugriffs auf Information. Es können jetzt Daten analysiert werden, die vorher ohne Nutzen, aber mit Kosten gespeichert wurden. Das unterstützt und schafft bessere Entscheidungen.



Die IT wird entlastet, da die analytischen Datenbanken hoch automatisiert sind und ein spezielles Wissen über Datenbankdesign und Tuning deutlich weniger gefragt ist.

Drei Dinge sollten zum Schluss noch klar gesagt werden: 

Eine analytische Datenbank macht ein physikalisches Datenbankdesign und Tuning weitgehend obsolet, aber sie ersetzt keineswegs das logische, fachliche Design der analytischen Datenbank. In diesem Sinne bleibt weiterhin ein Information Management unabdinglich, auch wenn analytische Datenbanken eingesetzt werden. Denn ein Stammund Metadaten-Management, ein Datenqualitäts-Management, eine Information Governance und die anderen Aufgaben im Information Management bleiben auch mit analytischen Datenbanken kritische Erfolgsfaktoren.



Eine analytische Datenbank ergänzt den Einsatz herkömmlicher relationaler Datenbanken in der Transaktionsverarbeitung. Analytische Datenbanken sind eine neue Generation von Datenbanken speziell für analytische Aufgaben im Unternehmen.



Inzwischen hat sich eine weitere Klasse von Datenbanken herausgebildet, die transaktionale und analytische Daten gemeinsam verwalten. Dazu gehören beispielsweise Oracle Exadata, Kognitio WX2 und SAP HANA, die sich sowohl für hoch-performante analytische als auch transaktionsorientierte Aufgaben eignen. Solche Datenbanktechnologien diskutieren wir unter anderem im folgenden Kap. 7.3 zu NoSQLTechnologien.

7.3

NoSQL-Datenhaltungs- und -Datenbanksysteme

NoSQL-Datenhaltungssysteme fokussieren auf der Haltung und Verarbeitung polystrukturierter Daten und ergänzen so das traditionelle relationale Datenmodell. Das zeigt

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 150

Wolfgang Martin Team genau wie die Nutzung verschiedener analytischer Datenbankenmethoden auch, dass das relationale Modell keinen Alleinstellungsanspruch als „einziges“ Datenhaltungsmodell mehr hat. Genauso wie verschiedene Methoden analytischer Datenbanken nicht neu sind, sind auch verschiedene NoSQL-Ansätze schon seit zum Teil langer Zeit im Einsatz, gewinnen aber erst jetzt im Big Data neue Aufmerksamkeit und Anwendung. NoSQLDatenhaltungssysteme lassen sich wie folgt klassifizieren (Abb. 47):

NoSQL-Datenhaltungssysteme ArangoDB CortexDB

Daten-Volumen

Aerospike Oracle NoSQL

relational Key Value

Cassandra Hadoop HBase SAP Sybase IQ

relational Spaltenorientiert

MultiModel MongoDB Couchbase 2.0

relational Dokumentenorientiert

Neo4j Versant

Graph

Objektorientiert relational

Daten-Komplexität

Eine relationale Algebra löst nicht alle Datenprobleme. © 2015 S.A.R.L. Martin

47

Abbildung 47: Klassifikation von NoSQL-Datenbanktechnologien und Positionierung anhand von Daten-Volumen und Daten-Komplexität. Die genannten Produkte stellen nur (typische) Beispiele dar. Multi-modale Datenbanktechnologien bilden verschiedene NoSQL-Verfahren in einer Datenbank ab. Sie sind also „Mehrfach“- bis hin zu „Alles“-Könner. Eine detaillierte Aufstellung von spaltenorientierten Datenhaltungssystemen, die ja zu den analytischen Datenbanken gehören, befindet sich in Kap. 10.3. Eine umfangreiche Listung von NoSQL-Datenbanktechnologien findet man beispielsweise auf http://nosql-database.org/.

Objektorientierte Datenbanken. In den 90er Jahren boten sie bereits Alternativen zum relationalen Modell. Sie hatten einen grundlegenden Ansatz, der in allen heutigen NoSQLDatenhaltungssystemen zu finden ist. Sie sind schemafrei und setzen auf alternative Techniken, um festzulegen, wie Daten gespeichert werden. Dazu kommt der Einsatz anderer Protokolle als SQL für die Kommunikation zwischen Anwendung und Datenhaltungssysteme. Ähnlich wie bei den analytischen Datenbanken ist die Architektur vieler NoSQL-Datenbanken auf Skalierbarkeit ausgelegt: Die Verarbeitung und Verwaltung großer Datenbestände erfolgt verteilt mittels Cluster aus Standardsystemen. Graphen-Datenbanken (oder: Entity-Relationship-Datenbanken). Sie basieren auf der Darstellung von Daten als Knotenpunkte (Entitäten) und Beziehungen (Relationen) zwischen den Knoten. Statt traditioneller Datensätze erstellt man hier Knoten, die durch die Beziehungen, die man zwischen ihnen definiert, miteinander verknüpft werden. Dabei wird Information zu den Knoten und ihren Beziehungen als Eigenschaften (Attribute) gespeichert.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 151

Wolfgang Martin Team Graphen-Datenbanken haben insbesondere Vorteile, wenn wie bei (sozialen) Netzen die Beziehungen zueinander im Mittelpunkt stehen, man also Netze abbilden will. GraphenDatenbanken gehen auf Entwicklungen im Computer Aided Software Enginering (CASE) der späten 80er Jahre zurück. Dokumentenorientierte Datenbanken speichern "Texte" von beliebiger Länge mit polystrukturierter Information und ermöglichen das Suchen auf Basis von Dokumentinhalten. Die gespeicherten Dokumente müssen nicht die gleichen Felder enthalten. XML-Datenbanken sind dokumentorientierte Datenbanken mit semi-strukturierten Daten. Spaltenorientierte Datenbanken. Sie gehören gemäß der hier benutzten Klassifikation in die Klasse der analytischen Datenbanken, was zeigt, dass analytische und NoSQLDatenhaltungssysteme sich nicht disjunkt zueinander verhalten: Es gibt eben analytische Datenbanksysteme, die immer noch auch dem relationalen Modell basieren, als auch solche, die spalten-orientiert, also NoSQL sind. Key-Value-Datenbanken. Hier weist ein Schlüssel auf einen Wert, der in seiner einfachsten Form eine beliebige Zeichenkette sein kann. Key-Value-Datenbanken sind auch nicht neu. Sie sind als traditionelle Embedded-Datenbanken wie dbm, gdbm und Berkley DB in der Unix-Welt bekannt geworden. Key-Value-Datenbanken arbeiten entweder als In-MemorySystem oder als On-Disk-Version. Sie sind besonders zum schnellen Suchen geeignet. Multi-Model-Datenbanken. In letzter Zeit entstanden eine Reihe neuer Datenbanken, die nicht nur in eine der oben genannten Kategorien fallen, sondern Kombinationen zweier oder mehrerer dieser Technologien darstellen. Diese Multi-Modell-Datenbanken bedienen damit nicht mehr nur Nischenanwendungen, sondern sind einem wesentlich breiteren Anwendungsbereich zugänglich. Durch die Kombination verschiedener Datenbanktypen vereinen sie gleichzeitig die Vorteile der verschiedenen NoSQL-Datenbank-Typen. MultiModell-Datenbanken sind quasi Alleskönner und haben eine Antwort auf genau die Anforderungen, die der Markt an moderne Datenbanken stellt: Darstellung von Beziehungswissen, Speicherung von analytischen und Transaktionsdaten in einer Datenbank, hohe Performance, verteilte Umgebung auf viele Engines und ein Ecosystem für sämtliche Aufgaben. Hinzu kommt, dass einige der Multi-Model-Datenbanken auch noch eine zeitliche Dimension haben. Es können so für alle Daten Gültigkeitsbereiche in der Datenbank mitgeführt werden, so dass die Datenbank auch als Basis für strukturelle Vergleiche im zeitlichen Verlauf dienen kann. NoSQL - wenn relationale Datenbanktechnologien nicht mehr ausreichen. Big Data führt in vielen Fällen dazu, dass der Einsatz von relationalen Datenbanktechnologien an seine Grenzen stößt, Dabei stellen nicht nur große Datenvolumen strukturierter Daten ab dem Peta-Bereich eine Grenze für den Einsatz relationaler Datenbank-Technologien dar, sondern auch das Managen von poly-strukturierten Daten, von Daten mit komplexen semantischen Strukturen und von Datenströmen in Echtzeit. Hier kommen jetzt NoSQLTechnologien zum Zuge, denn NoSQL-Datenbanken sind bestens geeignet zum Managen von solcher Daten und Datentypen. Weitere Vorteile von NoSQL-Technologien sind vor allem:

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 152

Wolfgang Martin Team 

Elastische Skalierung. Im Gegensatz zu relationalen Datenbanktechnologien sind NoSQL- Datenbanktechnologien für eine elastische Skalierung von Anfang an entworfen und gebaut.



Verarbeitung großer Datenvolumina. Die Datenvolumina, die NoSQL-Systeme verarbeiten können, liegen um Zehnerpotenzen über denen, die größte relationale Datenbanken heute schaffen können.



Besseres und einfacheres Managen. NoSQL-Datenbanken sind hierfür ebenfalls entwickelt worden. Typische Management-Funktionen umfassen: automatisches Reparieren und Datenverteilung sowie einfachere Datenmodelle, die auch ein effizienteres Tuning erlauben.



Sparsamkeit. NoSQL-Datenbanken laufen auf preiswerter Standard-Hardware. Die Kosten per Terabyte bei NoSQL liegen deutlich unter den Kosten bei relationalen Datenbanken.



Flexible Datenmodelle. Wenn sich das Datenmodell ändert, dann erzeugt das bei NoSQL- Datenbanken deutlich weniger Aufwand als bei relationalen Datenbanken. Beispielsweise erlauben NoSQL Key Value Stores, Document Stores und multi-modal Databanken einer Applikation, jede Struktur zu definieren, die man in einem Datenelement definieren möchte. Auch die etwas rigoroser definierten spaltenorientierten NoSQL- Databanken wie Cassandra oder HBase ermöglichen das Hinzufügen einer neuen Spalte ohne großen Aufwand.

Ein weiterer NoSQL-Ansatz ist Hadoop. Das soll im folgenden Kapitel eingehender diskutiert werden.

7.4

Hadoop – eine technische Antwort auf Big-Data-Herausforderungen

Hadoop wurde ursprünglich durch den Lucene-Erfinder Doug Cutting initiiert. Im Januar 2008 wurde es zum Top-Level-Projekt der Apache Software Foundation. Die Zielsetzung von Hadoop ist die kostengünstige und skalierbare Datenhaltung und Auswertung von polystrukturierten Daten, also sowohl von strukturierten (beispielsweise Tabellendaten) also auch nicht-strukturierten Daten wie Text, Bild, Audio, Video etc. Hadoop ist hier dabei, einen Standard in Big-Data-Datenhaltung und Daten-Management zu setzen. Es arbeitet wie ein Daten-Betriebssystem und bestand ursprünglich aus drei Komponenten: 

der Speicherschicht HDFS (Hadoop Distributed File System),



der von Google vorgeschlagenen Programmierumgebung MapReduce zur parallelen Verarbeitung von Abfragen,



einer Funktionsbibliothek.

Zu Hadoop gehört auch die HBase, ein skalierbares, analytisches Datenhaltungssystem zur Verwaltung sehr großer Datenmengen innerhalb eines Hadoop-Clusters. Die HBase ist eine Open Source-Implementierung der Google BigTable. Ein weiteres Datenhaltungshaltungssystem ist Accumulo, eine Key-Value-Store-Datenbank.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 153

Wolfgang Martin Team Zentraler Bestandteil von Hadoop ist die Speicherschicht HDFS. Sie speichert in der Standardeinstellung Daten in 64MB Blöcken, was paralleles Verarbeiten unterstützt und exzellent zum Lesen großer Datenmengen geeignet ist. Der Nachteil ist, dass eine solche Verarbeitung naturgemäß Batch-orientiert ist und sich deshalb nicht für Transaktionsverarbeitung oder Echtzeitanalysen eignet. HDFS hat schließlich eingebaute Redundanz. Es ist designt, um über hunderte oder tausende von preiswerten Servern zu laufen, von denen man annehmen kann, dass immer wieder einige ausfallen. Daher wird in der Hadoop-Standardeinstellung jeder Datenblock dreimal gespeichert. Neue Daten werden zudem immer angehängt, niemals eingefügt („no insert“). Das erhöht die Geschwindigkeit des Speicherns und Lesens von Daten und erhöht auch die Zuverlässigkeit der Systeme. MapReduce (MR) wurde von Google in seiner spaltenorientierten BigTable implementiert, die auf dem Google File-System basiert. Es ist eine Programmier-Umgebung zur Parallelisierung von Abfragen, die die Verarbeitung großer Datenmengen deutlich beschleunigt. MR ist keine Programmier- oder Abfragesprache. Die Programmierung innerhalb von MR kann in verschiedenen Sprachen wie Java, C++, Perl, Python, Ruby oder R erfolgen. MR Programm-Bibliotheken können nicht nur HDFS, sondern auch andere Dateiund Datenbanksysteme unterstützen. In einigen analytischen Datenbank-Systemen werden MR Programme als in-database analytische Funktionen unterstützt, die in SQL-Befehlen benutzt werden können. MapReduce ist allerdings nur im Batch einsetzbar, nicht in EchtzeitVerarbeitung, also auch nicht interaktiv. Hier haben YARN und andere Ansätze Abhilfe geschaffen und MapReduce abgelöst. Hadoop YARN (Yet Another Resource Negotiator) ist eine Cluster-ManagementTechnologie. Es ist ein wesentlicher Baustein in der Hadoop 2 Version. YARN spielt die Rolle eines großangelegten, verteilten Betriebssystems für Big-Data-Anwendungen. Die YARN Engine gilt als Weiterentwicklung des MapReduce-Ansatzes. Mit YARN wird die MapReduce-Komponente als optionales Plug-in herausgelöst. Das ermöglicht alternative Ausführungsalgorithmen: Das bei MapReduce verwendete Batch-Modell kann so durch interaktivere Ansätze wie Apache Storm oder Services wie Apache HBase ersetzt werden. Hadoop-Werkzeuge. Dazu kommen noch einige Ergänzungen wie die HLQL (high level query languages) Hive, Pig und JAQL. Hive ist eine Data-Warehouse-Umgebung, die auf einer Entwicklung von Facebook beruht. Zu Hive gehört die HLQL „QL“, die auf SQL beruht. HLQLs wie QL sind sehr willkommen, da sie den Entwicklern die Verwendung einer SQLähnlichen Syntax erlauben. Werkzeuge, die SQL auf Hadoop erlauben, werden inzwischen mehr und mehr angeboten. Hortonworks verbessert Hive durch Stinger, während Cloudera mit Impala einen direkten Zugriff auf HDFS bietet. IBM und MapR nutzen hier ebenfalls eigene Abfrage-Maschinen ohne Zuhilfenahme von Hive. Eine andere HLQL ist Pig, eine prozedurale Sprache. Mit Hilfe von Pig sind parallele Ausführungen komplexer Analysen einfacher als mit MapReduce nachvollziehbar und durchführbar. Darüber hinaus bietet Pig auch im Gegensatz zu MapReduce eine automatisierte Optimierung komplexer Rechenoperationen. Pig ist auch offen und lässt sich durch eigene Funktionalitäten ergänzen. Zum Managen von Hadoop-Anwendungen dienen Chukwa, das die Echtzeitüberwachung sehr großer verteilter Systeme ermöglicht, sowie Ambari, Avro und ZooKeeper, die das Daten- und Systemmanagement unterstützen.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 154

Wolfgang Martin Team Spark ist eine weitere Open-Source-Plattform der Apache Software Foundation. Sie kann als eine Laufzeit-Umgebung verstanden werden, die auf Datenhaltungssystemen wie Hadoop, NoSQL-Datenbanken, Amazon Web Services (AWS) und relationalen Datenbanken sitzt. Sie agiert als ein Application Programming Interface (API), das Programmierern erlaubt, Daten durch gemeinsame Anwendungen zu verarbeiten. Spark kommt bereits mit einigen Anwendungen inklusive SQL-Abfragemaschine, einer Bibliothek von maschinen-lernenden Algorithmen, einer Graph- und einer Datenstrom-verarbeitenden Maschine.

Ist-Datenarchitekten: ein Resümee Nutzer & Berichte

Big Data Datamarts MDBMS NoSQL Hadoop

RDBMS

NoSQL

Data W arehouse Appliance

DW RDBMS

analytische DB

AltSystem RDBMS

MDM Nutzer

operativ

analytisch

syndizierte Daten

 48

Das ist keine Referenzarchitektur!

© 2015 S.A.R.L. Martin

Abbildung 48:Hadoop und NoSQL-Technologien erzwingen einer Weiterentwicklung von traditionellen Datenarchitekturen. Sie ergänzen einerseits die Architekturen für operative und analytische Daten, und sie stellen andererseits Fragen zur zukünftigen Rolle eines Data Warehouse. Zusätzlich ist jetzt eine Koexistenz zwischen relationalen und NoSQL-Technologien erforderlich.

Hadoop und NoSQL-Technologien sind eine große Herausforderung für das Information Management und für Datenarchitekten. Die Einführung dieser Technologien in die Unternehmens-IT-Landschaft führt zu einer recht komplexen Struktur, die in der Abbildung 48 schematisch dargestellt wird. Wichtig an dieser Abbildung ist, dass sie keine ReferenzArchitektur darstellt, sondern eine in vielen Unternehmen typische Ist-Architektur wiedergibt. Dies ist der Ausgangspunkt für Datenarchitekten, und in den folgenden Kapiteln wird gezeigt, wie man bei solchen Ausgangslagen Architekturen aufbauen kann. Trotz des innovativen Ansatzes und trotz aller beschriebenen Funktionalität und allen Vorteilen, die Hadoop heute bereits bietet, gibt es kritische Aspekte von Hadoop, die nicht zu vernachlässigen sind: 

Das Datenmanagement bei Hadoop hat noch Lücken, insbesondere in Datenintegration und in Datenmanagementfunktionen wie Hochverfügbarkeit, Disaster Recovery und Load Management.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 155

Wolfgang Martin Team 

Hadoop wurde im ersten Entwurf auf reine Batch-Verarbeitung ausgelegt. EchtzeitFunktionalität wird erst jetzt Zug um Zug nachgebessert. Die unterscheidet sich aber deutlich zwischen den Ansätzen der verschiedenen Hadoop-Distributoren, was eine Portierbarkeit von Hadoop-Lösungen erschwert.



Hadoop hat keine systemeigenen Mechanismen zum Schutz der Daten wie beispielsweise Verschlüsslung.



Bei Wartung und Betrieb von Hadoop fehlen noch einige Werkzeuge, so dass hier viel Eigenleistung erforderlich wird.

Die Implementierung und der Betrieb von Hadoop werden aber nachhaltig erleichtert, wenn man auf eines der vielen Cloud-Angebote für Hadoop zurückgreift. Hier werden vorgefertigte, leicht anpassbare Hadoop-Architekturen angeboten, die zusätzlich auch noch den Kostenvorteil einer Abrechnung nach Nutzung erlauben. So wird Hadoop auch für Mittelständler nutzbar. Achtung. Obwohl Hadoop auf Technologien und Konzepten beruht, die von Big-DataUnternehmen wie Facebook und Google stammen, so ist doch heute noch sehr deutlich zu sagen, dass diese Technologien noch sehr jung sind. Daraus folgt, dass der Einsatz solcher Technologien fachlich ausgewiesene und am Markt augenblicklich immer noch schwer zu findende Mitarbeiter benötigt. Dazu kommt, dass viel Funktionalität in Eigenentwicklung zu leisten ist.

7.5 Hadoop, NoSQL und das Data Warehouse Das Data Warehouse gilt immer noch als zentrale Datenquelle für Analytik und für taktisches und strategisches Performance Management. Hadoop fordert diese Position jetzt heraus. Immer mehr Anbieter von Analytik und Performance Management bieten einen direkten Zugriff auf Hadoop, und SQL auf Hadoop macht Fortschritte40. Wird dadurch das Data Warehouse mit seiner traditionellen relationalen Datenbanktechnologie abgelöst und durch Hadoop ersetzt? Eine endgültige Antwort auf diese Frage steht noch aus. Einen interessanten Standpunkt, den ich auch vertrete, hat Steve Miller bezogen41: “Big Data and the data warehouse serve different masters. DW has historically revolved on performance management, while Big Data obsesses on analytical products for data-driven business.” In der Tat sind die Anforderungen an Performance Management und Analytik an Daten und Datenmanagement sehr verschieden. Performance Management braucht Metadaten mit hoher Qualität und hohe Qualität bei den Daten. Es nutzt fast ausschließlich strukturierte Daten. Die Daten sind zudem meist statisch (mit Ausnahme von operativem Performance Management. Daher läuft operatives 40

siehe http://www.b-eye-network.com/blogs/vanderlans/archives/2014/02/the_battle_of_t.php

41

siehe http://www.information-management.com/blogs/big-data-vs-the-data-warehouse-10025458-1.html

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 156

Wolfgang Martin Team Performance Management hauptsächlich auf speziellen Data Marts.) Zudem basiert Performance Management auf einem wohl-definierten Datenmodell. Änderungen am Datenmodell laufen mit der Geschwindigkeit von Business-Modell- oder von Änderungen langsam laufender Prozesse. Das liegt immer noch im Bereich von Tagen und nicht im Stundenbereich oder schneller. Das Data-Warehouse-Datenmodell ist also (noch immer) recht stabil. Außerdem übersteigen die Datenvolumen für Performance Management typischerweise nicht den Bereich von einigen Terabytes. Zusammenfassend lässt sich sagen, dass relationale Datenbank-Technologie immer noch ausreichend ist, um die Anforderungen von taktischem und strategischem Performance Management abzudecken. Ein Data Warehouse bietet so eine bewährte, leistungsfähige Umgebung zum Verwalten von wichtigen, unternehmenskritischen analytischen Daten. Hier lassen sich Anforderungen von Compliance bestens sicherstellen.

Koexistenz DW, Hadoop und NoSQL Performance Management

(eingebettete) Analytik

Analytik

Data Mart

DW

lade Ergebnisse

NoSQL ELT

DW Extrakt

Datenintegration

ETL Unternehmensdaten

49

Data Mart mit analytischen und operativen Daten

Lader und Konnektoren

Big Data Datenquellen, poly-strukturiert

© 2015 S.A.R.L. Martin

Abbildung 49: Hadoop wird auf absehbare Zeit zwar ein Data Warehouse nicht ersetzen, aber die Data-Warehouse-Architektur erweitern. Das Data Warehouse bleibt die zentrale Plattform für taktisches und strategisches Performance Management und auch Datenlieferant für verschiedene Data Marts. Dabei werden Data Marts zunehmend auf dezidierten NoSQL-Datenbanktechnologien ablaufen. Das wird insbesondere dann der Fall sein, wenn hohe Performance und extreme Skalierbarkeit gefragt sind und/oder hoch komplexe Datenstrukturen vorliegen oder sowohl analytische als auch transaktionale Daten in einem Data Mart benötigt werden. Im letzteren Fall werden dann die Daten über Datenintegration mit den entsprechenden operativen Systemen integriert. So wird auch operatives Performance Management in Echtzeit möglich und Analytik kann in Geschäftsprozesse eingebettet werden. Analytik dagegen wird mehr und mehr direkt auf Hadoop stattfinden, wobei das Data Warehouse und Hadoop miteinander gekoppelt werden. Ergebnisse von Analysen müssen zum Teil ins Data Warehouse übertragen werden, und das Data Warehouse wird mit Extrakten aus Hadoop versorgt.

Es gibt natürlich auch Ausnahmen zu dieser allgemeinen Regel, beispielsweise wenn in einem Data Warehouse nicht die für eine gewisse Performance-Management-Anforderung notwendigen Detaildaten vorliegen. Eine Lösung ist hier, einen Data Mart mit den

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 157

Wolfgang Martin Team entsprechenden Detaildaten mittels Datenintegration aufzubauen, so dass die notwendigen operativen Daten mit den entsprechenden Data-Warehouse-Daten kombiniert werden. Datenqualität-Services können in den Prozess der Auffüllung des Data Marts eingebettet werden, so dass wir hier auch das notwendige hohe Qualitätsniveau erhalten. Wenn jetzt weiterhin die Anforderung besteht, diese operativen und analytischen Daten in Echtzeit zu nutzen, um Analytik in Geschäftsprozesse einzubetten, dann empfiehlt es sich, einen solchen Data Mart auf einer NoSQL-Datenbank-Technologie aufzusetzen. Typische Beispiele hierfür sind operative Planung, Disposition und operatives Risiko-Management (siehe Martin, 2014). Analytik hat andere Anforderungen an Daten. Sie nutzt poly-strukturierte Daten, und sie nutzt auch Datenströme. Analytik muss auch sehr große Datenmengen, beispielsweise im Petabytes-Bereich, verarbeiten können. Sie nutzt unterschiedliche Big-Data-Quellen und kombiniert sie mit Unternehmensdaten. Dazu kommt, dass der Zweck von Analytik ist, neue, nicht bekannte Einsichten in Kunden und Märkte zu gewinnen sowie Kundeninteraktionen ebenso wie Produktions-, Logistik- und andere Prozesse mit Hilfe prädiktiver Analytik anzureichern. Für eine solche Art von Analytik macht Clouderas Enterprise Data Hub (EDH)Konzept viel Sinn. Man speichert alle relevanten Daten aus dem Unternehmen und aus Big Data in Hadoop und nutzt zudem Data-Warehouse-Extrakte. Die Abbildung 49 veranschaulicht die diskutierten Szenarien.

Hadoop als Ergänzung zum Data Warehouse 

Aktives Archiv DW



als DWArchiv

Analytik

Landing Zone

Datenquellen

komplette Erfassung

Speicherung unbegrenzt



Data Discovery Analytik

Big Data

DW Unternehmensdaten © 2015 S.A.R.L. Martin

50

Abbildung 50: Hadoop ergänzt das Data Warehouse in drei Szenarien, beim Archivieren, bei der Datenerfassung und als Basis für Data Discovery.

Die führenden Hadoop-Distributoren Cloudera und Hortonworks sehen aktuell Hadoop auch nicht als Data-Warehouse-Ersatz, sondern als Ergänzung zum Data Warehouse. Es sind insbesondere drei Szenarien, in denen Hadoop mit seiner preiswerten Datenspeicherung ein Data Warehouse auch im Sinne von Kosteneinsparungen entlasten und sogar verbessern kann (Abb.50):

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 158

Wolfgang Martin Team 

Data-Warehouse-Archivierung. Hadoop bietet kostengünstige und praktisch unbegrenzte Datenspeicherung. Als Archiv für ein Data Warehouse genutzt kommt noch der Vorteil hinzu, dass die in Hadoop gehaltenen archivierten Daten jederzeit für analytische Ausgaben wie Ad-hoc-Abfragen oder Zeitreihenanalysen zur Verfügung stehen. Dagegen ist es bekanntlich recht mühselig, Daten aus einem traditionellen Speichermedium wieder zu beleben. Ohne IT-Unterstützung geht da in der Regel gar nichts. Insofern spricht man jetzt von einem „aktiven Archiv“.



Landing Zone. Daten können aus beliebigen Datenquellen komplett erfasst und in Hadoop kostengünstig gespeichert werden, bis man sie zur Analyse oder im Data Warehouse braucht. Wie bei der Archivierung können die Daten in Hadoop nahezu unbegrenzt gehalten werden und stehen jederzeit flexibel zur Verfügung. Das Auffüllen von Hadoop unterscheidet sich vom Auffüllen eines Data Warehouse. Beim Data Warehouse nutzt man ETL-Prozesse, bei Hadoop ELT-Prozesse. Dabei dienen die Schritte Extrahiere und Lade dem Speichern von Daten in Hadoop. Ein Schema-Design erfolgt dann in Hadoop, und der Transformationsschritt erfolgt erst bei der Verknüpfung unterschiedlicher Quellen als Vorbereitung zu einer Analyse.



Data Discovery. Unternehmensdaten und Daten aus dem Big Data können gemeinsam kostengünstig in Hadoop abgelegt werden und stehen hier für alle Aufgaben von Data Discovery zur Verfügung, beispielsweise für Pilotanalysen. Ergebnisdaten können dann ins Data Warehouse übertragen werden oder direkt weiter analysiert werden. Für eine solche Nutzung von Hadoop wird von einigen Anbietern auch der Begriff „Daten See“ (data lake) verwendet. James Dixon, CTO bei Pentaho, gilt als der Schöpfer dieses Begriffs. In seinem Blog, in dem er den Ausdruck wohl zum ersten Male erwähnt, schreibt er: “If you think of a datamart as a store of bottled water – cleansed and packaged and structured for easy consumption – the data lake is a large body of water in a more natural state. The contents of the data lake stream in from a source to fill the lake, and various users of the lake can come to examine, dive in, or take samples.42” Dieser Ansatz wird zur Zeit heftig kritisiert (beispielsweise von Gartner43), macht aber durchaus Sinn, wenn man beachtet, dass zum Begriff des Datensees eine Menge von Regeln und Policies gehört, die so aus dem etwas wässrig klingenden Begriff durchaus eine Datenarchitektur machen. Ich verweise hier auf einen InfoWorld-Blog von Andrew C. Oliver.44

Fazit. Hadoop wird auf absehbare Zeit ein Data Warehouse nicht ersetzen, aber die DataWarehouse-Architektur erweitern. Das Data Warehouse wird weiterhin Zentrum und SinglePoint-of-Truth für taktisches und strategisches Performance Management bleiben, zumindest für eine vorhersehbare Zukunft. Analytische Aufgaben aber wandern mehr und mehr zu Hadoop.

42

siehe http://jamesdixon.wordpress.com/2010/10/14/pentaho-hadoop-and-data-lakes/, Zugriff am 17.12.2014.

43

siehe http://www.gartner.com/newsroom/id/2809117, Zugriff am 17.12.2014.

44

.siehe http://www.infoworld.com/article/2608618/application-development/gartner-gets-the--data-lake--conceptall-wrong.html, Zugriff am 17.12.2014.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 159

Wolfgang Martin Team 7.6

Big Data: Datenstrukturen und Latenz

Analysen von Big Data lassen sich schließlich an Hand unterschiedlicher Datenstrukturen und Latenzanforderungen klassifizieren. Abbildung 51 visualisiert diese Klassifikation mittels der beiden Dimensionen Komplexität der Datenstrukturen und Verarbeitung in Batch (offline) oder Echtzeit (online). “Echtzeit” kann unterschiedliche Bedeutungen haben, wie wir ja bereits in Kap. 2.3 und 7.1 gesehen haben. Es bezieht sich entweder auf NiedriglatenzZugriff auf bereits gespeicherte Daten oder auf die Verarbeitung und das Abfragen von Datenströmen mit Nulllatenz. Schauen wir uns die vier Quadranten der Abbildung 51 etwas genauer an:  Batch und hoch-strukturiert. Lösungen basieren hier auf einer massiv-parallelen Architektur und einer hoch-skalierbaren, virtuellen Infrastruktur. Ein solcher Ansatz reduziert deutlich die Speicherkosten und verbessert in hohem Maße die VerarbeitungsEffizienz traditioneller Data Warehouses. Führende Anbieter sind hier Oracle mit Exadata, IBM Pure Data (ex Netezza) und Teradata.  Echtzeit und hoch-strukturiert. Lösungen fokussieren hier auf analytischer Echtzeitverarbeitung und Data-Mining-Ansätzen für prädiktive Analysen. Wenn es „nur“ um schnelle Analysen („Analyse in Echtzeit“) geht, dann sind analytische NoSQLDatenhaltungssysteme gut geeignet. Wenn es aber um „Echtzeitanalytik“ geht, dann sind In-Memory-Datenbanken die Lösung, da sie analytische und Transaktions-Daten gemeinsam im Hauptspeicher statt auf Platten verwalten. Sie gewinnen zudem an Geschwindigkeit durch eine drastische Reduzierung der Eingabe-/Ausgabe-Zeiten beim Datenzugriff und bieten eine besser abschätzbare Performance als platten-basierte Datenbanken. Führende Anbieter sind einerseits SAP mit Sybase IQ und Teradata mit Aster und andererseits Oracle mit TimesTen und SAP mit HANA.

massiv parallele Data Warehouses (IBM Pure Data, Teradata)

hoch-strukturiert

Big Data: Strukturen und Latenz

analytische NoSQL DB

In-Memory Datenbanken

(Aster, Sybase IQ)

(SAP HANA)

verteilte Dateisysteme (Hadoop)



51

Echtzeit

poly-strukturiert

Batch

NoSQL: Graph DB, Document Stores

DatenstromVerarbeitung

(MongoDB, Neo4J)

(HStreaming, Streambase)

Klassifikation von Big Data-Anbietern nach Datenstruktur- und Latenzanforderungen. © 2015 S.A.R.L. Martin

nach: Forrester

Abbildung 51: Big Data klassifiziert nach Datenstrukturen (hoch strukturiert und poly-strukturiert) und Latenzanforderungen (Batch und Echtzeit). Die genannten Anbieter stehen stellvertretend für ihre Klasse. Mehr zur Klassifizierung von analytischen Datenbanken befindet sich in Kapitel 10.3.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 160

Wolfgang Martin Team  Batch und poly-strukturiert. Lösungen basieren hier auf einer Software-Struktur, die typischerweise ein verteiltes Datei-System, eine Verarbeitungsmaschine für große Mengen von Rohdaten und Anwendungen zum Managen der Software-Struktur enthalten. Ein prominentes Beispiel hierzu ist Hadoop.  Echtzeit und poly-strukturiert. Geht es wieder um Analytik in Echtzeit, dann sind NoSQL-Technologien wie graphische und objekt-orientierte Datenhaltungssysteme gut geeignet. Die Basis für Lösungen in Echtzeitanalytik ist hier Event Stream Processing, um multiple Ereignisströme zu verarbeiten und bedeutungsvolle Einsichten zu geben. Die Technologien hierzu hatten wir in Kap. 7.1 bereits diskutiert: Erkennung komplexer Muster in mehreren Ereignissen, Ereignis-Korrelierung und –Abstraktion, also Complex Event Processing. Führende Anbieter sind hier einerseits MongoDB, Neo4J und Versant und andererseits HStreaming, Streambase und Splunk.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 161

Wolfgang Martin Team

8 Ethische Aspekte von Analytik 8.1

Big Data – Big Brother

Mit Big Data gewinnt Analytik eine wesentlich höhere Bedeutung als je zuvor. Wir gewinnen Details in nie gekannter Präzision, die uns Einblick in bisher unbekannte und unerwartete Strukturen geben. Google-Daten können genutzt werden, um Grippewellen vorherzusagen durch ein Data Mining über Suchanfragen zu Grippe-Symptomen. Echtzeit-Information von Smartphones von Pendlern können Städteplanern helfen, bessere Transportsysteme zu entwerfen. Die Anzahl von UPS-Paketen ist ein Indikator für wirtschaftlichen Aufschwung. All solche nützlichen Einsichten können mit Big-Data-Analytik gewonnen werden. Mit Big-DataAnalytik dient nicht nur der Wertschöpfung im Unternehmen, sondern kann auch volkswirtschaftlich von hohem Nutzen sein und das Leben aller verbessern. Wie bei allem Neuen gibt es natürlich auch Risiken und Nachteile durch Big-Data-Analytik. Hier wird heute an erster Stelle das Überwachungsprogramm PRISM der US-Behörde NSA (National Security Agency) genannt, bei dem Daten vor allem von Telefongesprächen und Webseiten gesammelt und analysiert werden. Das alles geschieht unter der Maßgabe von nationaler Sicherheit und Terrorismusbekämpfung, also ganz legal im Sinne der amerikanischen Gesetze. In Europa führte das nicht nur in den Kreisen von Datenschützern zu einem Aufschrei. Wollen wir als Verbraucher oder Bürger, dass Unternehmen und Staat wirklich alles über uns wissen? Wir sind doch mit Big Data längst bei Big Brother45 angekommen. Wo bleibt der Datenschutz, wo bleibt die Privatsphäre? Gerade die Tatsache, dass man bei Big-Data-Analytik unterschiedliche Quellen miteinander verbindet und im Kontext auswertet, verstößt gegen fundamentale europäische Datenschutzgrundsätze. Das sieht man in den USA ganz anders: Fred Cate, Direktor des Center for Applied Cybersecurity Research an der Indiana University, sieht die Anwendung von Big-DataAnalytik auf PRISM-Daten als zwingend notwendig an. FBI und CIA haben schon immer Soziale Netze genutzt, um die Beziehungsgeflechte um Terroristen herum aufzufächern. Mit Big-Data-Analytik geht das jetzt schneller und detaillierter. “There is an old joke about the FBI investigating a lot of pizza delivery places,” sagt Fred Cate. “People in hiding tend to have food delivered, and make a lot of calls for pizza.”46 Da im amerikanischen Sinne alles legal ist, zuckt man beim Sammeln von Daten nur mit den Schultern, geht aber inzwischen einer anderen Frage nach. Für den Autoren Victor MayerSchönberger47 ist das Sammeln von Daten gar nicht die “dunkle Seite” von Big Data. Die Der Begriff „Big Brother“ stammt aus dem Roman 1984 von George Orwell und bezeichnet den Diktator des totalitären Staates „Ozeanien“, der die Kontrolle und Unterdrückung seiner Bürger zur Perfektion getrieben hat. 45

“Big Data’s big deal - The power of pattern in collective human behavior”, Farah Stockman, The Boston Globe, http://www.bostonglobe.com/opinion/2013/06/18/after-snowden-defense-bigdata/7zH3HKrXm4o3L1HIM7cfSK/story.html, Zugriff am 19.06.2013. 46

47

Big Data: A Revolution That Will Transform How We Live, Work, and Think, http://www.amazon.de/Big-DataRevolution-Transform-Think/dp/1848547919, Zugriff am 19.06.2013

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 162

Wolfgang Martin Team richtige Gefahr sei nicht das Ausspionieren eines einzelnen Individuums, sondern die Transformation eines Individuums in ein Teilchen eines großen Musters, mittels dessen man Ereignisse vorhersagen kann. “What we need to fear from Big Data is not necessarily old-fashioned surveillance, but probabilistic predictions that punish us not for what we have done, but what we are predicted to do,” meint Victor Mayer-Schönberger. Es klingt auf den ersten Eindruck sehr überzeugend, Straftaten mittels Vorhersage zu vermeiden, wer sie wann und wo begehen wird, aber das steht in klarem Wiederspruch zu den Grundprinzipien unsere Justiz. Allerdings werden diese Grundprinzipien schon seit einiger Zeit ausgehöhlt: Kreditkartenunternehmen blockieren eine Kreditkarte, wenn eine Transaktion außerhalb des üblichen Rahmens stattfindet. Versicherungen und Banken bestimmen individuell Kundenrisiken auf Basis von Millionen anderer Leute gleichen Alters. Als in Deutschland die Profile der Freunde in sozialen Netzen zur Ableitung von individuellen Kreditrisiken verwendet werden sollten, gab es zwar einen Aufschrei, aber wer sagt denn, dass jetzt nicht ein anderes Institut diesen Auftrag bearbeitet. Im Zeitalter von Big Data geht es daher nicht mehr um den Schutz der Privatsphäre im traditionellen Sinne. Privatsphäre sei tot, so sahen es die Kapitäne im Silicon Valley schon vor langer Zeit. Die sollten es wissen, denn sie haben alles versucht, um Privatsphäre zu negieren. Scott McNealy sagte bereits vor 14 Jahren: "You have zero privacy anyway -- get used to it."48 Die “gute” Frage heute lautet vielmehr: Wie können wir sicherstellen, dass BigData-Analytik nur zum Wohle von Bürgern und Kunden genutzt wird und konform mit den Grundrechten angewendet wird? Auf diese Frage gibt es aber noch keine wirklichen Antworten. Auf amerikanischer Seite herrscht aber ein gewisses Einverständnis darüber, dass man nicht zu viel Energie für die Frage aufwenden sollte, wer alles Daten sammelt und ob er das darf. Denn diese Frage ist inzwischen nahezu bedeutungslos geworden, denn das Datensammeln geschieht überall und geschieht ohne unsere Kontrolle. Das ist zum Teil sogar notwendig, denn solche Daten brauchen Mobil-Telefonanbieter zum Betrieb ihrer Netzwerke. Ortsbezogene Services funktionieren nicht ohne Ortsangaben. Und schließlich geben wir alle freiwillig all unsere Daten Unternehmen wie Google, die uns für unsere Daten Information geben, die wir sonst nur schwerlich oder gar nicht bekommen hätten. Außerdem geben die meisten von uns auch ihre Bewegungsdaten an Apple oder Google. Mit anderen Worten: Wenn wir ein Sammeln von Daten verbieten wollen, dann müssen wir auch auf all die Vorteile verzichten, die uns aus gesammelten Daten entstehen können. Daher sollte der Fokus der Diskussion auf der Frage liegen, wie man gute und griffige Regeln aufstellen kann, für welche Fragestellungen Big-Data-Analytik eingesetzt werden kann und sollte. “If I use that data to save your life, you are not going to care how it was collected,” meint Sicherheitsexperte Fred Cate. “But if I use that data to track you down, then it is going to bother you.” In diese Richtung zielt auch ein Bericht des World Economic Forum

48

Siehe InfoWorld http://www.infoworld.com/d/consumerization-of-it/maybe-just-maybe-users-can-win-theprivacy-war-213222?source-twitter, Zugriff am 16.04.2013.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 163

Wolfgang Martin Team “Unlocking the Value of Personal Data: From Collection to Usage”49: Es sei wichtiger den Nutzen von Daten als das Sammeln von Daten zu regulieren. “There’s no bad data, only bad uses of data,” so formuliert es Craig Mundie von Microsoft, einer der Mitarbeiter an diesem Positionspapier. Hier sind wir alle gefordert. Es gilt es im Sinne einer Realpolitik einen Kompromiss zu finden zwischen einem zu harten Verhinderungskurs des Datenschutzes und der mangelnden und unzureichenden Verantwortung und Ethik der Datenbarone, der Unternehmen, die Datenzentrische Produkte und Dienste anbieten. Als Ergebnis sollte ein solcher Kompromiss uns akzeptierbare und vernünftige Regeln und Richtlinien geben, wer wie wann warum und wozu mit unseren Daten Nutzen erzielt. Davon sind wir aber noch weit entfernt.

8.2

Governance im Umgang mit Big-Data-Analytik

Im Kapitel 3.2 habe ich Governance und BI-Governance definiert und diskutiert und im Kapitel 6.8 Information Governance. Im Kontext der ethischen Aspekte von Analytik bekommt Governance vor allem im Umgang von Big-Data-Analytik weitere und wichtige Aufgaben und Ziele. Das Erste, das Unternehmen tun sollten, wenn sie in Big-Data-Analytik von kundenbezogenen Daten einsteigen wollen, ist Mitarbeiterausbildung in Sachen Kundenrechte, Datenschutz, Security und Umgang mit Daten. Das gehört im Zeitalter von Big Data in das Programm einer Information Governance: Information Governance wird immer wichtiger. Kundendaten müssen mit Sensitivität behandelt werden. Dazu gehören im Unternehmen strikte Regeln zum Umgang und Nutzen von Daten, die kommuniziert, trainiert und im Endeffekt gelebt werden müssen. Dazu kommt, dass mit Big Data mehr und mehr Mitarbeiter mit Kundendaten in Berührung kommen. Hier haben die Unternehmen einen Bedarf an Ausbildung und Schulung zu decken. Die wenigsten tun es heute schon: Es gibt hier einen hohen Nachholbedarf. Information Governance von Big Data erfordert weiterhin Kenntnis und Dokumentation, welche Daten gesammelt werden, welche Daten gekauft werden, wer ist für welche Daten verantwortlich, wo sind die Quellen und wo werden die Daten genutzt. Das sind eigentlich ganz normale Aufgaben im Rahmen einer Information Governance, aber auch hier besteht in der Umsetzung vielfach Nachholbedarf. All diese Aufgaben sollten in einer Hand innerhalb der C-Riege im Unternehmen liegen: Wir brauchen einen „Chief Data Officer (CDO)“50. Ein solcher CDO sollte die volle Verantwortung haben, der Wert von Daten und Information dem Unternehmen zu vermitteln. 49

Siehe auch den Artikel http://www.nytimes.com/2013/03/24/technology/big-data-and-a-renewed-debate-overprivacy.html?smid=tw-share&_r=2&&pagewanted=print in der New York Times, Zugriff am 21.06.2013. 50

Siehe Peter Aiken in http://searchdatamanagement.techtarget.com/news/2240185340/Does-your-C-suiteneed-a-chief-data-officer-Peter-Aiken-thinks-so, Zugriff am 21.06.2013.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 164

Wolfgang Martin Team Eine solche Position gehört ins Business, nicht in die IT, denn die Wertschöpfung von Daten und Information findet im Business statt. Zu den Aufgaben des CDOs gehört also auch das Schaffen einer analytischen Kultur im Unternehmen. Das bedeutet insbesondere, ein Verständnis und Bewusstsein für die Rolle und den Wert von Daten und Information in den Fachabteilungen zu schaffen. Eine weitere Aufgabe des CDOs besteht darin, dem Unternehmen zu vermitteln, dass ohne Daten die Geschäftsprozesse nicht ordnungsgemäß ablaufen können. Das Sammeln, Aufbereiten und Vorbereiten von Daten kommt also zuerst. Sonst laufen beispielsweise gute Ansätze zur Beschleunigung von Anwendungsentwicklung wie agile Methoden ins Leere, denn die funktionieren nur mit wohldefinierten Datenkomponenten in Bibliotheken. Definition: Ein Chief Data Officer (CDO) ist ein(e) Verantwortliche(r) für das unternehmensweite Daten- und Informationsmanagement, der/die Mitglied der C-Riege ist. Die Position des CDOs steht in Bezug zu den Aufgaben des Chief Information Officer (CIO), ist aber davon getrennt. Im Regelfall sollte der CDO an den Chief Marketing Officer (CMO) oder den Chief Executive Officer (CEO) berichten. Die Aufgabe eines CDOs ist, die Wertschöpfung von Daten und Information im Unternehmen zu optimieren. Er stellt sicher, dass im Unternehmen die richtigen Daten gesammelt, analysiert und zum Entscheiden genutzt werden können. Er stellt ebenfalls sicher, dass dazu eine Ethik im Unternehmen entwickelt wird und im Rahmen der Unternehmens-Compliance eingehalten wird. Die Position eines CDOs wird spätestens notwendig im Rahmen von Big-Data-Analytik. Shawn Banerji, Managing Director von Russell Reynolds Associates, einer Personalberatung für Führungskräfte, glaubt, dass in 2015 50% aller Fortune 500-Unternehmen einen CDO haben werden. In 2012 waren das gerade mal 5%. Die Aufgabe des Chief Data Officer ist also, Daten und Information als Anlagegut (“asset”) zu managen. Daher sollte der CDO die Information Governance im Unternehmen leiten. Somit hat er auch die Verantwortung für die Ethik im Umgang mit Big-Data-Analytik zu entwickeln und umzusetzen. Dies sollte er in enger Zusammenarbeit mit dem CMO und CIO tun. Schließlich hat der CDO auch eine Verantwortung in der Kundenkommunikation, denn die Unternehmen sollten klar, deutlich und korrekt ihren Kunden mitteilen, welche Daten gesammelt werden und was damit gemacht wird. Eine solche Transparenz schafft Vertrauen und im Endeffekt sogar Wettbewerbsvorteile. Dazu sollten Kunden die Möglichkeit haben, selber zu bestimmen, wie die Daten, die ein Unternehmen über sie gesammelt hat, genutzt werden sollen. Das scheint mir der beste Weg zu sein, um Big Brother auszuschalten, wie wir ja auch im vorigen Kapitel gezeigt haben. Aber da sind wir noch lange nicht.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 165

Wolfgang Martin Team

9 Resümee: Performance Management und Analytik versus traditionelle BI

9.1

Performance Management versus traditionelle BI

Performance Management hat sich aus den bereits aus den 70er Jahren stammenden Decision-Support-Ansätzen der traditionellen BI entwickelt. Inzwischen ist aus Performance Management ein deutlich erweitertes Modell im Vergleich zur traditionellen Business Intelligence geworden. 

Performance Management ist ein Top-Down-Modell, das bei der Geschäftsstrategie beginnt. Business Process Management verbindet Prozessanalyse und -design mit funktions- und abteilungsübergreifenden Prozessabläufen und Performance Management. Prozess-Leistungsmetriken werden gleichzeitig mit den Prozessen erstellt und über Rollen mit der Organisationsstruktur verbunden. Die Grundlage ist ein professionelles Information Management. 



Performance Management basiert auf einem Information-Supply-Chain-Modell, um die Informationsbereitstellung mit dem Informationsbedarf kontinuierlich zu synchronisieren. 



Business Intelligence konnte Entscheidungen zwar unterstützen, es fehlte aber die Rückkopplungskomponente, das Treffen von Maßnahmen. Operative Aspekte von Business Intelligence wurden nicht mit einem kohärenten Ansatz abgedeckt.

Performance-Management-Metriken schauen nach vorne. Mittels prädiktiver Analytik werden Probleme erkannt, bevor sie auftreten. Traditionelle retrospektive Metriken können zusätzlich auch noch nützlich bleiben. 



Business Intelligence war ausschließlich ein Informationsbereitstellungsmodell (Bill Inmons „Informationsfabrik“; Inmon, 1996).

Performance Management ist ein Closed-Loop-Modell, um Geschäftsprozesse auf operativer, taktischer und strategischer Ebene optimal zu steuern und zu überwachen. 



Business Intelligence war Bottom-Up und nicht prozessorientiert.

Business Intelligence war retrospektiv. Der Fokus lag auf Analyse und Diagnose. Die Potentiale prädiktiver Modelle wurden nicht genutzt.

Performance Management ermöglicht Transparenz durch BI-Governance. Jeder bekommt genau und rechtzeitig die Information, die man im Kontext seiner Prozesse braucht. 

Business Intelligence Werkzeuge haben den Informationsverbraucher nicht ausreichend mit Information versorgt. Daher hatte man entweder das Problem, dass Information nicht zugänglich war (oder gar versteckt und zurückgehalten wurde), oder man hatte das Problem einer Datenflut („information for the masses“). Das führte zu einem drastischen Sinken der Akzeptanz.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 166

Wolfgang Martin Team 

Performance Management basiert auf analytischen Services, die im Rahmen einer SOA (service oriented architecture) publiziert, konsumiert und orchestriert werden. Das ermöglicht auch einen nahtlosen Übergang von traditionellem Betrieb von Performance Management im eigenen Rechenzentrum zu Cloud-Lösungen inklusive mobilem Zugriff. 

9.2

Business Intelligence war ein werkzeugbezogener Ansatz, der auf proprietären Technologien basierte. Das führte zu Informationssilos und damit zu Redundanz und Inkonsistenz im Information Management.

Analytik versus traditionelle BI

Analytik dient dem Analysieren großer bis sehr großer Datenmengen („Big-Data-Analytik“), um die Prozesse der Entscheidungsfindung durch Fakten und erworbenes Wissen zu unterstützen. Analysiert werden sowohl historische wie auch aktuelle operative Daten. Traditionelle BI verfügte neben dem mehr statischen Berichtswesen („Reporting“) bereits auch über Komponenten von Analytik, insbesondere Ad-hoc-Abfragen und OLAP-Analysen. Im Laufe der Zeit kamen statistische Verfahren bis hin zum Data Mining dazu. Wir haben in den bisherigen Kapiteln aufgezeigt, wie sich diese Komponenten zu der heutigen Analytik weiterentwickelt haben und welche neuen Komponenten bis hin zur Big-Data-Analytik dazugekommen sind. Die Aufgabenstellung dieser ersten Ansätze von Analytik im Rahmen der traditionellen BI war es, Diagnosen zu erhalten, die Zusammenhänge aufzudecken und Einsichten in das Funktionieren von komplexen Systemen geben. Der Fokus lag dabei auf dem Verstehen der Vergangenheit; es war eine retrospektive Sicht. Die Zielsetzung von Analytik heute ist zusätzlich das Verstehen des Verhaltens von komplexen Systemen in der Zukunft. Der Fokus ist also eine vorwärts gewandte Sicht auf der Grundlage des Verstehens der Vergangenheit. Das ist die Idee von prädiktiver Analytik. Das Konzept lautet: Analysieren des Istzustands eines Systems, Verstehen der Zusammenhänge in diesem System und Ableiten der Trends und Tendenzen der zukünftigen Entwicklung des Systems. Ein Beispiel hierzu ist proaktive Wartung von Anlagen, Maschinen und Systemen, was wir schon an verschiedenen Beispielen gesehen haben. Inzwischen hat eine Weiterentwicklung von prädiktiver Analytik zu präskriptiver Analytik stattgefunden. Hierauf basieren beispielsweise Kaufempfehlungen im Handel, die auf Basis von Kundenverhalten, Eigenschaften und Situationen solche Empfehlungen aussprechen. Präskriptive Analytik breitet sich nun auch im Versicherungs- und Gesundheitswesen aus. Damit werden individuelle Behandlungsmethoden möglich. Ein Beispiel hierzu gibt IBM mit Watson. In dieser Lösung werden solche individuellen Behandlungsmethoden den behandelnden Ärzten vorgeschlagen. Der Mensch agiert (noch) als Filter zwischen Maschine und der empfohlenen Aktion. Wir können heute alle Methoden zu Data Discovery, Statistik, Vorhersagen und Optimierung als Analytik bezeichnen. In diesem Sinne dient die Analytik dem Performance Management, BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 167

Wolfgang Martin Team in dem sie hilft, die richtige Information zur richtigen Zeit und an den richtigen Ort zur Unternehmens- und Prozess-Steuerung bereitzustellen. Das heißt dann aber auch, dass eine analytische Plattform zuerst im Unternehmen etabliert werden sollte, auf der dann eine Performance-Management-Methodologie als Management-Konzept aufsetzt. Wir haben gesehen, dass die Zuverlässigkeit von Analytik auf der Qualität der Daten, der Effektivität der Werkzeuge und der Kompetenz der Menschen in den verschiedenen Rollen im Rahmen von Analytik beruht. Eine der wichtigsten Konsequenzen daraus ist: Um Analytik anwenden und verstehen zu können, braucht man analytische geschulte Manager und Mitarbeiter, im Endeffekt sogar eine analytische Kultur. Tom Davenport (Henschen, 2010) geht sogar so weit, dass er im Fehlen von ausreichend analytisch geschulten Mitarbeitern einen der Gründe für die anhaltende Finanz- und Schuldenkrise gesehen hat: Alle Finanz- und Handelssysteme sind automatisiert und analytisch auf dem höchsten Stand, aber es fehlten die Mitarbeiter, die in der Lage waren (und sind), all die Metriken und analytischen Ergebnisse und Vorhersagen zu verfolgen, zu interpretieren und dem Management richtig zu erklären. In der Big-DataAnalytik fehlt es ebenfalls an ausreichend geschulten Mitarbeitern: Data Scientists sind bis heute im Markt nur schwer zu finden. Hier ist noch eine große Aufgabe zu lösen, die uns noch einige Zeit beschäftigen wird.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 168

Wolfgang Martin Team

10 Der Performance-Management-/Analytik-Markt und seine Spieler

10.1 Trends in Performance Management und Analytik Der Markt für Performance Management und Analytik („BI-Markt“) in den letzten Jahren zeigte ein überdurchschnittliches Wachstum mit zum Teil zweistelligen Wachstumsraten. Die Begründung dazu sehen wir in den folgenden fünf Thesen, die die weitgehende Umgestaltung des BI-Marktes und der BI-Rolle, von Methoden und Werkzeugen, den Übergang zu Performance Management und Analytik und die wachsende Durchdringung der Fachbereiche mit Werkzeugen beschreiben. These 1: Der Markt für Business Intelligence hat sich zwischenzeitlich aufgelöst und wieder neu ausgebildet. Die schon seit einiger Zeit zu beobachtende Marktkonsolidierung hat mit den drei „großen“ Akquisitionen in 2007 (Oracle/Hyperion; SAP/BusinessObjects; IBM/Cognos) ihren Höhepunkt gefunden und quasi zur Auflösung des Marktes für BI als eigenständigen Markt geführt. Schon in 2006 haben wir das kommen sehen (Statement: is report 3/2006). Der BI Markt ist so in den BPM/SOA, bzw. ERP II Markt aufgegangen: Die großen Vier im BPM/SOA Markt (IBM, Microsoft, Oracle, SAP) sind alle auch Anbieter von BI. Ähnliches gilt im ERP II Markt wie man am Beispiel von Infor sehen kann. Die kleinen, unabhängigen Anbieter finden in diesem neuen Markt aber jetzt sehr gut ihre Nischen, denn die fortschreitende Prozess- und Service-Orientierung, Big Data sowie der Trend zu BI as a Service im Rahmen von Cloud Computing unterstützt einen Best-of-Breed-Ansatz in optimaler Weise. Das heißt also: sehr gute Aussichten für die Kleinen gerade wegen dieser Evolution des Marktes. Insbesondere Big Data eröffnet jetzt neue Marktchancen. Mit Data Discovery hat sich ein neuer Schwerpunkt gebildet und mit Datawatch, MicroStrategy, Qlik, Tableau Software und TIBCO/Spotfire wird dieser Markt wieder von mittelgroßen Anbietern getrieben. Dazu kommen noch die beiden Open Source Schwergewichte Jaspersoft (von TIBCO übernommen) und Pentaho (von Hitachi Data Systems übernommen), die inzwischen in das Data-Discovery-Segment hineingewachsen sind und Big Data adressieren. Die bisherigen Großen Vier haben es versäumt, hier rechtzeitig präsent zu sein und laufen Gefahr, in diesem Marktsegment zu verlieren. Zusätzlich ist auch noch durch die Akquisitionen von Vertica und Autonomy ein anderer großer Spieler 2011 in den BI-Markt eingetreten: HP. Schließlich folgte TIBCO, die in 2014 mit der Akquisition von Jaspersoft zu einem BIVollanbieter wurde. Man muss also ab 2014 von den Großen Sechs reden. Daneben haben sich aber auch neue Nischenmärkte eröffnet wie Content Intelligence, Customer Intelligence, Financial Intelligence, Competitive Intelligence und Social Intelligence (Textanalytik). Hier sind die Wachstumschancen für neue Anbieter ebenfalls sehr gut. Die Auflösung des traditionellen Marktes für Business Intelligence bedeutet also nicht sein Ende, sondern einen Neubeginn mit vielen Chancen für alle Marktteilnehmer. Es haben sich so neue Teilmärkte ausgebildet: Der Markt für Analytik und Performance Management ist wieder sehr kompetitiv geworden.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 169

Wolfgang Martin Team These 2: Analytik und Information sind allgegenwärtig. In den letzten Jahren konnte man eine Evolution von BI beobachten. BI wurde operational und mobil: BI wird endlich in den Kontext von Prozessen gestellt und im Sinne eines geschlossenen Kreislaufmodells zur Prozessüberwachung und Steuerung eingesetzt. Und das überall! Damit verabschiedete sich BI auch vom alten Paradigma, dass BI nur auf einem Data Warehouse funktioniert. Operative Datenquellen werden gleichberechtigt zu klassischen Data-Warehouse-Daten. Daraus folgt eine neue Herausforderung: Die traditionellen ETL-Prozesse allein tun es nicht mehr. Wir brauchen einen umfassenderen Ansatz zum Information Management. So schafft man den Übergang von BI zu Performance Management. Inzwischen geht man noch ein Stück weiter und sieht die Schlüsselrolle von BI über Performance Management und Analytik hinaus jetzt auch für Governance, Risiko-Management und Compliance („GRC“). In diesen Aufgabenstellungen ist BI aus dem Unternehmensalltag nicht mehr wegzudenken, und das mobile Internet erlaubt hier insbesondere allen Mitarbeitern im Außendienst genauso die Vorteile von BI nutzen zu können wie der Innendienst. Heute ist es nicht mehr ausreichend, Analytik nur mit Unternehmensdaten zu betreiben. Im Big Data stecken enorme Potentiale, die es zu erschließen gilt. Hier löst jetzt Hadoop mehr und mehr als traditionelle Data Warehouse als Basis für Analytik ab. Die Social Media liefern Daten, mit denen Unternehmensdaten – unter Berücksichtigung des gesetzlichen Datenschutzes – deutlich angereichert werden können, um besseres Marketing und eine individuelle Kundenkommunikation zu erlauben. Das mobile Internet liefert Lokalisierungsdaten, so dass wir zum ersten Male Information nicht nur in den Kontext von Zeit („Echtzeit“) stellen können, sondern auch in den Kontext von Raum. Räumliche und zeitbezogene Information hat einen wesentlich höheren Wert als die reine Information an sich. Mit der Konvergenz von Information, Raum und Zeit werden neue innovative Prozesse möglich, an die man bisher gar nicht denken konnte: raumbezogene Kundenkommunikation, beispielsweise im mCommerce, operationale Informations-Services zu Fahrplänen, Verspätungen, Staus, Wetterrisiken etc., mit denen Prozesse innovativ neu gestaltet werden können oder mobile Services zur Lokalisierung, Registrierung, Authentifizierung oder zum Bezahlen, um hier nur einige Beispiele zu nennen. Man kann heute mit Fug und Recht sagen: Information und Analytik sind allgegenwärtig. These 3: BI ist auf der Vorstandsebene angekommen. Mit der Rolle von BI in Performance Management und GRC ist BI auf dem C-Level angekommen. Früher wurde BI der IT im Unternehmen verkauft. Viele BI-Projekte haben darunter gelitten. Die Wertschöpfung durch BI war schwer oder teils gar nicht nachzuweisen. Riesige Data Warehouses verursachten Kosten, aber keiner wollte die dort vorhandenen Daten so recht nutzen. Das ändert sich nun. Die Wertschöpfung von BI im Kontext von Prozessen ist unbestritten. Im Sinne von GRC wird das Büro des CFO zu einem Leitstand des Unternehmens. Aus dem CFO wird der Verantwortliche für Performance, Analytik und GRC. Ein weiterer, starker Treiber ist mit den Smart Phones und Tablets entstanden. Jeder, von der Vorstandsebene angefangen, will solche Geräte, und mobile BI ist eine der gängigsten Anwendungen. Durch das mobile Internet wird BI auch im Vorstand zu einer Routinetätigkeit und nicht mehr nach unten delegiert. These 4: BI-Entscheidungen finden mehr und mehr in den Fachabteilungen statt. Diesem Trend ging zunächst der Trend voraus, dass BI, die ursprünglich eine von der IT getragene Initiative war, die nur wenigen, ausgewählten Experten in den Fachabteilungen,

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 170

Wolfgang Martin Team vor allem im Controlling, vorbehalten war, inzwischen mehr und mehr Nutzer in den Fachabteilungen gefunden hat. Der Aufbau von BI-Kompetenzzentren und Self-Service-BI machten es möglich. Die Ergonomie der Werkzeuge stieg insbesondere durch ServiceOrientierung („Mashing-up“), bessere Visualisierung, höhere Automatisierung und intuitivere Fähigkeiten. So werden einerseits die Werkzeuge immer besser und besser, aber andererseits werden die Nutzer in den Fachabteilungen auch immer vertrauter mit digitalen Werkzeugen. Die „digital natives“, die im privaten Bereich in der Regel über mehr und bessere Rechnerleistung verfügen als in Unternehmen heutzutage geboten wird, sind in den Unternehmen angekommen und stellen „mündige“ Nutzer dar. Wenn dann noch die BIKompetenzzentren Hilfe zur Selbsthilfe leisten, dann kann Analytik von breiten Kreisen der Nutzer in den Fachabteilungen auch weitgehend autonom genutzt und eingesetzt werden. Was wir in den 80er Jahren propagiert haben, nämlich Werkzeuge zu bieten, mit denen Fachabteilungen selbstständig ihre Reports bauen können, wird jetzt so langsam machbar: Self-Service-BI ist heute Realität geworden. Es kommt dabei auf das Zusammenspiel von Organisation und Technologie an. Die BI-Governance ist der kritische Erfolgsfaktor. Konsequenterweise sind auch die Entscheidungen über BI-Programme und Plattformen Zug um Zug von der IT in die Fachabteilungen gewandert. Im Jahre 2013 überstiegen die ITBudgets der Fachabteilungen zum ersten Male die IT-Budgets der IT im Unternehmen. Das ist die Aussage einer Marktstudie von IDC, und laut dieser Studie soll sich dieser Prozess künftig weiter fortzusetzen.51 Ein weiterer Treiber dieses Trends ist die stets zunehmende Dynamik der Märkt. Entsprechend nimmt der Druck auf die Unternehmen zu. Schnelle und flexible Änderungen von Geschäftsprozessen, sogar von Geschäftsmodellen, sind gefordert. Agilität, smartes Agieren am Markt und Innovation stehen im Vordergrund. Hier und jetzt ist insbesondere die IT gefordert. Aber in vielen Unternehmen kann die IT nicht liefern, was von ihr erwartet wird. IT-Budgets wurden über Jahre hinweg gekürzt, und Kosteneinsparungen zählten zu den wichtigsten Zielen eines CIOs. Der Löwenanteil des IT-Budgets floss in traditionelle ITInfrastruktur und in die Pflege und Wartung der bestehenden Systeme. IT-Budget für Neuentwicklungen war kaum vorhanden. So wurde die IT in den Augen der Fachabteilungen zum Bremser von Innovation. Konsequenterweise entwickelte sich eine Schatten-IT: Die Fachabteilungen griffen zur Selbsthilfe und beschafften sich notwendige IT-Lösungen in Eigenregie. So werden in ihren Augen ihre Anforderungen schneller umgesetzt: Man steigert die Agilität. Das ist essentiell für das Geschäft, denn verpasste Gelegenheiten kosten nicht nur Geld, sondern führen auch zu Verlusten der Wettbewerbsfähigkeit. Social-Media-Konzepte und Werkzeuge erlauben darüber hinaus, eine neue Kollaboration und neue Governance-Ansätze. Hier wird sich in den kommenden Jahren noch einiges entwickeln. Facebook-artige Lösungen versuchen seit einiger Zeit, in den Unternehmen Fuß zu fassen. Aber der Facebook-Ansatz hat hier einen Nachteil, da er ganz auf dem rein auf den Menschen bezogenen sozialen Ansatz von Marc Zuckerberg beruht. Er ist nicht ausreichend, um die Steuerung im Unternehmen in allen Belangen zu unterstützen. Hier scheint der alternative mehr medial ausgerichtete Ansatz von Jive, SAP Jam, Microsoft Yammer und anderen geeigneter zu sein: Er ist nicht allein auf sozialen Prinzipien

51

siehe silicon.de, Zugriff am 07. Juli 2014.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 171

Wolfgang Martin Team aufgebaut, sondern vor allem auf Kommunikationsprinzipien. Das wird besser in den Unternehmen als innovativer Ansatz in der internen und externen Unternehmenskommunikation wirken. Dem entgegen steht allerdings auch heute noch eine Unternehmenskultur, die solche „demokratisierten“ Kommunikationsmodelle als fremd empfindet. These 5: Das digitale Unternehmen und analytische Technologien. Die Wandlung des Unternehmens in ein digitales Unternehmen wird von vier IT-Megatrends getrieben: Mobile, Cloud, Social und Big Data. Interessanterweise sind diese vier Trends miteinander verwoben, und alle vier bewirken eine weiter steigende Nachfrage nach analytischen Technologien im digitalen Unternehmen. Das mobile Internet produziert Daten in großem Volumen und mit großer Geschwindigkeit, Big Data eben. Zum einen werden Lokalisierungs- und Navigations-Daten produziert. Im mobilen Internet konvergieren Zeit, Raum und Information: Man weiß heute exakt und genau, wo und zu welcher Zeit sich ein Kunde, eine Ware oder ein beliebiges Gerät sich befindet. Jedes Smartphone ist so Produzent von Daten. Zum anderen schafft die Konvergenz von Zeit, Raum und Information darüber hinaus eine neue Welt: Das Internet der Dinge (IoT). Wesentliche Elemente des IoT, die in einer Vielzahl von mobilen Geräten enthalten sind und sein werden, sind Smart Meter und eingebettete Sensoren, Bilderkennungstechniken und die Bezahlung über NFC (Near-field Communication). Im Endergebnis wird der Begriff mobil sich nicht mehr ausschließlich auf Mobiltelefone oder Tablets beschränken und Mobilfunktechnik nicht mehr ausschließlich auf Mobilfunknetze. Die Kommunikation wird auch über NFC, Bluetooth, LTE und WLAN ablaufen und schon bald in viele neue Geräte integriert werden, beispielsweise in Displays von Armbanduhren, Brillen, medizinischen Sensoren, intelligenten Plakaten, Home-Entertainment-Systemen und in Autos. So werden schließlich noch mehr Daten produziert. Mobil treibt auch die Cloud, denn das mobile Internet arbeitet nach dem Prinzip des Cloud Computings. Jede App, die wir nutzen, arbeitet so. Cloud Computing ist auch mit Big Data eng verbunden, denn Cloud Computing ist ein IT-Bereitstellungsmodell, das aufgrund der Elastizität, Flexibilität und von Kostenvorteilen bestens Anforderungen von Big Data und BigData-Analytik erfüllt. Beispielsweise bieten viele Anbieter von analytischen Datenbanken heute schon ein DWaaS (Data Warehouse as a Service). Wir können davon ausgehen, dass dieser Trend sich weiter verstärken wird. Mobil treibt auch Social, denn Social funktioniert eben dann am besten, wenn jeder immer und überall zu erreichen ist. Social wiederum treibt Big Data, denn jetzt haben wir in den sozialen Medien noch mehr und auch komplett neue Daten, beispielsweise Information über die Beziehungen zwischen Personen. Big Data hat damit seinen Platz unter den unverzichtbaren Kompetenzen eines digitalen Unternehmens. Die Masse an digitalen Inhalten steigt exponentiell. Über 90 Prozent dieser Information sind poly-strukturierte Daten (wie Fotos, Videos, Audios und Daten aus den sozialen Netze und Maschinendaten dem Internet der Dinge). Diese stecken voller reichhaltiger Information, und die Unternehmen sind mehr und mehr daran interessiert, aus Big Data wertvolle Erkenntnisse zu gewinnen. Damit können wir davon ausgehen, dass sich analytische Technologien zum Mainstream entwickeln und einen absolut kritischen Erfolgsfaktor für digitale Unternehmen ausmachen.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 172

Wolfgang Martin Team Big Data bedeutet ja nicht nur große Datenvolumen, sondern auch Datenproduktion in großer Geschwindigkeit. Früher sagte man: Das Unternehmen wird zum Echtzeitunternehmen. Heute kann man feststellen, dass das Nutzen und Beherrschen von Echtzeit zu den wesentlichen Komponenten eines digitalen Unternehmens zählt. Das treibt Echtzeitanalytik. Die ist nicht nur erfolgreich in der Kundenkommunikation, sondern geradezu essentiell im Internet der Dinge. Echtzeitanalytik im Internet der Dinge erlaubt die Anwendung von maschinellem Lernen. Algorithmen zum Selbst-Lernen, Selbst-Heilen und Selbst-Adjustieren dienen der Automation von Prozessen, steigern die Produktivität und senken Kosten und Risiken. Ein gutes Beispiel steht recht nahe an der Schwelle zur Wirklichkeit: Das führerlose, selbstfahrende Auto. Eine der wesentlichen technischen Voraussetzungen dazu ist In-Memory Computing, denn auf die Rechnerleistung kommt es hier an. Das stellt ein weiteres, riesiges Feld für analytische Technologien dar. Fazit: Performance Management und Analytik heute, also die „neue“ BI im digitalen Unternehmen, muss gemäß den Prinzipien „Einfachheit, Mobilität, extreme Analytik und Kollaboration“ ausgerichtet sein und entsprechend gelebt werden. Neben der Analytik in Echtzeit zur Auswertung großer Datenbestände spielt die Echtzeitanalyse zur Prozesssteuerung und Automation mittels eingebetteter Analytik in Zukunft eine noch größere Rolle.

10.2 Taxonomie des Marktes für Performance Management und Analytik Kommen wir nun zu einer Taxonomie des Marktes. Ausgehend von den drei Phasen der Aktionszeit (Abb. 46) können wir eine Taxonomie ableiten, um die Spieler (Anbieter) im Markt zu klassifizieren (Abb. 52). Spitzenspieler der verschiedenen Kategorien sind in den Kapiteln 10.3 bis 10.5 aufgelistet. Einzelheiten über spezielle, ausgewählte Anbieter werden in Teil 2 dieses White Papers veröffentlicht werden. In jedem dieser Kompendien werden wir die Architektur und die Strategie der Anbieter analysieren und entsprechend der Referenzarchitektur in diesem ersten Teil bewerten. Teil 2 – Verfügbare Kompendien (März 2015): arcplan, BOARD, Clueda, Cortex, Cubeware, EPOQ, IBM, Informatica, geoXtend, Kapow Software, Lixto, Metasonic, Panoratio, PitneyBowes/MapInfo, SAP, Stibo Systems, Tibco/Spotfire, Tonbeller AG, USU Service Intelligence (auf www.wolfgang-martin-team.net). Als Best Practice zur Implementierung von Performance Management gelten heute die von Gartner so genannten CPM-Toolkits, die zwischen CPM-Suites und Einzelwerkzeugen (wie Tabellenkalkulation) positioniert sind. Diese bieten Performance-Management-spezifische Funktionalitäten als Services, sind also offen mit standardisierten Schnittstellen. Sie sind wegen des SOA-Prinzips der losen Kopplung aber nicht fest ‘zusammengeklebt’ wie CPMSuites, die typischerweise auf proprietären Technologien beruhen, bei deren Implementierung nicht unerhebliche Integrationsaufwendungen entstehen und ein flexibles Anpassen an individuelle und Ad-hoc-Aufgaben nur schwer, wenn überhaupt möglich ist. CPM-Toolkits funktionieren auf Grund ihres Servicecharakters wie Legosteine mit Funktionen ‘hinter der rechten Maustaste’. Das erlaubt dem Nutzer nach dem SOA „MashBI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 173

Wolfgang Martin Team up“-Prinzip durch die Auswahl von Objekten mittels Drag-and-Drop und mittels Eingabe der entsprechenden Eigenschaften weitgehend selbständig Composite Applications zu erstellen.

Taxonomie PM/Analytik Maßnahmen treffen Business Scorecard

Performance Management

EntscheidungsMaschinen

Analytik

BAM/CEP Data Warehouse

ETL

DatenIntegrationsplattform Enterprise Service Bus

Big Data

Unternehmensdaten

52

© 2015 S.A.R.L. Martin

Abbildung 52: Taxonomie des Performance Management (PM) und Analytik-Markts und seiner Spieler, die auf dem Prinzip der Aktionszeit (Abb. 46) beruht. (BAM = business activity monitoring, CEP = complex event processing, ETL = extraction, transformation, load; LLDM = low latency data mart)

Insofern adressieren insbesondere CPM-Toolkits die alte BI-Anforderung nach mehr Selbstständigkeit in den Fachabteilungen (siehe These 4 in Kap. 10.1). Während herkömmliche CPM-Suites nur spezifische Anforderungen innerhalb eines Bereichs mit einem speziellen Modul abdecken, ist ein CPM-Toolkit eine offene, aber fachlich zusammenhängende Umgebung, in der dem Nutzer alle Objekte und Funktionen als Services zur Verfügung stehen, um ohne zu programmieren genau das per Mash-up zu komponieren und orchestrieren, was benötigt wird.

10.3 Klassifikation der Anbieter von analytischen Datenbanken Die folgende Auflistung von Anbietern erhebt keinen Anspruch auf Vollständigkeit. Sie fokussiert auf den deutschsprachigen Raum und enthält eine Reihe von lokalen Anbietern. Sie gibt auch keine Bewertung der Anbieter in Hinsicht auf die Vollständigkeit und Qualität der Produkte. Die Klassifikation folgt der Taxonomie von Abbildung 52. In der Vergangenheit wurden und auch heute noch werden Data Marts und Data Warehouses in der Regel mittels relationaler Datenbank-Technologie implementiert. Daher haben wir die traditionellen relationalen Datenbanksysteme hier genauso aufgenommen wir die analytischen Datenbanken, die wir im Kapitel 7.2 diskutiert haben (siehe auch Abb. 53), BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 174

Wolfgang Martin Team und die NoSQL-Datenbanken, die sich für Analytik eignen und die wir in Kapitel 7.3 diskutiert haben. Bei den OLAP-Systemen haben wir auch ROLAP aufgenommen, obwohl ROLAP keine persistente Datenhaltung hat, und ROLAP-Anbieter dazu in der Regel relationale oder analytische Datenbanken nutzen. OLAP-Datenhaltungssysteme (MOLAP, ROLAP, HOLAP) BOARD, IBM Cognos, IBM Cognos TM1, FoundationDB, Infor/Alea, Information Builders, instant OLAP, Microsoft SQL Server, MicroStrategy, MIK, Oracle 11g, Oracle/Essbase, Paris Technologies (PowerOLAP), Quartet FS (Active Pilot), SAP Netweaver BI, SAS OLAP Server, Teradata Open Source: The Bee Project, icCube, Systems/Pentaho/Mondrian, TIBCO/Jaspersoft,

Jedox/Palo,

Hitachi

Data

(traditionelle) Relationale Datenhaltungssysteme IBM DB2, IBM Informix, Microsoft SQL Server, NuoDB, Oracle 11g, SAS Scalable Performance Data Server Open Source: Ingres Data 10, Lucid DB, MariaDB, Oracle/MySQL, PostgreSQL Analytische relationale MPP-Datenhaltungssysteme IBM DB2 (InfoSphere Warehouse), IBM Smart Analytics System, IBM Pure Data52, Kognitio, SAS Scalable Performance Data Server (mit SAS Grid Computing und SAS In-MemoryAnalytics), Teradata, XtremeData Open Source: EMC/Greenplum, VoltDB Analytische NoSQL-Datenhaltungssysteme (ohne In-Memory-Datenverarbeitung) Amazon DynamoDB, Calpont, CortexDB, Illuminate, HP/Vertica, Kx Systems, Sand Analytics, SAP Sybase IQ, Teradata/AsterData, Vectornova, Open Source: Apache Cassandra, Apache Hadoop HBase, ArangoDB, InfoBright, MongoDB Analytische NoSQL-Datenhaltungssysteme (In Memory-Datenverarbeitung) 1010Data, Actian/ParAccel, Amazon Redshift, Ancelus Database, Exasol, IBM Smart Analytics Optimizer, SAP HANA Spezielle Datenhaltungssysteme (Technologie in Klammern) Actian/Versant (OODB), CrossZSolutions (QueryObject System), Drawn-to-Scale (Big Data Platform auf Hadoop), dimensio informatics (minimal-invasives Performance-Tuning), HPCC Systems (Big Data Framework à la Hadoop), InterSystems (OODB), Oracle Exadata Database Machine (Data Appliance mit Massive Parallel Grid), Oracle Exalytics In-Memory Machine (Spezialtechnologie für CEP), Panoratio (Database Images), Parstream (DBMS für Big-Data-Echtzeitanalytik), Spire (Big Data operational SQL DB) Hadoop-Distributoren Amazon Elastic MapReduce, Cloudera, Hortonworks, IBM Infosphere BigInsights, Intel Apache Hadoop Distribution, MapR Technologies, Pivotal HD, Talend Platform for Big Data, VMWare (HVE, Serengeti) SQL on Hadoop IBM, HP, NuoDB, Oracle, SAP, Slice Machine 52

vormals IBM Netezza

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 175

Wolfgang Martin Team

Klassifikation analytischer Datenbanken

Bereitstellungsmodell

Software On Premise

Appliance

Cloud

relational Datenstrukturen

Speicherung

Analytische Datenbanken/ Plattformen

In-Memory

Plattenbasiert

NoSQL

Hybrid

© 2015 S.A.R.L. Martin

53

Abbildung 53: Klassifikation analytischer Datenbanken über Speichermethoden, Datenstrukturen und IT-Bereitstellungsmodell.

Analytische Datenbanken bringen den Nutzern ganz neue Möglichkeiten, sowohl in der Skalierbarkeit, der Performance als auch in den Betriebskosten. Wer heute komplexe Analysen auf großen Datenmengen durch viele Benutzer mit vielen Abfragen ausführt und eine hohe Performance und Skalierbarkeit bei einfacher Wartbarkeit benötigt, sollte analytische Datenbanken auf jeden Fall berücksichtigen. Wir meinen: Eine Evaluation lohnt sich auf jeden Fall. Damit sollte man auf keinen Fall mehr warten!

10.4 Klassifikation der Performance-Management-/Analytik-Anbieter Die folgende Auflistung von Anbietern erhebt keinen Anspruch auf Vollständigkeit. Sie fokussiert auf den deutschsprachigen Raum und enthält eine Reihe von lokalen Anbietern. Sie gibt auch keine Bewertung der Anbieter in Hinsicht auf die Vollständigkeit und Qualität der Produkte. Die Klassifikation folgt der Taxonomie von Abbildung 52. Performance Management (traditionelle BI – allgemeine Frontends: Suites, Toolkits, Reporting, Dashboards) 

die GROSSEN Sechs: HP, IBM, Microsoft, Oracle, SAP, TIBCO



die weltweit größten PM-Spezialisten: Infor, Information Builders, MicroStrategy, Qlik, SAS Institute



die Herausforderer: Adaptive Planning, Advizor Solutions, Alteryx, Antares InformationsSysteme, arcplan, aruba Informatik, Bime, Birst, Bissantz, Bitam, BiX Software, BOARD, CA/CleverPath, cobra computer's brainware GmbH, Comma Soft/Infonea, Connexica,

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 176

Wolfgang Martin Team Cubeware, Dataself, Dell/StatSoft, Dimensional Insight, Decisyon, DSPanel, ElegantJ BI, Evidanza, GoodData, Host Analytics, Indicee, InetSoft Style Intelligence, instantOLAP, Intellicus, Intensio, iQ4bis, JInfonet/JReport, kpiWeb, Kofax/Altosoft, LogiAnalytics53 MAIA-Intelligence, Menta, MIK, Neubrain, Oco, OpenText/Actuate, Orbis AG, Panorama Software, Paris Technologies, Phocas, PivotLink, Prevero, Prognoz, Pyramid Analytics, Reboard, Salient Management Company, SAMAC (nur für IBM iSeries), Strategy Companion, Tableau Software, Targit A/S, Teleran, Tidemark, Tonbeller AG, Verix, Vizion Solutions, Windward, Yellowfin, Zap Technology 

Spezialwerkzeuge zur (agilen) BI-Projektentwicklung: Balanced Insight



Open Source: OpenText/BIRT, The Bee Project, Hitachi Data Systems/Pentaho, SpagoBI, TIBCO/JasperSoft

Analytik / Data Discovery 

Advizor Solutions, Armanta, Ayashdi, BiBOARD, Business Intelligence System Solutions Holdings B.V., Comma Soft/Infonea, Datawatch/Panopticon, Dell/Kitenga Analytics Suite, Dimensional Insight, Domo, Dremel, Drill, IBM/Cognos Insight, Information Builders, Kofax/Altosoft, Lyzasoft, Microsoft/Power Pivot, MicroStrategy, Neutrino BI, OpenText/Actuate, Opera Solutions, Oracle/Endeca Information Discovery, Panorama Software, Precog, Qlik, Salient Management Company, SAP/Lumira, SoftLake Solutions, Tableau Software, TIBCO/Spotfire, VisualCue



Spezialwerkzeuge für Cassandra: Acunu Analytics,



Spezialwerkzeuge für Hadoop: Alpine Data Labs, Datameer, Dell/Kitenga Analytics Suite, Impala, Platfora, Teradata/Hadapt



Spezialwerkzeuge für MongoDB: Precog



weitere Spezialwerkzeuge (Ansatz in Klammern): Ankhor (Visualisierung von Log-Daten), Datonix (QueryObject System), human IT software (InfoZoom), Panoratio (Database Images)



Open Source: Hitachi Data Systems/Pentaho, TIBCO/JasperSoft

Analytik / Prädiktive Modelle (Data Mining, Statistik & ähnliche) Advizor Solutions, Alpine Data Labs, Alteryx, Anderson Analytics, Angoss, Avail Intelligence, Blue Yonder, Context Relevant, Dell/StatSoft, EPOQ, Equbits, Exeura Rialto, FICO Predictive Analytics, IBM, IBM/SPSS, IBM/Unica, InfoCentricity, Infor/E.piphany, ISoft (Alice), Megaputer, Microsoft, MicroStrategy, MIT GmbH, OpenText/Actuate, Oracle, Pega Systems (Chordiant), Pitney Bowes Software (Portrait Software), Predixion, Prudsys, SAP, SAP/KXEN, SAS, StatPoint Technologies, Synesis Solutions, Systat Software, thinkAnalytics, TIBCO/Spotfire, Teradata, Treparel, Verix, Viscovery Open Source: Knime, Microsoft/ Revolution Analytics, Orange, RapidMiner, Rattle, R-Project, Weka Analytik / Textanalytik Alias-i, Anderson Analytics, Attensity, Ayasdi, Basis Technology, Business Intelligence Group, Clarabridge, Dell/Kitenga Analytics Suite, Digital Reasoning, IBM, IBM/SPSS, ITyX,

53

LogiXML hat sich im März 2013 in LogiAnalytics umbenannt.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 177

Wolfgang Martin Team Lexalytics, Linguamatics, Megaputer, OpenText/Nstein, Rocket Software/AeroText, SAP, SAS/Teragram, Saplo, Sentimetrix, Serendio, StatSoft, Teezir, Temis Group, Thomson Reuters/Clear Forest, Treparel, Viscovery, ZyLab Open Source: Gate, Python NLTK, R (TM module), RapidMiner Business Activity Management/Complex Event Processing (BAM/CEP) & Streaming Axway, Amazon Kinesis, Business CoDe, ClearPriority, Clueda, Datawatch/Panopticon, Domo, Gemstone, IBM InfoSphere Streams, Inetsoft, Informatica, Information Builders, JackBe, Kofax/Altosoft, LogiAnalytics, Microsoft StreamInsight, Oracle CEP, SAP CEP, SL Corporation, Software AG, Splunk, Streambase, thinkAnalytics, TIBCO CEP, UC4 Decision, Verix, Vitria, VMWare/Gemstone Open Source: HStreaming, LinkedIn Samza, Twitter Storm, Yahoo S4 Web-Analyse Adobe/SiteCatalyst, AT Internet, Avail Intelligence, Bango, Bime, ComScore/Nedstat, Enecto, eTracker, Foresee Results, Google Analytics, IBM Cognos Customer Insight, IBM/MarketingCenter, Intellitracker, Lyris, Mindlab Solutions, Nielsen/Glance Guide, Nurago/LeoTrace, Odoscope, Precog, sitespect, Targit A/S, Visible Measures, webtrekk, WebTrends, Wired Minds, Yahoo! Web Analytics Open Source: eAnalytics, Open Web Analytics, Piwik Location Intelligence APOS Systems, Aruba Informatik, BOARD, Cubeware, deCarta, Digital Globe, DMTI Spatial, ESRI, Galigeo, Google Earth, Integeo, mapdotnet, MapQuest, MetaCarta, Microsoft/ VisualEarth, Navteq, Oracle, Pitney Bowes Software, Spatialytics, Tableau Software, Talent Information Systems, TomTom Global Content, TIBCO/Maporama, TIBCO/Spotfire, Universal Mind, Vistracks, Yellowfin Entscheidungs-(Regel-)Maschinen Angoss, Avail Intelligence, CA Aion, Bosch SI/Innovations, Corticon, EPOQ, FICO (Fair Isaac Corporation), IBM, IBM/SPSS, Infor/E.piphany, MicroStrategy, Oracle, Pega Systems, Pitney Bowes Software (Portrait Software), Prudsys, SAP, SAS, StatSoft, thinkAnalytics, TIBCO, UC4 Decision, Versata, Viscovery Open Source: RapidMiner Financial Performance Management (Budgeting, Planning, Forecasting, Financial Consolidation etc.) A3 Solutions, Acorn System, Adaptive Planning, Alight Planning, Anaplan, Antares Informations-Systeme, arcplan, ASRAP Software, Axiom EPM, Bitam, BOARD, Complan & Partner (EPUS), CoPlanner, CP Corporate Planning AG, Corporater, CSS Computer Software Studio, Cubeware, Cubus AG, Decisyon, Denzhorn, DSPanel, Evidanza, HaPeC, Hologram BI, Host Analytics, IBM/Clarity Systems, IBM/Cognos, IDL Systems, Infor, InformationBuilders, KCI Computing, Longview Solutions, LucaNet, macs software, Microsoft, MIK, Neubrain, Oracle/Hyperion, Orbis AG, Paris Technologies, PMS GmbH, Prevero, Procos AG, Prodacapo, ProfitBase, Prophix, Performance Solutions Technologies (managePro), River Logic, SAP, SAS, Software4You, Tagetik, Targit A/S, Thinking Networks, Tidemark, UNIT4 Coda, Whitebirch Software

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 178

Wolfgang Martin Team Spezielle Werkzeuge für Spreadsheet-Management und Compliance: ClusterSeven Business Scorecards (Dashboards, Strategy Maps) – Stand-Alone-Lösungen Active Strategy, Axsellit (Corporater Express), BOC (AdoScore), Business CoDe, Communic (Vision.iC), Corda Technologies, Corporater, dMine Business Intelligence, Dundas Data Visualization, eBrains Consulting, Hologram BI, Horvath & Partner, Hyperspace, iDashboards, iGrafix, InetSoft, Jinfonet Software, Klipfolio, macs software, Nevron Data Visualization, Performance Solutions Technologies (managePro), Prelytis, Procos AG, Prodacapo, ProfitMetrics, Push BI, Quadbase, Qualitech Solutions, QPR Software, Rocket CorVu, Software AG, statsmix, Stratsys AB, VisualCalc, UNIT4 Coda

10.5 Klassifikation der Anbieter von Information Management Die folgende Auflistung von Anbietern erhebt keinen Anspruch auf Vollständigkeit. Sie fokussiert auf den deutschsprachigen Raum und enthält eine Reihe von lokalen Anbietern. Sie gibt auch keine Bewertung der Anbieter in Hinsicht auf die Vollständigkeit und Qualität der Produkte. Die Klassifikation folgt der Taxonomie von Abbildung 52. Datenintegration – Plattformen 

die GROSSEN: IBM, Informatica, Oracle, SAP, SAS Institute/DataFlux



die Herausforderer: Actian/Pervasive, Adeptia, Astera, Ataccama, Attunity, Axway, CA/Inforefiner, Cirro, Cisco/Composite Software, Columba Global Systems, Comlab/Ares, DataStreams, Dell/Boomi, Denodo, Diyotta, ETI, Gamma Soft, HVR Software, Information Builders/iWay Software, ITyX/Context, MuleSoft, Nimaya, Parity Computing, Progress Software, SnapLogic, Software AG, Stone Bond, Tibco, Uniserv, Versata



Spezialplattformen für analytische Services: Cirro, Kalido



Information Management für Hadoop: Teradata/Revelytix



Open Source: CloverETL, JBOSS Enterprise Middleware, Jitterbit, JumpMind, Talend

ETL/ELT AbInitio, Actian Pervasive, Astera Software, CA/Advantage Data Transformer, Datarocket, Datawatch, ETL Solutions, IBM, Informatica, Information Builders, iQ4bis, ITyX/Context, Menta, Microsoft, Open Text, Oracle, Pitney Bowes Software, SAP, SAS, Sesam Software, Software Labs, SQ Data, Syncsort, Theobald Software, Tonbeller AG, Uniserv, Versata Spezielle Werkzeuge zur Planung von DW (“pre-ETL”): Wherescape 3D; und zum Managen von DWs: BIReady Open Source: Apatar, The Bee Project, CloverETL, Enhydra Octopus, Hitachi Data Systems/Pentaho/Kettle, KETL, RapidMiner, Talend ETL – Spezialwerkzeuge semantische Web-Crawler/-Extraktion 30 Digits Web Extractor, Brainware, Business Intelligence Group, Connotate, Datawatch, Denodo Technologies, Fetch Technologies, Kapow Software, Lixto, Teezir

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 179

Wolfgang Martin Team Stammdaten-Management Agility, ARM Advanced Resource Management, Bosch Software Innovations, Enterworks, Grecco, IBM, Informatica, Kalido, Oracle, Orchestra Networks, Riversand, SAP, SAS/Data Flux, Semarchy, Stibo Systems, Systrion, TIBCO, Uniserv, Visionware, zetVisions Datenklassifikation Data Global, EMC/Kazeon, FileTek/Trusted Edge, Index Engines, ITyX/Context, Microsoft, Nogacom, Rocket Software/Arkivio, StoredIQ, Varonis Systems Datenqualität Alteryx, AS Address Solutions, Ataccama, Business Data Quality, Clavis Technology, Datactics, DataMentors, Datanomic, Datras, emagixx, Eprentise Harte Henks, Human Inference, IBM, Informatica, Innovative Systems, Omikron, Oracle, Pervasive, Pitney Bowes Software, Posidex Technologies, Scarus, SAP, SAS, tekko, TIQ Solutions, Uniserv, Versata, X88 Software Open Source: CloverETL, Infosolve Technologies, RapidMiner, SQL Power, Talend

10.6 Entwicklung von Big Data: Marktschätzungen

Entwicklung von Big Data 

Big Data ist mehr als ein Hype. Wikibon: Big Data-Markt 2011-2017

Quelle: Wikibon - http://wikibon.org/wiki/v/Big_Data_Vendor_Revenue_and_Market_Forecast_2013-2017 © 2015 S.A.R.L. Martin

54

Abbildung 54: Wikibons schätzt, dass er gesamte Big-Data-Markt (Software, Hardware, Services weltweit) $18,6 Milliarden in 2013 erreichte. Das war ein Anstieg von 58% gegenüber 2012 und um $0,5 Milliarden grösser als in der 2012 Schätzung angenommen. 2017 sollte der Markt $50,1 Milliarden überschreiten, das ist um $3,1 Milliarden mehr als 2012 geschätzt.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 180

Wolfgang Martin Team Der Big-Data-Markt besteht aus Software-, Hardware- und Services-Anbietern. Zur Big-DataSoftware werden Datenhaltungssysteme, Daten-Management und Analytik gezählt, die den Belangen und Herausforderungen von Big Data gerecht werden. Dazu gehören: 

Datenhaltungssysteme: Datenbanken,



eine neue Generation von Data-Warehouse-Software- und Hardware-Technologien,



Big Data Management, i.e. Daten-Management Datenqualität, Governance) angewandt auf Big Data,



Big Data analytische Plattformen und Applikationen inklusive neuer Konzepte zur Daten-Visualisierung, Data Discovery, Location Intelligence, Textanalyse etc. mit Fokus auch auf die Analyse poly-strukturierter Daten.

NoSQL-Datenbanken

wie

Hadoop

und

(Integration,

analytische

Repository,

Big-Data-Services entsprechen den traditionellen Services wie Support, Training sowie Beratungs- und Entwicklungs-Dienstleistungen, jetzt bezogen auf Big Data. Big-DataHardware umfasst alle Typen von Hardware, jetzt angewandt auf Big Data. Neu sind hier insbesondere Data Appliances, gebündelte und aufeinander abgestimmte Software- und Hardware-Lösungen, meist auch noch kombiniert mit den entsprechenden Dienstleistungen.

Big-Data-Umsätze großer IT-Anbieter 2013 Worldwide Big Data Revenue by Vendor ($US millions) Big Data % Big % Big % Big Revenue Big Data Total Data Data Data Vendor as % of Revenue Revenue Hardware Software Services Total Revenue Revenue Revenue Revenue IBM $1.368 $99.751 1% 31% 27% 42% HP

$869 $114.100

1%

42%

14%

44%

Dell

$652

$54.550

1%

85%

0%

15%

SAP

$545

$22.900

2%

0%

76%

24%

Teradata

$518

$2.665

19%

36%

30%

34%

Oracle

$491

$37.552

1%

28%

37%

36%

SAS Institute

$480

$3.020

16%

0%

68%

32%

Palantir

$418

$418

100%

0%

50%

50%

Accenture

$415

$30.606

1%

0%

0%

100%

PWC

$312

$32.580

1%

0%

0%

100%

Quelle: Wikibon - http://wikibon.org/wiki/v/Big_Data_Vendor_Revenue_and_Market_Forecast_2013-2017 © 2015 S.A.R.L. Martin

55

Abbildung 55: TOP-10-Anbieter nach Umsatz im Big Data (Software, Hardware, Services weltweit). Gegenüber 2012 konnten IBM und HP Platz 1 und 2 halten. Dell schob sich auf Platz 3 vor, die SAP auf Platz 4 und Accenture auf Platz 9. Teradata rutschte auf Platz 5 ab, Oracle auf Platz 6. Neu in der TOP 10 sind SAS, Palantir und PWC. Rausgefallen sind EMC (Platz 23), Cisco (Platz 13) und Microsoft (Platz 15). Quelle: Wikibon (siehe Abb. 54).

In 2013 ist dieser Big-Data-Markt laut Wikibon (http://wikibon.org/wiki/v/Wikibon:About), einer „Professional Community“, bereits auf $18,6 Milliarden (Software, Hardware und Services) angewachsen und soll 2017 auf $50,1 Milliarden wachsen (Abb. 54). Die Gründe für dieses

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 181

Wolfgang Martin Team rasante Wachstum haben wir ja bereits in Kap. 2.4 diskutiert: Die Nutzenpotenziale, die Analysen im Big Data versprechen, zielen direkt auf die Bottom Line der Unternehmen in allen Branchen: Umsatzsteigerungen, Kosteneinsparungen, Erhöhung der Wettbewerbsfähigkeit und neue, innovative Geschäftsmodelle. Wer will da zurückstehen? Wie sieht nun der $18,6 Milliarden Big-Data-Markt in 2013 aus? Es dominieren wie immer die großen IT-Anbieter, und die haben sich alle Big Data auf die Fahnen geschrieben. In der Abbildung 55 listen wir der Wikibon-Schätzung folgend die TOP 10 IT-Anbieter nach ihrem Umsatz mit Big Data. Bei den Zahlen fällt zum einen auf, dass im Augenblick viel Geschäft mit Hardware und auch mit Services (beispielsweise IBM) gemacht wird, und zum anderen, dass mit Ausnahme von SAS Institute, Teradata und Palantir bei allen Anbieter der Big-DataUmsatz vernachlässigbar klein ist. Auf Teradata mit 19% und SAS Institute mit 16% BigData-Anteil am Umsatz folgt die SAP mit 2% dank HANA. Aber das soll sich ja ändern, wenn auch völlig klar ist, dass wir mit Big Data und die SAP mit SAP HANA immer noch am Anfang stehen. Auch ist in diesem Markt mit vielen Übernahmen der kleinen innovativen SoftwareAnbieter durch die großen IT-Anbieter zu rechnen ganz analog zur BI-Übernahmewelle in den Jahren 2007/08. Fazit: Big Data – der Markt: 

Der Markt ist immer noch jung. Wir stehen noch am Anfang, aber eine Explosion des Marktes hat bereits eingesetzt: Big Data hat großes Potenzial und stellt einen sehr schnell wachsender Markt dar.



Unternehmen sollten spätestens jetzt mit Big-Data-Initiativen starten, um nicht den Anschluss zu verlieren. Es empfiehlt sich, Nutzenpotenziale für das Unternehmen jetzt zu identifizieren und in Abhängigkeit von einer solchen Analyse erste Piloten zu starten.



Anbieter sollten eine glaubwürdige Position aufbauen und eine Roadmap, die klar erkennbare Werte bietet und die notwendige Flexibilität, um im Big-Data-Markt zu prosperieren.

10.7 Grundsätze zur PM/Analytik-Plattform- und Werkzeugauswahl Die Evolution der traditionellen BI von Reporting und Analyse historischer Daten („Data Warehouse“) zu prozess-orientierter, operationaler BI hat schon 2003/04 eingesetzt. Das ist einer der Hauptgründe, warum die großen BPM/SOA-Plattform-Spieler (HP, IBM, Microsoft, Oracle, SAP) und die führenden ERP II Anbieter (beispielsweise Infor) ihre Plattformen um BI-Lösungen in 2007 (HP erst in 2011) ergänzt und arrondiert haben. Unter diesen Gegebenheiten haben Anwender und Kunden die Wahl zwischen drei Szenarien: Das konservative Szenario: Man wählt eine der fünf Plattformen. Der Nutzen für die Anwender und Kunden liegt auf der Hand: Alles kommt aus einer Hand, alles ist integriert und alles passt (mindestens sagt das das Marketing der Anbieter und einiges stimmt ja auch!) Allerdings sind die Nachteile auch offenkundig: Man hängt am Tropf der Plattform

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 182

Wolfgang Martin Team seines Anbieters und ist dessen Preisgestaltung (Lizenzierung, Wartung und Support) ausgesetzt. Dazu kommt das Risiko, dass man nicht immer voll darauf bauen kann, dass die aufgekauften BI-Lösungen vom neuen Besitzer mit der gleichen Sorgfalt und den entsprechenden Investitionsvolumen weiterentwickelt wird. Ein konservativer Kunde wird dann sagen: Mit den Nachteilen kann ich leben. Ich bin auf der sicheren Seite, denn eine Entscheidung für einen der großen Anbieter stellt ein minimales Risiko dar. Das innovative Szenario: Die SOA-basierten Plattformen der Großen Fünf bieten auch eine große Chance, denn eine SOA folgt Standards. Niemals zuvor hat man in der IT gesehen, dass alle großen Anbieter wirklich zusammen arbeiten und die Standards nach vorne bringen (Das könnte zwar noch besser sein, aber viele der Standards sind schon praxistauglich.) Mit anderen Worten, SOA macht die Plattformen offen. Sie stellen einen Bus dar, in den jeder andere Anbieter sich leicht einklinken kann. Best-of-Breed wird möglich. Das ist die Chance für innovative und kleine, agile Anbieter, Nischenfunktionalität zur Ergänzung oder als Alternative zur Basisfunktionalität der Plattform erfolgreich in den Markt bringen zu können. Innovative BI-Nutzer können so von der Offenheit der Plattform profitieren und sich durch bessere BI-Werkzeuge Marktvorteile erarbeiten. Hier ist an Enterprise Search, Simulationsverfahren, Text Mining, linguistische Verfahren, Netzwerkanalysen etc. zu denken. Das Low-Budget-Szenario. Die Offenheit der Plattformen bietet Unternehmen, die nur Commodity-Lösungen zu einem Commodity-Preis suchen ebenfalls eine Chance: OpenSource-Lösungen sind aufgrund der Service-Orientierung leicht integrier- und nutzbar. Das ist heute die Low-Budget-Alternative zu den BI-Lösungen der Plattform-Anbieter. Inzwischen wird auch nahezu die gesamte Performance Management und AnalytikFunktionalität in Form von OpenSource-Lösungen angeboten. Heute tut sich eine weitere Möglichkeit auf, denn mit den Initiativen zu Cloud Computing kommt eine Alternative zu den traditionellen „on premise“-Lizensierungsmodellen in den Markt, die jetzt die Plattformanbieter unter Druck bringt, auch ein BI as a Service anzubieten. Nahezu alle Anbieter haben diesen Schritt bereits vollzogen. BIaaS hat zudem das Potential, BI in den Mittelstand zu bringen, denn da ist bis heute nur Excel als Werkzeug angekommen, aber Mittelständler unterliegen den gleichen Compliance-Anforderungen wie die Großunternehmen. Insofern ist das Ende von isolierten Excel-Lösungen als UnternehmensWerkzeug eingeläutet. Dieser Riesenmarkt wird sich mit BIaaS und ähnlichen Angeboten aus der „Wolke“ erschließen lassen, aber nicht unbedingt nur mit den Plattformen der heute (noch) führenden Anbieter. Inzwischen etablieren sich auch mehr und mehr Anbieter mit einem Data Warehouse as a Service (DWaaS). Hier hat Amazon Web Services eine ganz neue Runde im Dezember 2012 eingeläutet: Amazon AWS Redshift, ein DWaaS basierend auf ParAccel. Redshift sei für Data Warehouses im mehrstelligen Terabyte-Bereich bis zu Petabytes hin einsetzbar und wird zu einem Kampfpreis von $1.000 pro Monat und pro Terabyte angeboten. Traditionelle vergleichbare Angebote basierend auf On-PremiseLösungen kosten in der Regel um einen Faktor von 10 bis 20 mehr.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 183

Wolfgang Martin Team 10.8 Roadmap für die Nutzer von Big Data Die aktuellen Big-Data-Aktivitäten in Unternehmen kann man in drei Gruppen einteilen: agiles Big Data, operationelles Big Data und „High Resolution Management“. So lassen sich im Endeffekt die Angebote der Anbieter besser verstehen, und CIOs und CTOs können für ihre Ziele die richtigen Angebote besser auswählen. Agiles Big Data bezeichnet den Ansatz, dass alles nicht viel kosten und vor allem auch schnell gehen sollte. Bei diesem Ansatz helfen beispielsweise die Technologie-Angebote, die Analysten rasch erlauben festzustellen, ob eine Datenmenge aus dem Big Data fürs Unternehmen Potenzial hat. Hier eignen sich insbesondere auch die jetzt auf den Markt kommenden Data as a Service-Angebote, die über ein OPEX-Finanzierungsmodell kurzfristig operativ abgerechnet werden können und die schnell nutzbar – und wenn es sich nicht lohnt – auch schnell wieder abschaltbar sind. Im agilen Big-Data-Ansatz sind die Analysten oder Data Scientists (siehe Kapitel 3.4) die Macher. Die Unternehmen, die einen solchen Ansatz fahren haben typischerweise eine robuste Unternehmenskultur in datengesteuertem Treffen von Entscheidungen. Die Kernfrage im agilen Big Data ist: Wie kann man eine Art von Spreadsheet-Konzept in der Welt von Big Data etablieren? Operationelles Big Data bezeichnet die Automatisierung und Verschlankung des Analyseprozesses, damit man Entscheidungen treffen kann und Geschäftsprozesse intelligenter werden. Hier findet der Wettbewerb statt zwischen der OpenSource-Welt von Hadoop und den in Kapitel 10.3 genannten Anbietern zusammen mit den Data-DiscoveryLösungen wie sie beispielsweise MicroStrategy, Qlik, SAS Institute, Tableau Software und TIBCO Spotfire anbieten. Die Kernfrage im operationellen Big Data ist: Wie können wir eine Infrastruktur schaffen, so dass jeder Nutzen aus dem ziehen kann, was wir aus dem Big Data lernen? High Resolution Management meint die Idee, dass die Management-Prozesse und auch so mancher operativer Geschäftsprozess auf Basis der viel detaillierteren Fakten, die man aus dem Big Data gewinnen kann, komplett neu zu gestalten ist. Die Kernfrage im High Resolution Management ist: Wie können wir die Art und Weise ändern, mit der wir unser Unternehmen managen, wenn wir all die Details über Markt und Kunden aus dem Big Data zur Verfügung haben? Mit diesem Modell als Hintergrund lässt sich sehr schön die SAP-Strategie darstellen, die wir wegen der Bedeutung von SAP im deutschsprachigen Markt hier anführen. Sanjay Poonen54 sagt: „SAP is attempting to create an integrated approach that allows companies to perform analytics, make big data operational, and support applications for high resolution management all in one environment.” Wie wir schon gesagt haben: Big-Data-Technologien sind noch jung und unausgereift. BigData-Vorgehensweisen stützen sich auf eine noch überschaubare Menge von Erfahrungen. Hier haben wir fünf Herausforderungen zusammengestellt, die Nutzern helfen sollen, die ersten Schritte in Richtung Big Data zu gehen.

54

Sanjay Poonen ist President und Corporate Officer bei SAP Global Solutions, siehe Beitrag in Forbes: http://www.forbes.com/sites/danwoods/2012/01/05/bringing-value-of-big-data-to-business-saps-integratedstrategy/

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 184

Wolfgang Martin Team 1. Herausforderung: Das Aufspüren von talentierten Mitarbeitern, die Big Data und

Analytik kennen und Erfahrungen gemacht haben. Das ist nicht zu unterschätzen, denn solche Experten sind noch rar im Markt. Hier sollte man auf jeden Fall auf spezialisierte Beratungsunternehmen zurückgreifen, denn sonst kann man schnell viel Zeit und Geld verlieren ohne einen Mehrwert aus Big Data zu erzielen. Vor allem: Starten Sie nicht ins Big Data ohne externe Beratung, die neben den Big-Data-Technologien vor allem auch in Sachen Organisation berät. Im Big Data braucht man neue Wege in der Zusammenarbeit IT und Fachabteilung sowie neue Rollen und Arbeitsplatzbeschreibungen. Wir hatten die Data Scientists in diesem Zusammenhang ja schon genannt (Kap. 3.4). 2. Herausforderung: Das Auswählen der Technologie und der Werkzeuge. Hier sollte

natürlich auch der externe Berater helfen. Es empfiehlt sich (nicht nur) im Big Data, die Strategie zuerst festzulegen, also beispielsweise, ob man ins agile oder operative Big Data will oder sogar ein High Resolution Management anstrebt. Denn – wie schon gesagt – die Auswahl der Technologie und der Werkzeuge, sowie die Frage der Bereitstellung – Cloud oder nicht Cloud – hängt davon ab. 3. Herausforderung:

Das Feststellen der Relevanz von Information für die Problemstellung. Welche Information bietet einen Mehrwert in Bezug auf die Kosten der Identifizierung, Extraktion, Speicherung und Analyse? Das ist die Grundsatzfrage, die man a priori in den seltensten Fällen beantworten kann. Ein Lösungsansatz ist das Aufstellen von Relevanzmaßen. Bei Stimmungsanalysen kann man beispielsweise eine Datenquelle danach bewerten, wie oft ein uns interessierender Begriff in welchem Zeitraum vorkommt. Dabei helfen dann die bekannten Suchfunktionen, um sich solche Statistiken zu erarbeiten. Hier sollte auch der externe Berater mit Best Practices helfen. Ansonsten gilt: Ausprobieren und iterieren („trial and error“). Man betritt hier definitiv Neuland.

4. Herausforderung: Das kontinuierliche “Anders-Denken”. Hier gilt als Regel: keine

Annahmen treffen, keine Hypothesen haben. Denn Big-Data-Analysen dienen ja gerade dazu, Hypothesen zu finden, die man so nicht kannte und erwartet hatte. Das Testen solcher Hypothesen erfolgt erst in einem zweiten Schritt. Das Problem ist hier, dass wir aus der „alten“ Zeit, in der nur wenig Information zur Verfügung stand, es gewohnt sind, mit Hypothesen zu arbeiten, die man aus Erfahrungswissen her kannte. Analyse diente dann genau dem Testen solcher Hypothesen. Jetzt im Big Data dient Analyse zuerst eben dem Finden von Hypothesen. Das ist neues, anderes Denken, an das man sich erst noch gewöhnen muss. 5. Herausforderung: Ein Ende finden und den Analyseergebnissen vertrauen. Hier

können wir an den zweiten der fünf Nutzenaspekte aus Kapitel 2.4 anknüpfen: Testen aller Entscheidungen. Wenn eine Hypothese gefunden wurde, dann sollte man die schnell in einen Test umsetzen und Kunden und Markt entscheiden lassen, ob die Hypothese falsch ist oder zu positiven Auswirkungen geführt hat. Das entspricht dem Vorgehen der Big-Data-Vorreiter, die ihre gefundenen Hypothesen zügig in Testumgebungen umgesetzt haben und dann die Wirkung gemessen haben. Das ist schnell und dann auch monetär bewertbar. Im Endeffekt ist das natürlich auch wieder ein iteratives Verfahren nach der “trial and error”-Methode. Da man aber Kunde und Markt

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 185

Wolfgang Martin Team einbezieht, hat man in jeder Iteration eine direkte Wirkung auf die Bottom-Line und damit eine zuverlässige Steuerung des Gesamtprozesses mit Umsatz und Profit als mögliche Zielgrößen. Hier sieht man auch, wie wichtig das Wissen eines externen Beraters in den organisatorischen Fragen ist: Nur wenn ein solches iteratives Verfahren in der Unternehmensorganisation machbar ist, können Big-Data-Analysen tatsächlich einen messbaren Mehrwert erzeugen.

Fazit: Big-Data-Roadmap: 

Nutzer von Big Data sollten (wie immer) mit dem Aufstellen der Strategie beginnen. Die sollte den Richtlinien agiles oder operatives Big Data oder High Resolution Management folgen sollte.



Nutzer von Big Data stehen vor fünf Herausforderungen, die (wie immer) nicht nur im Meistern der Technologie bestehen, sondern vor allem in der Organisationsstruktur (Wie stelle ich mich für Big Data auf?) und in der Vorgehensweise (iterativ Hypothesen finden und testen) bestehen.



Der Erfolg von Big-Data-Analysen muss iterativ durch seine Auswirkungen auf Kundenund Marktverhalten gemessen und monetär bewertet werden.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 186

Wolfgang Martin Team

11

Schlusswort und Literaturverzeichnis

Ich bin davon überzeugt, dass meine Auffassung und Definition von Performance Management und Analytik, die operatives Geschäft, Taktiken und Strategien umfasst, Standard wird für die kontinuierliche Entwicklung von metrisch-orientiertem Management, der Voraussetzung, um sich den heutigen Aufgaben im New Normal zu stellen. Ebenso bin ich davon überzeugt, dass die hier diskutierte Referenzarchitektur analytischer Infrastrukturen Standard wird für dynamische, unternehmensspezifische SOA (service-orientierte) ITArchitekturen. Die Merger und Akquisitionen insbesondere der Jahre ab 2007 geben mir hier bereits Recht. Die Anbieter SOA-basierter Plattformen ergänzen sich um Analytik per Service-Orientierung. Dieses White Paper wird insofern weiterhin helfen, Entscheidungen über Strategien und über Plattformen und analytische Services auch im Sinne von Cloud Computing als IT-Bereitstellungsmodell zu treffen. Performance Management und Analytik sind die richtigen Reaktionen auf die Herausforderung, ein Geschäft zu leiten: Man kann nur managen, was man messen kann. Wichtig dabei ist, dass das Messen über die reinen Finanzkennzahlen hinausgehen muss. Wir müssen operative, taktische und strategische Metriken miteinander kombinieren, um die richtigen KPMs zu haben. Das ist eines der Leitmotive und die große Herausforderung, die Unternehmen in eine erfolgreiche Zukunft begleiten. Die technologischen Fortschritte beim mobilen Internet und bei den sozialen Medien und den daraus resultierenden Kollaborationsmethoden haben hier die wesentlichen Voraussetzungen geschaffen und wirken als die großen Treiber. Performance Management und Analytik werden aber nur dann im Unternehmen erfolgreich sein, wenn die Manager und Mitarbeiter auch analytisch geschult sind. Nur wenn man die Ergebnisse von Analytik richtig verfolgen, verstehen, interpretieren und allen organisatorischen Einheiten im Unternehmen auch in der jeweiligen Fachsprache erklären kann, wird Analytik erfolgreich sein und über Performance Management ein unverzichtbarer Baustein zur Unternehmens- und Prozess-Steuerung sein. Fazit: Business Intelligence – Status Quo: Kritischer Erfolgsfaktor von Performance Management und Analytik ist, Information in den Kontext von Geschäftsprozessen zu stellen und Geschäftsprozesse mit eingebetteter Analytik anzureichen. Information, auf die Prozesse bezogen und in die Prozesse integriert, erlaubt den Mitarbeitern, die Prozesse regeltreu („compliant“) zu gestalten und nachvollziehbar verfolgen können. So können Prozessverantwortliche und Führungskräfte die augenblickliche Position und Situation jedes Prozesses verstehen und rechtzeitig Maßnahmen treffen, wenn Probleme und Risiken sich abzeichnen. So lassen sich bessere Entscheidungen treffen. Performance Management und Analytik gehört zu und an jeden Arbeitsplatz. Sie dienen dazu, Prozesse intelligent zu machen und zu steuern. Aus traditioneller Business Intelligence ist Performance Management und Analytik geworden. Ich wünsche Ihnen viel Erfolg beim Aufbau und beim Betrieb von Performance Management und Analytik in Ihrem Unternehmen. Annecy, im März 2015 Kontakt-Adresse: [email protected]

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 187

Wolfgang Martin Team Literatur: Inmon, W.H., Imhoff, C., and Sousa, R.: Corporate Information Factory, New York, John Wiley & Sons, 1998, 274 Seiten Henschen, D.: Analytics at Work, Q&A with Tom Davenport (Interview), InformationWeek Software, 04. Januar 2010. Hinssen, P.: The New Normal: Explore the Limits of the Digital World, Lannoo Publishers, Tielt/Belgien, 2011, 208 Seiten Lehmann, P., Martin, W., und Mielke, M.: Data Quality Check 2007 – Trends im deutschen Markt, Steinbeis Edition, Berlin – Ludwigshafen, 2007, 34 Seiten Luckham, D.: The Power of Events: An Introduction to Complex Event Processing in Distributed Enterprise Systems, Boston, Addison Wesley Professional, 2002, 400 Seiten Martin, W.: Business Performance Management und Real-Time Enterprise – auf dem Weg zur Information Democracy, Strategic Bulletin, IT-Verlag für Informationstechnik GmbH, Aying bei München, 2003-A, 32 Seiten Martin, W.: CRM 2004 – Kundenbeziehungsmanagement im Echtzeitunternehmen, Strategic Bulletin, IT-Verlag für Informationstechnik GmbH, Aying bei München, 2003-B, 32 Seiten Martin, W.: BI 2004 – Business Intelligence trifft Business Integration, Strategic Bulletin, ITVerlag für Informationstechnik GmbH, Aying bei München, 2004, 32 Seiten Martin, W.: SOA 2008 – SOA basierendes Geschäftsprozessmanagement, Strategic Bulletin, IT-Verlag für Informationstechnik GmbH, Aying bei München, 2007, 28 Seiten Martin, W.: Regelbasierte Komposition von agilen Business Services, White Paper, S.A.R.L. Martin, www.wolfgang-martin-team.net, Annecy, 2008, 23 Seiten Martin, W.: Information Governance – Ergebnisse einer Marktbefragung zum Status Quo und zu den Trends 2012, Research Note, S.A.R.L. Martin, www.wolfgang-martin-team.net, Annecy, 2012, 12 Seiten Martin, W.: Big Data, Strategic Bulletin, IT-Verlag für Informationstechnik GmbH, Aying bei München, 2012, 42 Seiten Martin, W., Eckert, J., und Repp, N.: SOA Check 2010 – Status Quo und Trends im Vergleich zum SOA Check 2009, 2008 und 2007, IT-Verlag für Informationstechnik GmbH, Aying bei München, 2010, 33 Seiten Martin, W.: Wie NoSQL-Datenbanken den Einsatzbereich von BI erweitern: BI entlang der Prozesskette, BI Spektrum, Ausgabe 01, 2014, 4 Seiten

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 188

Wolfgang Martin Team

12 Glossar und Liste der Abkürzungen In diesem Glossar fassen wir die wesentlichen Definitionen, die wir in diesem White Paper aufgestellt haben, nochmals zusammen. Analytik bezeichnet sowohl den Prozess zur Gewinnung von Information und der Ableitung eines Modells zur Nutzung von Information (beispielsweise prädiktive Modelle aus einem Data-Mining-Prozess) als auch die Einbettung und Nutzung dieses Modells in Geschäftsprozessen. Die Idee ist, „intelligente“ Prozesse zu schaffen. Analytische Datenbanken verbessern die Skalierbarkeit und die Performance deutlich gegenüber traditionellen Datenbanken. Zusätzlich helfen sie auch, die Betriebskosten zu senken. Das beruht auf der Kombination von bekannten und neuen Technologien wie Spaltenorientierung, Komprimierung, speziellen, intelligenten Zugriffsverfahren, massiv paralleler Verarbeitung sowie In-Memory-Technologien. Agilität bedeutet die Fähigkeit zur Flexibilität. Eine Architektur in der Informatik spezifiziert das Zusammenspiel der Komponenten eines komplexen Systems. Sie beschreibt die Übersetzung fachlicher Anforderungen in Bauinstruktionen. Damit hat eine Architektur Charakteristiken und Konsequenzen. BI as a Service (BIaaS) bedeutet die Bereitstellung von analytischen und PerformanceManagement-Services mittels des Cloud-Computing-Modells. Dabei bezeichnet Cloud Computing55 ein auf Virtualisierung basiertes IT-Bereitstellungsmodell, bei dem Ressourcen sowohl in Form von Infrastruktur als auch Anwendungen und Daten als verteilter Dienst über das Internet durch einen oder mehrere Leistungserbringer bereitgestellt wird. Diese Dienste sind nach Bedarf flexibel skalierbar und können verbrauchsabhängig abgerechnet werden. Big Data (früher: die Datenflut) bedeutet nicht nur ein riesiges Datenvolumen, sondern auch einen Mix aus strukturierten und poly-strukturierten Daten mit komplexen Beziehungen untereinander. Eine wahre Flut von Daten wartet im Web auf uns. Die Quellen im Web sind vielfältig: Portale, Web-Applikationen, Social Media, Videos, Fotos und mehr, eben WebContent aller Art. Neben der schieren Datenflut ist die Unterschiedlichkeit und Vielzahl der Quellen das zweite große Problem: Der Zugriff auf eine Quelle im Big Data ist jedes Mal neu zu definieren: Die Konsequenz ist ein Zeit- und Ressourcenproblem. Dazu kommt, dass immer mehr Mitarbeiter im Unternehmen möglichst in Echtzeit Big Data nutzen möchten. BI-Governance besteht wie jede Governance aus vier Elementen, einer Organisationsstruktur, aus den BI-Governance-Prozessen, den entsprechenden Management-Policies und einer Technologieplattform. Die Organisationsstruktur besteht aus einem Leitungsgremium, dem ein BI-Sponsor vorsitzt, dem BI-Kompetenzzentrum und den Data Stewards. Dazu gehören wohl-definierte Rollen und Verantwortlichkeiten. Big MDM, siehe Social MDM. Business Activity Monitoring (BAM) ist Teil von operativem Performance Management. Dabei dient BAM dem Verarbeiten von Ereignissen (einfachen Ereignissen oder 55

Definition von Cloud Computing nach Prof. Dr. Helmut Krcmar, TU München, 2008.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 189

Wolfgang Martin Team Ereignisströmen). Die Aufgabe von BAM ist das Erkennen und Bewerten von Ereignissen, um Aktionen zum Gegensteuern auszulösen. Der Verarbeitung komplexerer Ereignisse dient das Complex Event Processing. Als Business Intelligence (BI) bezeichnet man die Fähigkeit, Bereitschaft und Fertigkeit, das Geschäft zu kennen und zu verstehen – oder detaillierter ausgedrückt: Unter Business Intelligence verstehen wir alle Strategien, Prozesse und Technologien, bei denen aus Daten Information und aus Information erfolgskritisches Wissen gewonnen wird, so dass Entscheidungen auf Basis von Fakten getroffen werden, die Aktionen zur Unternehmensund Prozesssteuerung auslösen. Business Process Management (BPM) dient dem Managen des Lebenszyklus von Geschäftsprozessen. Es ist ein Kreislaufmodell, das aus vier Phasen besteht (Abb. 5): 

Phase 1: Analysieren, planen, modellieren, testen und Geschäftsprozessen. (Man spricht auch von der „Design-Phase“.)



Phase 2: Implementieren von Services mit Hilfe von agilen Methoden, DevOpsKonzepten und soweit wie möglich im Self-Service-Modus durch Fachabteilungen.



Phase 3: Mobiles Betreiben („Ausführen“) von Geschäftsprozessen durch applikationsübergreifende Arbeitsabläufe („process flow“) mittels einer Prozess- und einer Regelmaschine auf einer service-orientierten Architektur (SOA) als Infrastruktur, die typischerweise mittels einer hybriden Cloud bereitgestellt wird.



Phase 4: Planen, Überwachen, Steuern und Anreichern der Prozesse, ihrer Leistung (Performance) und des Zusammenspiels aller Geschäftsprozesse.

simulieren

von

Eine Business Scorecard ist eine widerspruchsfreie, umfassende Gruppe von Metriken gemäß einer Management-Politik, um die Performance (Leistung) einer Gruppe von Prozessen, eines Unternehmensbereiches oder des gesamten Unternehmens zu überwachen und zu steuern. Widerspruchsfrei bedeutet insbesondere, dass Metriken sich nicht widersprechen und so Konflikte zwischen Rollen und kollaborativen Teams schaffen, die in unterschiedlichen Kontexten arbeiten. Sie wird im Rahmen einer BI-Governance aus dem Informationsprofil einer Rolle abgeleitet und mit Hilfe der Technologie von Dashboards implementiert. Business Services sind Komponenten eines Geschäftsprozesses und stellen so fachliche Services dar, die von Service-Zentren, Kompetenz-Zentren oder auch von traditionellen Abteilungen geleistet werden. Sie werden entweder intern bereitgestellt oder von Dritten bezogen. Sie können auch als SaaS bereitgestellt werden. Business-Vokabular (oder Business-Glossar oder -Terminologie) stellt die Terminologie der gesamten Fachlichkeit in einem Unternehmen und seinem Unternehmensnetzwerk dar. Es ist zwingend notwendig, denn Prozesse brauchen eine einheitliche gemeinsame Terminologie zur Modellierung und Kommunikation mit allen an den Prozessen Beteiligten, den Mitarbeitern in den Fachabteilungen und in der IT, aber auch den Lieferanten, Partnern und sogar den Kunden. Ein Chief Data Officer (CDO) ist ein(e) Verantwortliche(r) für das unternehmensweite Datenund Informationsmanagement, der/die Mitglied der C-Riege ist. Die Position des CDOs steht in Bezug zu den Aufgaben des Chief Information Officer (CIO), ist aber davon getrennt. Im

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 190

Wolfgang Martin Team Regelfall sollte der CDO an den Chief Marketing Officer (CMO) oder den Chief Executive Officer (CEO) berichten. Die Aufgabe eines CDOs ist, die Wertschöpfung von Daten und Information im Unternehmen zu optimieren. Er stellt sicher, dass im Unternehmen die richtigen Daten gesammelt, analysiert und zum Entscheiden genutzt werden können. Er stellt ebenfalls sicher, dass dazu eine Ethik im Unternehmen entwickelt wird und im Rahmen der Unternehmens-Compliance eingehalten wird. Cloud Computing. In diesem White Paper wird nur die Komponente „SaaS“ (Software as a Service) behandelt. Hier betrachten wir die beiden Spezialfälle BIaaS und DwaaS (siehe diese). COBIT ist ein Rahmenwerk für das Entwickeln, Implementieren, Überwachen und Verbessern der Governance und Managementpraktiken von Informationstechnologie, das sich ohne weiteres auf alle Arten von Governance und Management im Unternehmen anwenden lässt. Es wird vom IT Governance Institute and the Information Systems Audit and Control Association (ISACA) publiziert. Ziel ist es, eine gemeinsame Sprache auf Managementebene zu Zielen, Zielsetzungen und Ergebnissen zu bieten. Die erste Version wurde 1996 veröffentlicht. Ursprünglich stand COBIT für "Control Objectives for Information and Related Technology”. Die heutige Version COBIT 5 basiert auf den Prinzipen “Erfüllung der Anforderungen der Anspruchsgruppen, Abdeckung des gesamten Unternehmens, Anwendung eines einheitlichen, integrierten Rahmenwerks, Ermöglichung eines ganzheitlichen Ansatzes, Unterscheidung zwischen Governance und Management”. Complex Event Processing (CEP) meint die Verarbeitung komplexer Ereignisse. Aufgabe von CEP ist die Erkennung, Analyse, Gruppierung und Verarbeitung voneinander abhängiger, beliebiger Ereignisse. Damit ist CEP der nächste Schritt über BAM hinaus. CEP bezeichnet die Methoden, Techniken und Werkzeuge, um solche Ereignisse zu verarbeiten während sie passieren, also in Echtzeit. CEP leitet aus Ereignissen höheres, wertvolles Wissen in Form von komplexen Ereignissen ab. Das sind Situationen die sich nur als Kombination mehrerer Ereignisse erkennen lassen. Compliance bedeutet die Erfüllung der von der Unternehmensleitung gemachten Vorgaben („Policies“) sowie der rechtlichen und regulativen Vorgaben. Mit anderen Worten: Jeder im Unternehmen handelt so, wie er handeln sollte. Unter Data Discovery versteht man eine neue Generation von BI-Werkzeugen, die sich durch außerordentliche Benutzerfreundlichkeit und Flexibilität auszeichnen. Dazu kommt die Verwendung von In Memory-Technologien, die intern zur Speicherung und Verarbeitung genutzt werden. Der große Vorteil der In Memory-Technologie ist die Performance: Daher sind Data-Discovery-Werkzeuge insbesondere zur Big-Data-Analytik geeignet. Weiterhin setzen sie auf Visualisierung, interaktive, intuitive Analyse, Kollaboration und Autonomie der Endanwender. Ein Data Mart ist im Gegensatz zu einem Data Warehouse keine unternehmensweite Lösung, sondern ein Data-Warehouse-Konzept zur Lösung von entweder isolierten Teilaufgaben der Entscheidungsunterstützung oder im Rahmen einer Data-WarehouseArchitektur eine aufgabenbezogene Teilmenge eines Data Warehouse.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 191

Wolfgang Martin Team Data Mining ist definiert als ein Prozess zur Identifizierung und/oder Extraktion vorher unbekannter, nicht-trivialer, unerwarteter und wichtiger Information aus großen bis sehr großen Mengen von (strukturierten) Daten. Data Scientists sollen die Verarbeitung von Big Data fördern und helfen, die Potenziale von Big Data auch zu realisieren. Sie treiben als Mittler zwischen der IT und den Fachabteilungen den weiteren Ausbau der Zusammenarbeit quer über alle Geschäftseinheiten inklusive der IT. Das erfordert neue Skills und eine Neuorientierung der IT: Die IT muss in den Zeiten von Big Data den Hauptfokus auf Data Management legen. Ein Data Warehouse ist ein Konzept für eine subjektorientierte, integrierte, zeitbezogene und dauerhafte Haltung von Information zur taktischen und strategischen Entscheidungsunterstützung im Unternehmen. Es ist eine von den operationellen ITSystemen getrennte Datenhaltung, die über eine Datenintegrationsplattform auch im Rahmen von operativer Entscheidungsunterstützung eingesetzt werden kann. Daten-Historisierung meint eine zeitabhängige Datenverwaltung. Das erreicht man durch eine bitemporale Datenhaltung, die eine vollständige Historisierung aus der Benutzer- und Systemsicht bietet, d.h. welchen Zustand hatte ein Objekt zu einem bestimmten Zeitpunkt (bzw. über einen Zeitraum) und wie war der Informationsstand in unserer Anwendung zu einem bestimmten Zeitpunkt (bzw. auch hier über einen Zeitraum). Bitemporale Datenhaltung bedeutet, dass sowohl die Gültigkeitszeit als auch die Transaktionszeit festgehalten wird, also in welchem Zeitraum ist eine Information in der realen Welt gültig (Gültigkeitszeit) und zu welchem Zeitpunkt wurde die Information im System erfasst bzw. verändert (Transaktionszeit). Datenintegration stellt Informations-Services zur Verfügung, um Daten, aber auch Metaund Stammdaten zu analysieren, Datenmodelle abzuleiten, Daten und Metadaten aufzubereiten und zu profilieren, sowie ETL- (extraction, transformation, load) Dienste. Eine Datenintegrationsplattform erlaubt parallelen und simultanen Zugriff auch in Echtzeit auf operative und dispositive Daten per Services im Rahmen einer SOA. So wird das traditionelle Data Warehouse zu einer Komponente der Datenintegrationsplattform. Datenqualität sollte bereits in die operativen Prozesse im Rahmen einer TQM (total quality management)-Initiative eingebaut werden. Die vier Eckpfeiler von Datenqualität sind:  Qualität wird als Grad der Übereinstimmung mit Anforderungen definiert.  Das Grundprinzip der Qualitätsplanung ist Vorbeugung.  Null-Fehler-Prinzip muss zum Standard werden.  Qualitätskosten sind die Kosten für Nichterfüllung der Anforderungen. Datensee (data lake). Dieser Begriff geht auf James Dixon, CTO bei Pentaho, zurück. In seinem Blog, in dem er den Ausdruck wohl zum ersten Male erwähnt, schreibt er: “If you think of a datamart as a store of bottled water – cleansed and packaged and structured for easy consumption – the data lake is a large body of water in a more natural state. The contents of the data lake stream in from a source to fill the lake, and various users of the lake can come to examine, dive in, or take samples.” (siehe Kap. 7.5) Datenvirtualisierung meint den virtualisierten (logischen) Zugriff auf Daten mittels einer Abstraktionsebene, wobei der Zugriff auf Daten zentralisiert wird, ohne die Notwendigkeit die

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 192

Wolfgang Martin Team Daten zu replizieren bzw. zu duplizieren. Sie erlaubt beispielsweise relationale JOINs in einer logischen View. Die Ergebnis-Mengen werden als Information Services bei Benutzeranforderung bereitgestellt. DevOps bedeutet eine Zusammenlegung der Aufgaben eines Anwendungsentwicklungsund eines Systembetriebs-Teams. Der Begriff geht somit über BI hinaus, aber DevOps findet gerade in BI-Projekten viel Anwendung. Der Begriff DevOps wird auf unterschiedliche Arten verwendet. Im weiten Sinn ist DevOps ein kulturell-geprägter Ansatz, der auf verbesserter Kommunikation zwischen den beiden Teams beruht. Im engeren Sinn ist DevOps eine JobBeschreibung für einen Mitarbeiter, der sowohl als Entwickler als auch als System-Ingenieur eingesetzt werden kann. DevOps-Werkzeuge sind also neben den traditionellen Entwicklungswerkzeugen insbesondere auch Konfigurationsmanagement-Werkzeuge, ein Repository, Indexing- und Performance-Monitoring-Werkzeuge. Digitales Unternehmen. Ein digitales Unternehmen entsteht durch digitale Transformation innerhalb des Unternehmens. Das bedeutet konkret, dass Informationstechnologie nicht mehr nur die Funktion von Support-Prozessen hat, sondern der Innovation des Geschäftsmodells und der Geschäftsprozesse dient. Neue digitale Geschäftsmodelle und Prozesse bedeuten neue Umsatzquellen und disruptive Wettbewerbsvorteile. Das Produktportfolio wird durch digitale Produkte ergänzt, und Information wird als strategischer Vorteil genutzt. Mit anderen Worten: Das Unternehmen erfindet sich neu. Die zweite wesentliche Eigenschaft eines digitalen Unternehmens ist: Es beherrscht digitale Kommunikation: Immer wieder neu entstehende Medien und Kanäle werden kontinuierlich in die Unternehmenskommunikation mit allen Geschäftspartnern und auf allen Ebenen integriert. Nur so kann man digitalen Kunden folgen und alle Spuren in der digitalen Welt aufspüren. Ein digitales Unternehmen zeichnet sich weiterhin durch Industrialisierung, Agilität, regelkonformes (Compliance) und smartes Verhalten aus. Es basiert auf einem umfassenden Ansatz zu einem service-basierten Geschäftsprozess-Management, das auf Information Management, Performance Management und Analytik aufbaut (s. Abb. 5). DW as a Service (BIaaS) bedeutet die Bereitstellung eines Data Warehouses mittels des Cloud-Computing-Modells. Siehe auch Business Intelligence as a Service. Echtzeit im Business bedeutet die richtige Information zum richtigen Zeitpunkt am richtigen Ort zum richtigen Zweck verfügbar zu haben. Die „Echtzeit“-Forderung im Business hat also nichts mit der Uhrzeit zu tun. Was für „Echtzeit“ entscheidend ist, ist die Verfügbarkeit von Information in der Geschwindigkeit, mit der sie benötigt wird. Eingebettete Analytik ist die Integration von analytischen Services in Business-Software, bzw. in Geschäftsprozessen. Eine solche Integration erlaubt den Nutzern in den Fachabteilungen im Rahmen ihres Tagesgeschäfts einen einfachen und schnellen Zugriff auf analytische Werkzeuge, um besser informiert zu sein und bessere Entscheidungen treffen zu können. Die Funktionalität eingebetteter analytischer Services umfasst Dashboards, Datenvisualisierung, Self-Service-Analytik, visuelle Workflows, Benchmarking, statische, interaktive und mobile Berichte etc. ELT, siehe ETL-Prozesse. Enterprise 2.0 bezeichnet die Nutzung von Social-Software-Plattformen in einem Unternehmen oder zwischen Unternehmen und seinen Kunden und Partnern (nach Andrew

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 193

Wolfgang Martin Team McAfee). Bei Enterprise 2.0 geht es um das Nutzen und Nutzenkonzepte von Web 2.0Technologie im Unternehmen, nicht um die Web 2.0-Technologien allein. Entity Identity Resolution hat zur Aufgabe, Unternehmen bei den Herausforderungen im Umgang mit Entity-Identitätsdaten zu helfen: Das sind die Daten aus unterschiedlichen Quellen, die spezifisch und korrekt eine Entität (beispielsweise Produkt, Dienstleistung, Kunde, Lieferant, Interessent, Meinungsmacher, Patient, Steuerzahler, Kriminelle etc.) identifizieren. Entscheidungs-Management ist ein Prozess oder eine Menge von Prozessen, um Maßnahmen zu rationalisieren und zu verbessern. Entscheidungs-Management-Systeme behandeln Entscheidungen als wiederverwendbare Güter und nutzen Technologie, um den Entscheidungs-Prozess zu automatisieren. Entscheidungen können entweder vollautomatisiert werden oder können als mögliche Vorschläge einem Nutzer zur Auswahl präsentiert werden. Eine Entscheidungs-(Regel-)Maschine (englisch: business rule management sytem – BRMS) setzt eine Entscheidungslogik operativ um. Eine Entscheidungslogik wird mittels Regeln beschrieben. ETL-Prozesse (extract, transform, load) dienen der Füllung und Auffrischung eines Data Marts oder eines Data Warehouse mit internen oder externen Daten. Dabei meint „extract“ das Entladen von Daten aus den unterschiedlichen Datenquellen, „transform“ das Transformieren dieser Daten in das Data-Warehouse-Datenmodell und „load“ das entsprechende Laden. Alternativ gibt es auch ELT-Prozesse, bei denen der Transform- und Ladeschritt in umgekehrter Reihenfolge durchgeführt werden. Während bei den ETLProzessen der Transform-Schritt außerhalb der Datenbank vollzogen wird, findet er bei den ELT-Prozessen in der Datenbank statt, was in der Regel zu Performance-Gewinnen führt. Gamification meint die Anwendung von spieltheoretischen Konzepten und Techniken auf Aktivitäten außerhalb eines Spiels, in der Regel auf Situationen im „echten“ Leben. Das Ziel von Gamification ist es, einen Teilnehmer mit einer Aktivität zu engagieren, die er als Spaß versteht, um sein Verhalten zu beeinflussen. Geocodierung (auch: Georeferenzierung) ist die Positionsbestimmung eines oder mehrerer Punkte mittels Zuweisung von geographische Koordinaten. Im Prozess der Geocodierung kann sowohl einer räumlichen Adresse als auch einer IP-Adresse ein Gebietsschlüssel (Ortsteil, Straße, Straßenabschnitt) und eine geografische xy-Koordinate zugeordnet werden. Mittels Geocodierung lassen sich also Kunden über ihre Adressdaten auf einer Karte räumlich darstellen oder über ihre Navigationsdaten im mobilen Internet lokalisieren und verfolgen. Ein Geschäftsprozess ist…. eine Menge von Aktivitäten & Aufgaben ausgeführt von Ressourcen (Services geleistet von Menschen & Maschinen) unter Nutzung unterschiedlicher Information (strukturiert & poly-strukturiert) mittels unterschiedlicher Interaktionen (vorhersehbar & unvorhersehbar) gesteuert von Management-Politiken und Prinzipien (Geschäftsregeln & Entscheidungskriterien)

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 194

Wolfgang Martin Team mit dem Ziel, vereinbarte Endergebnisse zu liefern (Strategien & Ziele) Geschäftsprozess-Management, siehe Business Process Management. Ein “Golden Record” meint eine einzige, wohldefinierte Version von allen Daten-Entitäten in einem Unternehmen. Er stellt den "single point of truth," dar, wobei "truth" verstanden wird als Referenz, an die sich Datennutzer halten können, wenn sie sicher sein wollen, dass sie die korrekte und gültige Version eines Datensatzes haben. Es ist die Zielsetzung von Stammdaten-Management einen solchen Golden Record abzuleiten und bereitzustellen. Google BigTable ist ein verteiltes, spalten-orientiertes Datenhaltungssystem, das Google entwickelt hat, um strukturierte Daten im Petabyte-Bereich zu managen. Es nutzt ein einfaches Datenmodell, das Google als "a sparse, distributed, persistent multidimensional sorted map." beschreibt. Daten werden nach einem Zeilenschlüssel geordnet und eine Indizierung erfolgt nach Zeilen- und Spaltenschlüssel sowie Zeitmarken. Zusätzlich wird Kompressionstechnologie eingesetzt. Google verwendet BigTable als Datenhaltungssystem für Google App Engine Datastore, Google Personalized Search, Google Earth und Google Analytics. Googles BigTable wurde veröffentlicht und hat anderen Unternehmen und Open Source-Entwicklungsteams ermöglicht, BigTable-Derivate zu entwickeln. Dazu gehören Apache HBase, die auf Hadoop läuft, Hypertable, eine zu HBase alternative Open SourceTechnologie und Cassandra, das von Facebook entwickelt wurde. Governance bezeichnet die verantwortungsvolle, nachhaltige und auf langfristige Wertschöpfung ausgerichtete Organisation und Steuerung von Aktivitäten und Ressourcen im Unternehmen. Das bedeutet ein regelkonformes Management und Verhalten. In allen Aktionen der Unternehmensressourcen – Menschen, Maschinen und Systemen – muss sichergestellt sein, dass die Management-Policies und -Leitlinien beachtet und umgesetzt werden. Auf diese Art und Weise stellt Governance Compliance sicher. Hadoop ist ein Apache Software Foundation Entwicklungsprojekt. Es arbeitet wie ein DatenBetriebssystem und besteht aus drei Komponenten: der Speicherschicht HDFS (Hadoop distributed file system), der Programmierumgebung MapReduce zur Verarbeitung von Abfragen und einer Funktionsbibliothek. Dazu kommen noch einige Ergänzungen wie das Datenhaltungssystem HBase für strukturierte Daten und die High Level Query Languages (HLQL) Hive, Pig und JAQL, sowie ZooKeeper (Managen verteilter Konfiguration), Chukwa (Echtzeit-Monitoring) und andere. In-Datenbank-Analytik ist eine Technologie, die die Verarbeitung von Daten in einer Datenbank erlaubt. Analytische Logik wird also in die Datenbank eingebaut. Das steigert die Leistung, weil man sich den Aufwand und die Zeit der Transformation zwischen den Daten in der Datenbank und der analytischen Applikation erspart. In-Datenbank-Analytik wird besonders da eingesetzt, wo eine intensive Verarbeitung von Daten notwendig ist, beispielsweise bei Missbrauchserkennung, Scoring, Risiko-Management, Trend- und Mustererkennung etc. Vorteile ergeben sich auch bei Ad-hoc-Analysen und Data Discovery. Infonomik ist eine Sozialwissenschaft, die sich mit der Produktion und dem Verbrauch von Information beschäftigt. Einfach ausgedrückt bedeutet Infonomik die Ökonomie von Information. Infonomik basiert auf der Idee, dass Information als Anlagegut (“asset”) zu verstehen und zu managen ist.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 195

Wolfgang Martin Team Information Management hat als Zielsetzung, vertrauenswürdige Daten zu schaffen. Die Aufgaben von Information Management sind die Definition der Daten (die UnternehmensTerminologie), die Modellierung der Daten (die Unternehmens-Semantik), das Meta- und Stammdaten-Management (Transparenz und Nachvollziehbarkeit), das DatenqualitätsManagement (Relevanz und Korrektheit), die Datenintegration und die Datensicherheit und Schutz. In-Memory-Analytik ist ein neuerer Ansatz, Daten abzufragen, die sich im Direktzugriffsspeicher (random access memory - RAM) eines Rechners befinden. Bisher wurden Daten abgefragt, die sich auf einer physikalischen Platte befanden. In-MemoryAnalytik verkürzt die Abfragezeit deutlich, so dass Business Intelligence und analytische Applikationen jetzt zu schnelleren Entscheidungen führen können. Da die Kosten von RAM sinken, wird In-Memory-Analytik bezahlbar und in immer mehr Produkten und Werkzeugen eingesetzt. In BI und analytischen Applikationen wurde schon seit langem RAM zum Caching eingesetzt, aber der Nutzen blieb eingeschränkt, da in den früheren 32-bit-Betriebssystemen nur 4 GB adressierbarer Speicher zur Verfügung stand. Die neueren 64-bit-Betriebssysteme erlauben bis zu 1 Terabyte adressierbaren Speicher, und mit Technologien wie SAP HANA können inzwischen ganze Data Warehouses oder Data Marts im RAM eines Rechners gespeichert werden. Zusätzlich zu den deutlich schnelleren Zugriffszeiten kommen weitere Vorteile. Datenindizierung, Datenaggregate, OLAP-Würfel oder aggregierte Tabellen sind nicht mehr notwendig. Dadurch werden IT-Kosten gesenkt, und BI und analytische Applikationen schneller implementiert. Internet der Dinge. Das "Internet of Things" (IoT) ist ein Konzept, das beschreibt, wie sich das Internet ausbreiten wird, wenn physische Gegenstände wie etwa Geräte von Endkunden mit dem Internet verbunden werden. Wesentliche Elemente des IoT, die in einer Vielzahl von mobilen Geräten enthalten sein werden, sind eingebettete Sensoren, Bilderkennungstechniken und die Bezahlung über NFC (Near-field Communication). Im Endergebnis wird der Begriff mobil sich nicht mehr ausschließlich auf Mobiltelefone oder Tablet-PCs beschränken. Mobilfunktechnik wird schon bald in viele neue Geräte integriert werden, beispielsweise auch in Autos. Ein Kompetenzzentrum ist eine in vielen Unternehmen genutzte Organisationsstruktur, die eine funktionsübergreifende Einheit im Unternehmen darstellt, Sie ist als interdisziplinäres Team verantwortlich, den Einsatz einer bestimmten Disziplin im Unternehmen zu fördern, beispielsweise ein BI-Kompetenzzentrum den Einsatz von BI. Location Intelligence ist die geographische Dimension von Business Intelligence. Es kombiniert Technologie, Daten und Services mit Fachwissen, um Organisationen in die Lage zu versetzen, ihre Geschäftsdaten auch räumlich geographisch zu messen, zu vergleichen, zu visualisieren und zu analysieren. Maschine-zu-Maschine (M2M) bezeichnet die Technologien, die eine automatisierte verdrahtete oder drahtlose Kommunikation zwischen mechanischen oder elektronischen Geräten ermöglichen. M2M erlaubt vernetzten Maschinen Information auszutauschen und Aktionen ohne menschlichen Eingriff vorzunehmen. M2M-Kommunikation wird häufig in Fernüberwachungen genutzt. So kann ein Geld- oder Getränke-Automat rechtzeitig melden, wenn er nachgefüllt werden muss. M2M-Kommunikation spielt eine wichtige Rolle in Telemetrie, Lagerhaltung, Robotik, Verkehrsüberwachung, Logistik, Supply Chain

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 196

Wolfgang Martin Team Management, Flottenmanagement und Telemedizin. Die wichtigsten Elemente eines M2MSystems sind Sensoren, RFID, ein Wi-Fi oder eine mobile Kommunikationsverbindung und eingebettete Software, um Daten zu interpretieren und Entscheidungen zu treffen. Management by Exception (Führen nach dem Ausnahmeprinzip) bezeichnet ein Management-Konzept, bei dem die Vorgesetzten die Erledigung von Standardaufgaben den zuständigen Mitarbeitern zur eigenverantwortlichen Bearbeitung und Entscheidung überlassen und sich die eigene Entscheidung nur für Ausnahmefälle vorbehalten. MapReduce ist eine von Google vorgeschlagene Programmierumgebung und -Modell für verteile Verarbeitung über viele bis sehr viele Knoten, die aus preiswerter „Commodity“Hardware bestehen können. Mehr dazu unter Big Data und Hadoop. Mash-up (engl. für Vermanschung) bezeichnet die Erstellung neuer Inhalte durch die nahtlose Kombination bereits bestehender Inhalte. Eine SOA ist in der Regel die Voraussetzung. Meta-Daten sind Information über Daten, die in der Regel in einem Repository gespeichert werden. Meta-Daten setzen sich zusammen aus den Stammdaten, den Navigations-Daten und den Administrationsdaten. Sie beschreiben den Aufbau, die Elemente, die Eigenschaften der Elemente von Daten inklusive entsprechender Regeln. Eine Metrik beschreibt, wie die Leistung eines Prozesses zu messen und zu managen ist und / oder wie ein Prozess zu überwachen und zu steuern ist. Sie wird durch Metrisierung der Unternehmens- und Prozess-Ziele abgeleitet. Metriken werden wie Sensoren entlang der Prozessstrecke eingesetzt, um ein proaktives Erkennen von Problemen (also beispielsweise das absehbare Nichterreichen des geplanten Endergebnisses) zu ermöglichen, so dass man rechtzeitig gegensteuern kann. Eine Metrik besteht aus Kennzahlen und ihren Skalen, um das Auskommen der Kennzahl zu interpretieren, zu bewerten und Entscheidungen zu treffen. NoSQL bedeutet „not only SQL“. Es ist eine Initiative, einen alternativen Ansatz zur Datenhaltung voranzutreiben. Es handelt sich dabei um Datenbanken, die einen nichtrelationalen Ansatz verfolgen. Man nutzt keine festgelegten Tabellenschemata mehr und versucht, ohne Join auszukommen. So erreicht man eine horizontale Skalierbarkeit und exzellente Lesegeschwindigkeiten auch bei Datenmengen à la Big Data. Man bezeichnet sie auch als „strukturierte Datenspeicher“. OLAP (online analytical processing) ist eine Methode innerhalb der Analytik, die schnelle und interaktive Zugriffe auf relevante Information ermöglicht. Es bietet insbesondere komplexe Analysefunktionen, die sich durch Multidimensionalität auszeichnen. Das bedeutet die Anordnung der verschiedenen Metriken (Kennzahlen) entlang unterschiedlicher Dimensionen, beispielsweise Umsatz in Bezug auf Kunde, Produkt, Region, Berichtsperiode etc. Performance Management ist definiert als ein Geschäftsmodell, das einem Unternehmen ermöglicht, Unternehmensziele und Geschäftsprozesse kontinuierlich aufeinander abzustimmen und konsistent zu halten. Das Planen, Überwachen und Steuern von Prozessen ist Aufgabe von Performance Management innerhalb von BPM.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 197

Wolfgang Martin Team Poly-strukturierte Daten sind Daten, die unbekannte, unzureichend definierte oder multiple Schemata haben, die sich auch mit der Zeit ändern können. Beispiele sind maschinengenerierte Ereignis-Daten, Sensor-Daten, System-Log-Daten, interner/externer Web Content inklusive Social-Media-Daten, Texte und Dokumente, Multi-Media-Daten wie Audio, Video etc. Prädiktive Analytik ist gekennzeichnet durch die Extraktion von Information aus Daten und Nutzen der Information, um Trends und Verhaltensmuster vorherzusagen. Sie basiert auf dem Ableiten von Beziehungen zwischen erklärenden Variablen und den vorhergesagten Variablen aus vergangenen Ereignissen und Vorkommen. Daraus wird das unbekannte Auskommen vorhergesagt. Präskriptive Analytik geht noch einen Schritt weiter als prädiktive Analytik, in dem jetzt auch Aktionen vorgeschlagen werden, um mittels Maßnahmen auf die Vorhersagen zu reagieren. Auch werden die Implikationen jeder Entscheidungsoption aufgezeigt, so dass man von zukünftigen Gelegenheiten profitieren oder zukünftige Risiken vermeiden kann. Präskriptive Analytik erklärt so nicht nur, was wann passieren wird, sondern auch, warum es passieren wird. Präskriptive Analytik kann kontinuierlich neu einkommende Daten vorarbeiten, um die Ergebnisse zu adaptieren und die Genauigkeit der Vorhersagen und das Vorschlagen von Entscheidungsoptionen zu verbessern. Ein Repository ist eine Datenbank zur Haltung und Verwaltung von Meta-Daten. Risiko-Management bezeichnet alle Aktivitäten der Risikoerkennung, Risikoverminderung und Risikovermeidung. Schatten-IT. Christopher Rentrop, HS Konstanz, definiert: „Schatten-IT bezeichnet alle Anwendungen, die ohne die IT beschafft und nicht im Rahmen von ITSM betrieben werden." Etwas vereinfachend, aber dennoch voll zutreffend wird dieser Begriff im Angelsächsischen für die Nutzung von IT-Systemen ohne Genehmigung des Unternehmens verwendet. Selbstbedienungs-Business-Intelligence (Self-Service-BI) erlaubt den Nutzern, Daten interaktiv und visuell zu analysieren. Sie hat rollenspezifische und personalisierte MenschMaschine-Schnittstellen und unterstützt insbesondere auch Suchfunktionen. Damit schafft sie eine Autonomie der Nutzer gegenüber der IT. Selbstbedienungs-BI ist heute Bestandteil von Data-Discovery-Werkzeugen. Ein Service ist (in der Informatik) eine Funktionalität, die typischerweise mittels einer Anfrage-Antwort über eine standardisierte Schnittstelle ausgelöst und gemäß einem SLA konsumiert wird. Ein Service ist somit eine spezielle Ausprägung einer „Softwarekomponente“. Ein Service Level Agreement (SLA) definiert die (auch gesetzlich) bindenden Lieferungsbedingen und Konditionen für Services zwischen den Service-Anbietern und Service-Nehmern. Service-Orientierung (SO) beschreibt eine Kollaboration zwischen einem Verbraucher (Konsument, Servicenehmer) und einem Anbieter (Produzent, Servicegeber). Der Verbraucher will eine bestimmte Funktionalität (ein “Produkt” oder eine “Dienstleistung Service”), den ein Anbieter bereitstellt. Eine solche Kollaboration arbeitet nach den folgenden Prinzipien:

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 198

Wolfgang Martin Team 







Prinzip 1 – Konsequente Ergebnisverantwortung. Der Service-Geber übernimmt die Verantwortung für die Ausführung und das Ergebnis des Services. Der Service-Nehmer übernimmt die Verantwortung für die Kontrolle der Service-Ausführung. Prinzip 2 – Eindeutige Service Level. Jede Serviceausführung ist eindeutig vereinbart hinsichtlich Zeit, Kosten, Qualität. Input und Output der Services sind klar definiert und beiden Parteien bekannt per Service Level Agreement (SLA). Prinzip 3 – Pro-aktives Event Sharing. Der Service-Nehmer ist über jede vereinbarte Statusänderung seines Auftrages informiert. Der Service-Geber ist verpflichtet den Service-Nehmer unmittelbar über unvorhergesehene Ereignisse zu informieren. Prinzip 4 – Service-Verknüpfung. Ein Service kann zur Leistungserbringung einen oder mehrere andere Services nutzen. Umgekehrt kann jeder Service von anderen Services zur Leistungserbringung genutzt werden.

smart ist eine Eigenschaft, die hier gleichgesetzt wird mit nutzerfokussiert, lernfähig, autonom adaptiv, mitdenkend, self controlled, kontext-sensitiv und always connected (siehe Henseler56). Social Business Intelligence meint eine Erweiterung der bekannten und traditionellen BI um Social-Media-Funktionalität und Kollaboration, um Wissensmanagement, um neue Technologien (Web- und Cloud-Integrationswerkzeuge, analytische Datenbanken, Textanalytik) und um neue Anwendungsfelder (Social Media Performance Management, Social-Media-Analytik). Social MDM (master data management) hat zwei Bedeutungen. Zum einen ist die Zusammenführung von Social-Media-Daten und MDM gemeint. Diese Meinung vertreten beispielsweise Informatica und SAS sowie der Autor in diesem White Paper. Mitunter findet man hierfür auch den Begriff „Big MDM“. Zum anderen versteht man unter Social MDM die Pflege und Qualitätssicherung von Stammdaten durch die Bedarfsträger in der Community. Jeder pflegt „seine“ Daten, sorgt somit für verlässliche Stammdaten und nutzt gleichzeitig die Stammdaten der Community-Mitglieder. So entsteht ein „Stammdaten-Marktplatz“. Social-Media-Interaktion baut auf Social-Media-Monitoring ganz im Sinne des Closed-loop auf. Es bedeutet ein Interagieren des Unternehmens mit den Teilnehmern der sozialen Medien. Das Unternehmen kann jetzt auf relevante Beiträge in den sozialen Medien sofort reagieren und intervenieren. Das bringt Vorteile vor allem im Kundenservice oder bei der Einführung neuer Produkte im Markt, da sich sofort eine Kommunikation mit Communities im Web aufbauen und unterhalten lässt. Social-Media-Monitoring meint das Aufspüren, wo, wann und wie über ein Unternehmen, eine Persönlichkeit, ein Produkt oder eine Marke in den Social Media geredet und diskutiert wird. Das beginnt mit dem Identifizieren und Extrahieren der relevanten Quellen im Big Data mit Hilfe der agilen Web-Integrationswerkzeuge. Mit Hilfe von Textanalytik können dann diese Quellen ausgewertet werden. Das liefert nicht nur statistische Information, wo und wie viele Spuren sich im Web und in den Social Media befinden, sondern mit Hilfe von

Prof. Wolfgang Henseler (Hochschule Pforzheim), Keynote „„Schöne, smarte Welt – Wenn die Qualität der Daten der neue Wertmaßstab ist und persönliche Daten immer häufiger zur Währung werden.“ anlässlich der Best in Cloud 2014 (IDG Business Media). 56

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 199

Wolfgang Martin Team Stimmungsanalysen (sentiment analysis) lässt sich auch die Tonalität aller Beiträge bestimmen. SQL steht für „sequential query language“. Es ist eine mengentheoretisch orientierte, standardisierte Abfragesprache für relationale Datenbanksysteme. Stammdaten sind fachlich orientierte Metadaten, die die Basis für das Business-Vokabular darstellen. Es sind die Metadaten, die die Business-Strukturen wie Anlagen, Produkte und Dienstleistungen und die Geschäftsparteien (beispielsweise Lieferanten, Kunden, Mitarbeiter, Partner etc.) beschreiben. Damit erhält man eine einheitliche Sicht auf alle Unternehmensstrukturen. Textanalytik ist eine Erweiterung von Analytik, insbesondere von Data Mining und Text Mining und bringt Analytik ins Content Management und ins World Wide Web. Es verbindet linguistische Verfahren mit Suchmaschinen, Text Mining, Data Mining und Algorithmen des maschinellen Lernens. Total Quality Management (TQM) bezeichnet die durchgängige, fortwährende und alle Bereiche einer Organisation erfassende, aufzeichnende, sichtende, organisierende und kontrollierende Tätigkeit, die dazu dient, Qualität als Systemziel einzuführen und dauerhaft zu garantieren. TQM wurde in der japanischen Automobilindustrie weiterentwickelt und schließlich zum Erfolgsmodell gemacht. TQM benötigt die volle Unterstützung aller Mitarbeiter, um zum Erfolg zu führen. Web-Analyse meint die Anwendung von Performance Management und Analytik auf das Nutzen von und Verhalten auf Webseiten durch die Besucher („Internauten“). Wissensmanagement hat zwei Aufgaben, den Wissenstransfer von Person zu Person und die Dokumentation von Wissen. Es geht nicht nur darum Wissen in die Köpfe der Mitarbeiter im Unternehmen zu bringen und dort zu halten, sondern vielmehr auch darum, dieses Wissen zu extrahieren und für andere nutzbar zu machen. YARN (Yet Another Resource Negotiator). Hadoop YARN ist eine Cluster-ManagementTechnologie. Es ist ein wesentlicher Baustein in der Hadoop 2 Version der Apache Software Foundation. YARN spielt die Rolle eines großangelegten, verteilten Betriebssystems für BigData-Anwendungen.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 200

Wolfgang Martin Team Liste der Abkürzungen ACID B2B B2C BAM BI BIaaS BPM BYOD CAD CAGR CAM CC CEP CDC CDO CFO CIO CMO CPM CPO CRM CRUD DBA DBMS DI DW DWaaS EDH EII ELT ERP ESB ESDB ETL GIS GRC HDFS HLQL HOLAP IaaS IoT IT KPM

atomicity, consistency, isolation, durability business to business business to consumer business activity monitoring business intelligence business intelligence as a service business process management bring your own device computer aided design compound annual growth rate computer aided manufacturing competency center complex event processing change data capture chief data officer chief financial officer chief information officer chief marketing office corporate performance management chief performance officer customer relationship management create, read, update, delete Datenbank-Administrator database management system Datenintegration data warehouse data warehouse as a service enterprise data hub enterprise information integration extract, load, transform enterprise resource planning enterprise service bus enterprise service data bus extract, transform, load geographical information system governance, risk management and compliance Hadoop distributed file system high level query language hybrid OLAP infrastructure as a Service Internet of Things information technology key performance metric

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 201

Wolfgang Martin Team LLDM M2M MDM MDM MR MOLAP MPP NFC NoSQL ODS OODB OLAP OLTP OPEX PaaS PM PPM REST RDBMS RFID ROLAP ROI SaaS SDK SLA SME SOA SOM SQL SWAT TQM XML YARN

low latency data mart machine to machine (communication) master data management mobile device management map reduce multidimensional OLAP massively parallel processing near field communication not only SQL operational data store objekt-orientierte Datenbank online analytical processing online transactional processing operational expenditure platform as a service performance management process performance management representational state transfer relational DBMS radio frequency identification relational OLAP return on investment software as a service software development kit service level agreement small medium enterprise service oriented architecture self-organising maps sequential query language special weapons armed team total quality management extensible markup language yet another resource negotiator

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 202

Wolfgang Martin Team

13

Die Sponsoren

Actuate is now OpenText Actuate, jetzt OpenText, bietet integrierte Analyselösungen für datengesteuerte Unternehmensapplikationen, Big-Data-Auswertungen und Kundenkommunikation. Mehr als 3,5 Millionen BIRT-Entwickler und 200 Millionen Kunden nutzen bereits die eingebetteten ActuateAnalysesysteme und entwickeln skalierbare, sichere Applikationen, die Zeit sparen und das Markenerlebnis steigern. OpenText ist einer der führenden Anbieter von Enterprise-Information-Management-(EIM)-Software. Firmen jeder Branche nutzen diese Systeme in-house, in Rechenzentren oder in der Cloud. Über 100.000 Unternehmen setzen auf OpentText-Lösungen, um das Potenzial ihrer Informationen voll auszuschöpfen. Mehr Informationen auf www.actuate.com und www.opentext.com.

Das modulare Produktportfolio von Acutate richtet sich an die Einsatzbereiche  Customer-Facing-Applications & OEM mit der Technologie von BIRT und BIRT iHUB, die von weltweit mehr als 3 Milionen BIRT Entwicklern unterstützt wird. BIRT ist eine anerkannte, integrierte Entwicklungsumgebung und Deployment-Plattform, mit der Analysen, Dashboards, und anspruchsvolle Datenvisualisierungen erstellt werden können, die nahtlos und sicher in jede Unternehmens- oder OEM-Applikationen eingebunden werden können.  Big Data Business Analytics mit der Technologie von BIRT Analytics und ist geeignet für interne Fachanwender. Diesem werden Big Data Analytics und visuelles Datamining jederzeit ermöglicht, um das Kundenverhalten vorherzusagen, ohne auf Datenexperten angewiesen zu sein.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 203

Wolfgang Martin Team  Output

Management

for

Customer

Communications

für

ECM-Architekten,

die

hochvolumige Kundenkommunikation mit pixelgenauem Belegdesign liefern, und deren Verarbeitung und Speicherung managen. Hierfür steht BIRT iHub for Content Services zur Verfügung. Mehr Informationen auf www.actuate.com und www.opentext.com, sowie zur BIRT Community unter www.birt-exchange.com.

arcplan Information Services arcplan ist ein führender innovativer Softwareanbieter von Business Intelligence, Dashboard-, Corporate Performance- und Planungslösungen, die steuerungsrelevante Informationen interaktiv auf PCs und mobilen Endgeräten bereitstellen. arcplan-basierte Lösungen verbessern die operative Leistungsfähigkeit der Unternehmen unter Verwendung Ihrer bestehenden Infrastruktur. Kunden und Partner nutzen das arcplan-Lösungsangebot wie in der Abbildung auf der folgenden Seite dargestellt. Folgende Produkte werden dabei genutzt: arcplan Enterprise, das zentrale Business Intelligence (BI)-Produkt von arcplan, ist eine hochflexible BI-Plattform, die weltweit von mehr als 3.200 Kunden für den Aufbau und Betrieb von analytischen Anwendungen, Dashboards und Berichtssystemen genutzt wird. arcplan Edge ist eine vorkonfigurierte Lösung für Budgetierung, Planung und Forecasting und kombiniert Planungsfunktionen mit den Stärken der Prozesssteuerung und dem Webbasierten Berichtswesen von arcplan Enterprise, sowie die Integration mit Excel. arcplan Engage ergänzt als umfassendes Self-Service-Angebot das arcplan Portfolio. Es bringt mit „Search & Collaboration“ Web 2.0-Funktionen in die BI-Welt, erlaubt die Integration unstrukturierter Datenhaltungssystemen und bietet via arcplan Spotlight bzw. arcplan Excel Analytics erweiterte SelfService-Analysefunktionen für arcplan-Systeme. Ab Version 8 ist die arcplan-Plattform auch direkt für den mobilen Einsatz gerüstet. Durch den Einsatz von HTML5 in Kombination mit dem Prinzip des Responsive Designs für die Applikationserstellung ist jede arcplan-Anwendung direkt – und angepasst auf das Endgeräteformat – vom Desktop über Smartphone bis zum Tablet direkt einsetzbar. Einmal entwickelt, überall einsetzbar. Oder eben DORA – Design Once, Run Anywhere. Alle arcplan-Produkte besitzen mit dem arcplan Application Designer eine zentrale, grafisch ansprechende Entwicklungsumgebung, mit deren Hilfe Kunden schnell und erfolgreich ihre Projektziele umsetzen und sowohl Zeitplanung als auch Budget einhalten können. Anwendungsvorlagen erleichtern den Entwicklungsprozess noch weiter. Als zentraler BI-Motor für alle Corporate Performance Management-Aufgaben im Unternehmen dient der arcplan Application Server. Er ist aktuell für Windows® als 32 bit- und 64 bit-Version erhältlich. arcplan Enterprise bietet die bi-direktionale Verbindung zu unterschiedlichen SAP-Datenquellen, einschließlich SAP HANA, SAP BW und SAP BW-IP. Gleichzeitig bietet arcplan EnterpriseSchnittstellen zu einer Vielzahl anderer Datenquellen, wie Oracle (jede Oracle-Datenbank, Oracle

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 204

Wolfgang Martin Team OLAP, Oracle Essbase, Hyperion Financial Management, Hyperion Enterprise), Hadoop, IBM (Cognos TM1, IBM DB2 UDB, DB2 Cubing Services), Kognitio, Microsoft (SQL Server & Analysis Services), Salesforce.com, Teradata, Cloudera Impala, LucaNet, jede ODBC-, OLE DB-, XMLA-, XML-Datenquelle oder Web-Service/SOA Systeme mit offener API.

Übersicht arcplan-Lösungsangebot Seit 1993 hat arcplan weltweit mehr als 3.200 Kunden ermöglicht, die Effizienz ihrer Unternehmensabläufe durch die effektive Verbindung von Information und Analyse entscheidend zu verbessern. Zu den Kunden von arcplan zählen Unternehmen aus allen Branchen. arcplan Enterprise® ist laut The BI Survey 14 (2014) die Nr. 1 bei den Werkzeugen eines Drittanbieters für SAP BW, Oracle Essbase und IBM Cognos TM1. Weitere Information finden Sie unter: www.arcplan.de

Cubeware GmbH Die 1997 gegründete Cubeware GmbH mit Sitz in Rosenheim und elf weiteren Niederlassungen in Europa, den USA und Asien ist einer der führenden Anbieter innovativer Business-Intelligence(BI)Software. 3.000 Kunden vertrauen weltweit auf Cubeware BI-Know-how aus 17 Jahren und das weltweit aktive Partnernetz.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 205

Wolfgang Martin Team Die BI-Plattform für Ihren Erfolg Die „Cubeware Solutions Platform“ ist eine leistungsstarke BI-Plattform, mit der sich unterschiedliche Anforderungen im Hinblick auf die nachhaltige Unternehmenssteuerung optimal umsetzen lassen. Sie zeichnet sich durch ihre Integrationsfähigkeit und Benutzerfreundlichkeit sowie durch ihre technische und fachliche Skalierbarkeit aus. Sie ist die einzige „app-able“ BI-Plattform der Branche:

Moderne BI-Projekte lassen sich mit ihrer Hilfe vom Daten-management über die rollenbasierte Nutzerverwaltung bis hin zu Analyse, Planungs- und Reportingkompo-nenten vollständig in einer einfach zu bedienenden BI-Lösung umsetzen. Durch das effektive Zu-sammenspiel der PlattformKompo-nenten wird sie den Bedürfnissen von IT (Data & BI Governance), Fachanwendern (spezifische Lösungen) und des Managements (konsolidierter & tagesaktueller Überblick) jederzeit gerecht.  Für alle Branchen  Für alle Unternehmensgrößen  Für alle Anwendergruppen  Für alle Vorsysteme Produkte & Services Cubeware bietet ein innovatives, branchenunabhängiges Komplett-Portfolio für BI mit folgenden Plattform-Komponenten:  Cubeware Cockpit V6pro (Windows & Web) und Cubeware Mobile BI (Mobile Device Access)  Cubeware Team Server V6pro (Organisations- & Nutzermanagement-Tool)  Cubeware Importer (ETL- & Datenintegrations-Tool) Neben den Kernkomponenten der Plattform bietet Cubeware mit „Cubeware Connectivity for SAP® Solutions“ eine von SAP zertifizierte Schnittstelle für die kongruente und sichere Kommunikation

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 206

Wolfgang Martin Team zwischen SAP- und Cubeware-Lösungen. Auch stehen mehrere BI-Templates für SAP FI, CO, SD und MM zur Verfügung, die für die standardisierte Datenübernahme bereitstehen. Die umfassenden BI-Funktionalitäten werden passgenau in Windows, im Web und – dank der App „Cubeware Mobile BI“ – auf mobilen Endgeräten umgesetzt. Cubeware-Software fügt sich nahtlos in Plattformen von EXASOL, IBM, Infor, Microsoft, Oracle und SAP ein. Als Datenbanken werden, je nach Anforderung, EXASolution, IBM Cognos TM1, Infor ION BI, Microsoft SQL Server Analysis Services, Oracle Hyperion Essbase und SAP NetWeaver Business Warehouse genutzt. Alle Cubeware-Produkte und -Lösungen zeichnen sich durch ihre einfache Bedienbarkeit, sehr kurze Implementierungszeiten und einen transparenten ROI aus. Durch das starke Partnernetz und die Cubeware-eigenen Consulting- und Supporting-Teams ist eine hohe Umsetzungskompetenz garantiert. Weitere Informationen sind unter www.cubeware.com abrufbar.

Datawatch GmbH Datawatch ist Spezialist für Visual Data Discovery und Datenmanagement – speziell im BigData-Umfeld. Mit Datenvisualisierung lassen sich Anomalien und Ausreißer in großen Datenmengen schnell und sicher aufspüren und in Echtzeit analysieren. Die Lösungen ermöglichen den einfachen Zugriff auf verschiedene Datenquellen und die Umwandlung beliebiger Datenformate in strukturierte Daten – ganz ohne Systemschnittstelle. Weltweit agierende Finanzinstitute, Telekommunikationsunternehmen, Energiekonzerne und Unternehmen aus anderen Branchen nutzen die Datenvisualisierungssoftware, um große Datenmengen in Realtime zu analysieren. Datawatchs „Visual Data Discovery Technology“ ermöglicht die schnelle Visualisierung von Big Data als Basis von Fraud-Detection, Risiko-Analyse, Performance Monitoring und vielen weiteren Bereichen. Datenvisualisierung auf Basis neuester Technologie Mit Visual Data Discovery stellen Unternehmen ihre Daten in ansprechenden und leicht verständlichen, interaktiven Visualisierungen dar und erkennen unmittelbar Zusammenhänge, Trends, Risiken und Chancen. Selbst in großen und komplexen Datenbeständen sowie Big-Data-Umgebungen lassen sich so Anomalien und Ausreißer in Echtzeit schnell und interaktiv aufdecken und deren Ursache analysieren. Im Unterschied zu den üblichen BI-Lösungen, die meist nur das darstellen, was ohnehin schon bekannt war, ermöglicht Datawatch Desktop einen neuen Blick auf die Daten und zeigt bisher unbekannte Fakten und Zusammenhänge. Datawatch punktet damit in der Verarbeitung komplexer Daten (Variety), bei der Geschwindigkeit und bei geringen Latenzzeiten (Velocity) sowie bei Big Data (Volume). Die Lösung bietet grafisch ansprechende, aussagekräftige Visualisierungen, die von Powerusern schnell und ohne Programmieraufwand vorbereitet werden können.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 207

Wolfgang Martin Team Die Vorteile von Datawatch-Lösungen Im Unterschied zu anderen Marktbegleitern bietet Datawatch die Möglichkeit, komplexe Datenstrukturen zu integrieren. Strukturierte, unstrukturierte und semi-strukturierte Datenquellen, etwa aus Berichten, PDF-Dateien und EDI-Streams, lassen sich ganz ohne Systemschnittstellen in strukturierte Daten umwandeln und mit Echtzeit-Datenstreamings, etwa aus Tick-Datenbanken, in Analytics-Applikationen zusammenführen. Darüber hinaus bietet Datawatch bei Bedarf echte Realtime-Visualisierungen. Anders als bei marktüblichen Technologien benötigt Datawatch keine RAM-Datenbank, in der große Datenmengen zwischengelagert werden. Große Datenmengen aus einer CEP-Engine beispielsweise stehen innerhalb von Millisekunden und damit tatsächlich in Echtzeit zur Verfügung, da sie nicht zwischengespeichert werden müssen. Auch Daten aus SAP HANA lassen sich mit Datawatch visualisieren.

Zielbranchen/Anwendungsbeispiele Der Mehrwert von Datawatch Desktop zeigt sich in zahlreichen Anwendungsfeldern, unter anderem für: • Finanzdienstleister (aussagekräftige Echtzeit-Informationen aus dem Trading), • Maschinenbau/Produzierendes Gewerbe (Fehlertoleranzen in Echtzeit überprüfen, z. B. in der Chip-Produktion), • Energieversorger (z.B. Windturbinen überwachen), • Telekommunikationsunternehmen (Netzüberwachung für mehr Ausfallsicherheit), • Pharmaindustrie (Qualitätsüberwachung in der Produktion und Auswertung großer Versuchsreihen) und • alle Branchen (Vertriebssteuerung und Plausibilitätsprüfung der von Vertriebsmitarbeitern eingegebenen CRM-Daten). Weitere Information finden Sie unter www.datawatch.de.

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 208

Wolfgang Martin Team

pmOne AG Die 2007 gegründete pmOne AG ist ein Software- und Beratungsunternehmen mit Lösungsangeboten zum Thema Business Intelligence und Big Data. Dafür werden die technologischen Plattformen von Microsoft und SAP um die eigenentwickelte Software cMORE ergänzt. cMORE hilft Anwendern unter anderem dabei, skalierbare Lösungen für Reporting und Analyse schnell aufzubauen, effizient zu betreiben und zu erweitern. Mit Tagetik vertreibt und implementiert die pmOne AG eine weltweit führende Softwarelösung für Unternehmensplanung und Konsolidierung. Zur pmOne-Gruppe gehört die MindBusiness GmbH, die auf SharePoint-Lösungen und Dienstleistungen für Office-Rollouts spezialisiert ist. Die pmOne AG hat 200 Mitarbeiter und ist an acht Standorten in Deutschland, Österreich und der Schweiz vertreten.

Abbildung: Die „BI Arena“ macht Excel zum unternehmensweit prozesssicheren „Spielfeld“ für Reporting, Analyse, Planung und Konsolidierung.

Produkte Schneller und effizienter zu Ihrer Lösung mit cMORE cMORE hilft Anwendern, schneller Lösungen für Business Intelligence (BI) und Big Data aufzubauen, zu erweitern und effizient zu betreiben. cMORE nutzt die Software-Infrastruktur von Microsoft, insbesondere den SQL Server, Excel und SharePoint, und erweitert Microsoft BI auch zu einer komplementären BI- und Big-Data-Lösung in einem SAP-Umfeld. cMORE ist ein Akronym für Collaboration, Modellierung und Reporting. Tagetik für Planung und Konsolidierung Tagetik ist eine innovative Softwarelösung für Unternehmensplanung und Konzernkonsolidierung, die sämtliche Geschäftsprozesse im Finanzbereich eines Unternehmens vereinheitlicht. Von der Planung über die Abschlusserstellung bis hin zur Analyse und zum Reporting des Jahresabschlusses – dank seiner innovativen, offenen Architektur verfügt Tagetik über nur eine Datenbank sowie einen Satz von Daten und Berechnungsregeln. Mit dieser State-of-the-Art Software-Technologie ist es für Unternehmen leichter denn je, ihre komplexen Geschäftsprozesse im Finanzbereich, insbesondere

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 209

Wolfgang Martin Team Planung und Konsolidierung zu verwalten und zu steuern. Tagetik ist weltweit bei über 700 Unternehmen im Einsatz, darunter sind auch global agierende Konzerne. Führende Marktanalysten bescheinigen Tagetik große Finanzexpertise, Innovationsfähigkeit und hohe Kundenzufriedenheit. Referenzen Die pmOne AG implementiert und betreut Lösungen bei zahlreichen Unternehmen, unter anderem bei  Air Berlin ein unternehmensweites Data Warehouse,  Kistler eine einheitliche Plattform für unterschiedliche Anforderungen des Finanzbereichs,  Henkel die integrierte Konzernplanung,  Heraeus ein Enterprise Data Warehouse,  M+W Group Konzernkonsolidierung, Planung, Reporting, Treasury und Projektcontrolling,  Raiffeisen Bank International Tagetik als flexibles Instrument für die Plankonsolidierung,  Vorwerk unterschiedliche Geschäftsprozesse im Finanzbereich in einer Anwendung. Webseminare Um Interessenten einen ersten Einblick in die unterschiedlichen Themen zu eröffnen, bietet die pmOne AG kompakte Webseminare an. In 60 Minuten können sich Teilnehmer von ihrem Arbeitsplatz aus bei einer interaktiven Online-Präsentation informieren. Aktuelle Termine werden laufend online auf www.pmone.de/webseminare veröffentlicht. Kontakt: E-Mail: [email protected]. Weitere Information auf www.pmone.com.

Uniserv GmbH Die Uniserv GmbH, Pforzheim, ist Experte für erfolgreiches Kundendatenmanagement. Smart Customer MDM, die MDM-Lösung für Kundenstammdaten, vereint Datenqualitätssicherung und Datenintegration zu einem ganzheitlichen Ansatz. Kundendaten stehen dabei im Mittelpunkt von Initiativen für Master Data Management, Datenqualität, Datenmigration sowie Data Warehousing. Firmen wie Sixt, Deutsche Bank und Volkswagen vertrauen dabei auf die Lösungskompetenz und Qualität von Uniserv, im Umfeld von CRM-Anwendungen, eBusiness, Direct und Database Marketing, CDI-Anwendungen, Business Intelligence oder MDM. Bei Performance Management und Analytik geht es darum, Unternehmensziele und Geschäftsprozesse in einem Closed Loop kontinuierlich aufeinander abzustimmen und konsistent zu halten sowie Sachverhalte systematisch zu untersuchen. Grundlage dafür sind die Unternehmensdaten im Allgemeinen sowie die Kundendaten im Besonderen. Um effektiv mit Kundendaten arbeiten zu können, müssen diese über ihren gesamten Lebenszyklus hinweg verstanden, gepflegt, geschützt und überwacht werden. Auf der technischen Seite gewährleistet die Lösung Smart Customer MDM genau das: Die Produkte Data Analyzer (Profiling), Data Cleansing (Bereinigung), Data Protection (First Time Right) und Data Governance (Monitoring) sorgen dafür,

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 210

Wolfgang Martin Team dass die Kundendaten ready for use und dabei vor allem vertrauenswürdig sind. Die Basis hierfür ist der sogenannte Golden Record. Er ist der Schlüssel für eine 360°-Kundensicht und damit für eine verbesserte Prozessqualität durch konsolidierte und zuverlässige Kundenstammdaten über alle Funktionsbereiche, Applikationen und Datenbanken hinweg. Damit stehen dem Business perfekte Daten als Informationsrohstoff zur Verfügung, die optimale Voraussetzung für Performance Management und Analytik. Eben: Better Data. Better Business.

Weitere Information finden Sie unter www.uniserv.com

Viscovery Software GmbH Die Viscovery Software GmbH ist Hersteller eines der leistungsfähigsten Systeme für Explorative Data Mining und Predictive Modeling weltweit. Gegründet 1994 unter dem Namen Eudaptics und seit 2007 ein Unternehmen der Biomax Gruppe, hat Viscovery bereits mehr als 600 Kunden in allen Kontinenten zufrieden gestellt. Anwender in Branchen wie Banken, Versicherungen, Telekommunikation, Industrie, Medien, Handel, Forschungsinstituten und Universitäten schätzen Viscovery aufgrund seiner großen Bandbreite an Einsatzmöglichkeiten und seiner einfachen Bedienung. Dabei wird Viscovery für das Profiling und

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 211

Wolfgang Martin Team Scoring des Kundenverhaltens, für Risiko- und Betrugsanalysen sowie Marktsegmentierungen bis hin zur industriellen Fertigungsoptimierung und zur Analyse von Patientendaten eingesetzt. Viscovery SOMine kombiniert Self-Organizing Maps (SOM) mit multivariater Statistik für den Einsatz im explorativen Data Mining und Predictive Modeling. Mit seiner vielseitigen Zusammenstellung einfach zu bedienender Tools können mit Viscovery Strukturen in hochdimensionalen Datenbeständen visualisiert, Zusammenhänge aufgezeigt und Attribute neuer Objekte geschätzt werden.

Viscovery SOMine, Auszug aus einer Analyse des Churn-Verhaltens von Versicherungskunden. Links sieht man die Attribut-Fenster der SOM für einige ausgewählte Variablen. Der Dialog darunter zeigt die Partitionierung der Karte in 12 Cluster, sowie eine Tabelle mit den Mittelwerten der ausgewählten Attribute in den Clustern. In der Mitte rechts sieht man die Cluster-Charakteristiken, i.e. jene Attribute, die den jeweiligen Cluster signifikant beschreiben. Die rot bzw. blau hinterlegten Variablen nehmen den größten bzw. kleinsten Profilwert im betreffenden Cluster an. Ganz rechts sind übereinander die vollständigen Clusterprofile angezeigt. Die verschiedenen Fenster können vom Benutzer frei kombiniert und als Arrangements gespeichert werden.

Self-Organizing Maps dienen dabei zur Repräsentation der Datenverteilungen in Perceptual Maps. Mit intuitiven Tools für visuelle Cluster- und Profilanalysen können darin Daten explorativ erforscht und verborgene Zusammenhänge aufgedeckt werden. Die auf Basis der patentierten Technologie erstellten Klassifikations- und Scoring-Modelle ermöglichen treffsichere Prognosen. Für statistische Analysen steht eine Vielzahl einfach zu bedienender Funktionen wie deskriptive Statistiken, Korrelationsanalysen, PCA, Histogramme, Box-Plots, Streudiagramme oder Frequenztabellen zur Verfügung. Viscovery ist eine leistungsfähige Software Suite, die Anwendern auf jedem Wissenslevel – vom Business User bis zum Data Scientist – ein passendes Werkzeug an die Hand gibt. Die interaktive Oberfläche von Viscovery ermöglicht auch Benutzern ohne statistisches Vorwissen, Zusammenhänge in den Daten intuitiv zu erkennen, visuelle Clusteranalysen zu erstellen und daraus Gruppenprofile

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 212

Wolfgang Martin Team abzuleiten. Dabei wird der gesamte Data-Mining-Prozess vom Datenimport über die Clusterdefinition und die prädiktive Modellierung bis zur Erstellung der Applikation durch Workflows unterstützt. Eine besondere Stärke zeigt Viscovery im Bereich der explorativen Analyse von Big Data. Da eine SOM die Struktur einer Datenverteilung in einer Perceptual Map repräsentiert, können bereits aus kleinen Samples Zusammenhänge in den Daten aufgedeckt werden. Die visuelle Analyse kann zur Entdeckung interessanter Daten-Cluster führen, die wiederum zur Formulierung von Hypothesen genutzt werden können. Mit seiner starken Ausrichtung auf die Visualisierung komplexer Datenverteilungen hat sich Viscovery zum Technologieführer im Data Mining auf der Basis von SOM und statistischen Verfahren entwickelt. Bereits 2008 wurde Viscovery als der einzige kontinental-europäische Data-Mining-Anbieter in Gartner's "Magic Quadrant for Customer Data Mining Applications" gelistet. Weitere Information zu Viscovery finden Sie auf www.viscovery.net.

Impressum Dr. Wolfgang Martin S.A.R.L. Martin 6 rue Paul Guiton 74000 Annecy - France

www.wolfgang-martin-team.net N° TVA FR81413866625 RCS Annecy B 413 866 625 00010 NAF/APE 6202A

BI trifft BPM und Big Data / Wolfgang Martin

März 2015

Seite 213

View more...

Comments

Copyright © 2017 HUGEPDF Inc.