On-Demand Webinar: Data-driven Excellence

Wie man aus Datensilos relevante Insights über Kunden und ihr (digitales) Verhalten gewinnt

Das erfahren Sie im Webinar:

Datenmengen nehmen ununterbrochen zu, doch die Herausforderung ist es, diese gewinnbringend für das Unternehmen zu nutzen. Die erfolgreiche Anwendung von Big Data wird durch deren gezielte, fortlaufende Generierung, Aufbereitung, Analyse und Optimierung ermöglicht. Durch Data-driven Excellence können die Auswirkungen sämtlicher digitaler Aktivitäten auf die wichtigsten KPIs und das Geschäftsmodell eines Unternehmens für alle digitalen Kernbereiche gemessen und somit verwaltet werden.

Neben konkreten Vorgehensmöglichkeiten und Best Practice Beispielen zeigen wir, für welche Anwendungsfelder Data Management für Data-driven Excellence relevant ist, wie Unternehmen Datensilos abbauen und Big Data für sich nutzen können, welche Datenstrategie daraufhin verfolgt werden soll und welche Handlungsfelder adressiert werden müssen, um Data-driven Excellence erfolgreich in Unternehmen zu etablieren.

Jetzt online ansehen:

Die Referenten

Albert Brenner gründete bereits im Jahr 1995 seine erste Internetagentur, er entwickelte erfolgreich digitale Geschäftsmodelle wie bspw. check24 und maxdome, begleitete Xerox als General Manager Marketing & Sales bei der erfolgreichen Geschäftstransformation und ist Mitgründer der diva-e. Sein Schwerpunkt ist die Beratung und Begleitung führender Marken und Unternehmen bei der Digitalisierung ihrer Kundenschnittstellen und den nachgelagerten internen Prozessen und Strukturen.
Albert Brenner
Head of Strategy Consulting
Jan Stöckel ist studierter Wirtschaftsingenieur und seit 2016 bei diva-e. Zuvor hat er verschiedene Positionen im Bereich E-Commerce und Business Consulting, unter anderem bei AGETO (heute Teil von diva-e) und Telefónica, bekleidet.
Jan Stöckel
Senior Manager Consulting, diva-e

Transkript zum Webinar: Data-driven Excellence

Vorstellung

Angela Meyer: Herzlich Willkommen zu unserem diva-e Webinar Data-driven Excellence. Heute erfahrt ihr von unseren diva-e Experten Albert Brenner und Jan Stöckel wie ihr aus Datensilos relevante Insights über Kunden und ihr digitales Verhalten gewinnen könnt. Mein Name ist Angela Meyer und ich bin im diva-e Marketingteam tätig. Und betreue unsere Events und Webinare und bin heute eure Moderatorin. Jan und Albert, gerne ein paar Worte zu euch.

Albert Brenner: Sehr gerne Angela. Albert Brenner, bin einer der Mitgründer der diva-e, verantwortlich für den Bereich Strategy und Data Consulting. Ich bin ein Urgewächs muss man sagen der digitalen Welt. 97 die ersten Websites gegründet, und bin seitdem immer sehr engagiert und mit viel Freude dabei Unternehmen bei der digitalen Transformation zu unterstützen.

Jan Stöckel: Hallo, mein Name ist Jan Stöckel, bin mittlerweile auch zehn Jahre bei der diva-e. Beschäftige mich auch seit den 2000ern mit Website und E-Commerce Themen. Aktuell verantwortlich für den Bereich Customer Experience und Data, da im Beratungsteam und unterstütze die Kunden von der digitalen Strategie über Konzeption und Aufbau von E-Commerce und Kunden Plattformen. Und dabei spielt das Thema Data, wie wir auch gleich sehen werden, eine wichtige Rolle.

Angela Meyer: Dann starten wir jetzt mit dem Vortrag. Albert, ich übergebe dir die Übertragungsrechte. Und ich wünsche den Teilnehmern viel Spaß beim Zuhören.

Albert Brenner: Ja, vielen Dank Angela für die Intro. Und schön darf ich alle begrüßen nochmal. Freut mich, dass der Jan und ich euch in den nächsten rund 45 Minuten etwas erzählen dürfen über den Weg zu Data Excellence. Das heißt, wie schaffe ich es mit der ich sage mal strukturierten und intelligenten Nutzung von Daten relevante Geschäftserfolge zu generieren? Jan und ich werden uns jetzt in dem Webinar abwechseln, und wir starten erst mal mit der Fragestellung was ihr aus diesem Webinar mitnehmen werdet. Das erste und wichtigste aus unserer Sicht ist, dass wir im Prinzip die größten Hürden von dem Thema-. Sorry, jetzt habe ich hier-. Dass wir die größten Hürden des Themas aufzeigen werden, und im Prinzip darauf eingehen können was kann bei dem Thema Data Excellence sozusagen die Hinderungsblöcke sein. Wo liegt das größte Potenzial für Unternehmen im Bereich Daten? Wir werden über den heiligen Gral KI sprechen, und werden versuchen das Thema auch etwas zu de-mystifizieren. Wir werden darüber sprechen welche Fragen man sich stellen sollte um digital Excellence und vor allem Data-driven Excellence zu erreichen. Und was erwartet man nach der Entwicklung und Umsetzung einer Datenstrategie. Was ergibt sich daraus, welche Vorteile habe ich daraus? Und was ist das beste Vorgehen letztendlich um Data-driven Marketing und Sales zu erreichen? Und letztendlich, und das ist sicherlich so ein ganz wichtiger Punkt, wie startet man schnell? Dass das Thema Data-driven Excellence sozusagen ins Laufen kommt und nicht ein Jahr lang Vorbereitungsphase benötigt. Bevor wir sozusagen in diese Lösungsthemen kommen, würde ich gerne über das Thema Challenges sprechen. Und in Bezug auf Challenges ist die Frage, was sind eigentlich so die Haupttreiber für das Thema Data Excellence?

Challenges und Haupttreiber für Data Excellence

Und wir sehen da im Prinzip zwei Haupttreiber. Das eine ist die Veränderung von Kundenanforderungen, getrieben durch die Digitalisierung. Die Kundenerfahrung, die ich bei Amazon, Google, Apple, Facebook und Co sozusagen erlangt habe, die erwarte ich letztendlich in der Zusammenarbeit auch mit anderen Unternehmen. Da wird sozusagen ein Expectation Level vorgegeben. Und diese Unternehmen erreichen Customer Experience, und damit den Wettbewerbsvorteil, den sie heute haben, insbesondere durch die intelligente Sammlung und Nutzung von Daten. Das ist sozusagen ein Treiber für das Thema. Und das andere Thema, der andere Treiber ist, Digitalisierung hat halt irgendwas mit Systemen zu tun, mit Tools. Und sehr häufig finden wir in unseren Projekten vor, dass es bei den Unternehmen einfach eine gewisse Fragmentierung an Systemen, Stichwort Datensilos, gibt. Und auch das führt natürlich zu der Komplexität Daten wirklich gewinnbringend im Prinzip zu nutzen. Schauen wir uns nochmal genauer an. Was sind da die Hauptprobleme? Kundenerwartungen schon im Prinzip kurz angesprochen.

Die Erwartung ist, dass ich eben nicht als anonymer Kunde adressiert werde, sondern dass ich hoch personalisiert die für mich situativ relevanten Informationen und Angebote zur Verfügung gestellt bekomme. Das auch konsistent über alle Kunden Kontaktpunkte hinweg. Das zweite ist die Explosion dieser Kontaktpunkte. Wo wir früher vielleicht über zwei bis drei Kanäle mit dem Kunden interagiert haben, sind es heute fünf, sechs und sieben die intensiv genutzt werden. Also das Thema Omnichannel-Ansatz. Und jeder dieser Kanäle hat natürlich eigene Systeme und eigene Datensilos dahinter. Und wie schaffe ich es da sozusagen über diese Kanäle hinweg dennoch eine konsistente Kundenerfahrung herzustellen. In der Daten-, in den System liegen dann unterschiedliche Daten, die ich sage mal andere Normierungen haben, andere Strukturen haben, andere Qualitäten haben. Die auch nicht alle so direkt verfügbar sind. Das erzeugt ebenfalls eine Komplexität. Und letztendlich die große Frage, was will ich denn eigentlich mit den Daten erreichen?

Die DSGVO beschreibt ja sozusagen eine reduzierte, und sozusagen eine zielgerichtete Datensammlung. Ich kann nicht wild einfach sammeln, sondern ich muss das sozusagen grundbezogen tun. Und da stellt sich die Frage was sind denn die Anwendungsfelder der Daten? Was kann ich denn mit Daten in meinem Geschäftsmodell, in meinen Strukturen, in meinem Go-To Market letztendlich erreichen? Und das ist eben die Frage nach der Datenstrategie. Und dann letztendlich auch nach der Datenmanagement Infrastruktur. Aus unserer Sicht, Daten ist eines der Hauptthemen der digitalen Transformation. Das heißt, umgekehrt keine digitale Transformation ohne Data-driven Excellence. Und das wollen wir uns jetzt nochmal genau anschauen.

Keine digitale Transformation ohne Data-driven Excellence

Wo sind denn da letztendlich die Hebel? Und in Bezug auf die Hebel sehen wir im Prinzip, dass Daten zu Wettbewerbsvorteilen führen. Aber sozusagen die Frage sich stellt an welcher Stelle, in welchem Bereich kann ich denn letztendlich Wettbewerbsvorteile erzielen? Und was wir sehen ist erstens, dass der größte Hebel für Data Excellence im Marketing und Sales ist. Dort gibt es die Kundenkontakt Schnittstelle, Customer Care, sozusagen alle Dialoge und Interaktionsprozesse mit dem Kunden. Das ist auch das größte Potenzial. Alles was das Thema Preis Management und Promotion, also letztendlich Kampagnen, Dialog Kanäle anbelangt. Das dritte ist, was biete ich dem Kunden letztendlich an, Next Best Offer ist so ein Stichwort, das man immer mal wieder hört. Next Best Action. Das heißt, ein individualisiertes Angebot für den Kunden in seiner spezifischen Situation. Das kann B2B, kann aber auch B2C sein, vollkommen egal.

Letztendlich geht es darum welche Produkte, welche Services biete ich an welcher Stelle im Interaktionsprozess dem Kunden an. Und das Thema Vertrieb, Kunden Akquisition, Lead Generierung, Lead Qualifizierung. Das heißt, wo fokussiere ich eigentlich meine Euros in der Kunden Akquisition. Das sind so die größten Hebel. Natürlich liegt in der Supply Chain, in der Produktion, IoT, vernetzte Produktion, Proactive Maintenance und so weiter, auch viel Potenzial. Aber ist eigentlich in der Summe zumindest einen Tick kleiner als bei Marketing und Sales. Und dann im Post Sales, auch da gibt es natürlich Daten Potenziale, aber das ist eigentlich der kleinste Hebel. Das dritte, auf das ich hinweisen möchte ist, es wird immer viel über KI gesprochen. Der Hinweis an der Stelle, in 95 Prozent, mindestens in 95 Prozent der Fälle, in denen über KI gesprochen wird, sprechen wir über teilweise relativ triviale statistische Modelle. Das kann durchaus auch mal ich sage mal intelligentere Modelle sein bis hin Data Mining, neuronale Netze, Machine Learning. Ich möchte da gar nicht so tief rein. Aber wir sprechen immer von Künstlicher Intelligenz, und man sieht jetzt auch hier, der bei weitem größte Hebel, das größte Potenzial hat eigentlich nichts mit Künstlicher Intelligenz zu tun, sondern das ist einfach teilweise ganz normale Statistik. Und da ist eher die Herausforderung die richtigen Daten zusammenzubringen, und das richtige statistische Modell aufzubauen. Jetzt wollen wir im nächsten, und da würde ich gerne an den Jan übergeben, im nächsten Schritt uns mal genauer anschauen was sind denn diese Komponenten und Module. Gerade in dem Bereich wo das größte Potenzial liegt für die intelligente Nutzung von Daten, im Marketing und Sales. Und der Jan wird uns da einen sozusagen Baukasten mal vorstellen.

Baukasten Data-driven Excellence

Jan Stöckel: Ja, vielen Dank Albert. Nochmal herzlich Willkommen von mir an die neu zugeschalteten Teilnehmer. Wenn wir uns die Hebel anschauen, ist das wie Albert schon sagte, im Wesentlichen der Bereich Marketing, Sales, der hier raussticht und wo wir sehr viele Einsparpotenziale, insbesondere im Bereich Akquisition und Optimierung des Kaufprozesses sehen. Und wie Albert schon sagte haben wir da einen Baukasten, wo wir uns mit Ihnen zusammen anschauen wo gibt es Optimierungsbedarf. Und da ist der erste Bereich, der ganz entscheidend ist sich die Kundenkontaktpunkte über die einzelnen Kanäle, wir sagen dazu Customer Journey, anschauen. Und diesen Bereich grundsätzlich natürlich Touchpoints identifizieren und entsprechenden KPIs, also Key Performance Indices, versehen. Das heißt, hier messen an verschiedenen Kontaktpunkten, wo es digital möglich ist, im Endeffekt über Metriken was an dem Kontaktpunkt passiert, was macht der User, wie verhält er sich und dergleichen. Und können dadurch Ableitungen treffen über Aktivitäten. Das heißt, wir schalten zum Beispiel Marketing Aktivitäten in dem wir SEA Kampagnen schalten, und schauen uns dann an, wie viele klicken auf die Kampagne, wie viele kommen in den Shop, und wie viele konvertieren gegebenenfalls oder brechen ab. Solche Auswertungen sind dann Standard, und lassen uns dadurch natürlich sehr gut einen Einblick geben über die Aktivitätsperformance. Das heißt, über solche Maßnahmen lassen sich Kampagnen sehr gut bewerten. Wir reichern neben den Verhaltensweisen der Kunden natürlich Sachen an, wie was kostet uns die Kampagne Richtung Budget, und können dann natürlich die Kampagnen mit mehr Budget aufplanen, die erfolgreicher sind.

Man lässt dann SEA gegen Display Advertising fahren und dergleichen, und zieht über Conversionrates, oder im Endeffekt andere KPIs, welche ist am erfolgreichsten, welche hat die beste Kosten Umsatz Relation, und die werden dann natürlich besser oder höher alokiert als andere. Das heißt, wir nehmen eine Optimierung direkt an den Touchpoints vor. Und erreichen so eine sogenannte Attributionsoptimierung. Das heißt, Rolle und Wirkung der Kanäle in ihrer Reihenfolge wird genau beobachtet und optimiert unterstützt. Da geht es auch um Retargeting, zu schauen welchen Weg nimmt der Nutzer, und welcher Weg ist der mit der höchsten Abschlussrate oder der Erfolgsrate. Und da einher spielt natürlich auch an welcher Stelle spielt man den Kunden gewisse Informationen aus, oder wie versorgt man den auch mit Informationen? Auch da können wir Ableitungen treffen, wo kann man dem nochmal Informationen zuschicken, falls man Kontaktdaten hat. Oder Richtung Personalisierung, welche Inhalte werden dem Kunden dann im Shop zum Beispiel angezeigt, oder welche Produkt Sortimente interessieren ihn, und wir geben ihm zum Beispiel einen Rabattcode.

Was das ganze natürlich auch bewirkt in den ganzen Kosten, Umsatz ist, dass man über die gesamte Customer Journey einen transparenten Blick erhält. Man kriegt die Kollegen auch im Endeffekt, schafft man bei denen ein Bewusstsein, dass nicht nur der Shop Manager den Shop betreibt, sondern dass der Kunde gesamt betrachtet wird. Und seine Customer Journey von dem ersten Interesse bis hin zum Abschluss und After Sale. Und durch diese Maßnahmen in Marketing, Sales, gibt es natürlich auch zahlreiche in anderen Bereichen, das würde aber jetzt zu weit führen die jetzt detailliert auszuführen, entwickelt man natürlich optimierte Marketing Kampagnen wie wir es schon gesehen haben. Und wir kriegen insbesondere Einblicke wie wir das Geschäftsmodell erweitern können. Wie kann man gegebenenfalls die Produkte dahingehend digitalisieren, dass sie Zusatzservice digital erhalten, oder selbst digital werden, oder ergänzende Services wie schon erwähnt. Transparenz über Kundenkanäle erhält man natürlich, man hat viel mehr Einblick dann über seine Nutzerschaft, wie die sich verhält.

Unternehmen wie Facebook zum Beispiel geben ja auch explizit Informationen zu Altersstrukturen, zu Verhalten und dergleichen zum Teil anonymisiert weiter. Und mit solchen Informationen kann man natürlich auch Rückschlüsse ziehen, was ist überhaupt, welche Zielgruppe springt auf welche Aktivitäten an, welche Zielgruppe ist in welchen Kanälen besonders aktiv. Und man kann dann sehr detaillierte Zielgruppen Clustering vornehmen und die Kampagnen entsprechend ausspielen und auch bespielen. Weiterhin in den Projekten wo wir mit Marketing, Sales Analytics fahren, ist in der Regel ein Vorprozess notwendig, wo wir uns die Daten aus der Vergangenheit anschauen, dann Prognosen erstellen. Auf Basis dieser Prognosen mit konkreten KPIs, wo wir bewerten welche Kanäle werden mit welcher Wahrscheinlichkeit welchen Traffic generieren, also welche Besucherzahlen. Und dann noch abgeleitet über historische Daten. Was sind so typische Conversionrates, und im Endeffekt auch typische Warenkörbe und dergleichen, lässt sich eine sehr gute Vorabplanung für ein Unternehmen durchführen. Und auf Basis dieser Vorabplanung und dieser Vorhersage können wir eine Prognose starten, und diese Prognose wird dann parallel immer mit dem Ist Zustand verglichen. Und Sie haben eine sehr gute Transparenz darüber was für Aktivitäten gerade laufen. Laufen die so wie es geplant ist, oder müssen Sie gegebenenfalls nochmal nachlegen und zusätzlichen Newsletter zum Beispiel aktivieren, um vielleicht den Umsatz in der Woche oder in dem Quartal noch zu erreichen. Also alles auch Perioden bezogen. Und im Endeffekt wird die ganze Kundenkommunikation optimiert und Kunden orientiert ausgerichtet.

Das Ganze ist wie gesagt faktenbasiert, das heißt, die Entscheidungen treffen wir nicht nach Bauchgefühl, sondern nach konkreten KPIs die mit Ihnen zusammen festgelegt werden. Und wir spielen natürlich da unsere große Erfahrung aus vielen Commerce und anderen Projekten mit ein. Und strukturierte Vorgehensweise ist natürlich selbstverständlich. Da kommen wir aber gleich nochmal im Detail drauf. Und ich will Ihnen auf der nächsten Folie nochmal zeigen, dass wenn man solche Systeme zum Einsatz bringt, das auch das Unternehmen voranbringt.

Denn es hat sich wirklich gezeigt das zwei Drittel der führenden Organisationen wirklich sagen, dass sie im Endeffekt über solche Methodiken sehr gute Aussagen treffen können über das Geschäft. Und das nicht nur über das Bauchgefühl tun. Das ist sicherlich eine Aussage die in der aktuellen Welt, wo wir mit sehr viel Daten konfrontiert werden, wichtig dass Sie sich auch mit Ihrem Unternehmen in dem Bereich beschäftigen. Und 70 Prozent der Marketing Experten sagen auch dass ihre Unternehmen, oder in ihrem Unternehmen die Entscheidungen wirklich auf Daten getroffen werden, und nicht mehr rein aus Prognosen, die vielleicht auf Basis von normalen Werten oder allgemeingültigen Zahlen basieren. Sondern auf Basis eigener Analysen. Und Daten getriebene Organisationen haben meistens dreimal häufigere Entscheidungsfindungsprozesse, und es ist wesentlich effektiver so mit Daten zu arbeiten als vielleicht über alt her gediente Weisen.

Einflussfaktoren von Data-driven Excellence

Und dass es heutzutage möglich ist mit Daten überhaupt zu arbeiten, das ist natürlich der technologischen Weiterentwicklung geschuldet. Der Albert sagte es schon, es ist ein Hauptteil der Digitalisierung. Und auch die heutigen Systeme und Module, ich sage mal auch die Erweiterungen an Services die Cloud Produkte und auch E-Commerce Systeme, CMS Plattformen, sowie Analytik und Online Marketing Tools mitbringen, ermöglichen mittlerweile ein sehr einfaches Setup. Wir sehen das gleich an derartigen Analyse Möglichkeiten. Die Daten liegen nicht immer mehr in Silos, sondern können so einfacher konsumiert und angereichert werden. Wenn Sie sich dann jetzt im Endeffekt mit dem Thema weiter beschäftigen wollen, sagen ja das Thema Daten Strategie, Daten ist ein wichtiges Thema für mein Unternehmen, müssen Sie sich natürlich mit gewissen Fragestellungen beschäftigen. Und die haben wir auch heute mal mitgebracht für Sie. So die acht wichtigsten Fragen, die aus Unternehmer Sicht Sie sich stellen sollten um mit dem Thema zu starten. Wenn Sie die beantwortet haben können Sie sicherlich auch mit uns direkt in Dialog treten. Und die erste ist natürlich, wie können datengetriebene Prozesse, oder datengetriebene Eigenschaften die Entscheidungen im Unternehmen in der Zukunft beeinflussen? Und wie können daraus auch Entscheidungen abgeleitet werden? Und das beschreibt im Endeffekt den Bereich Use CCases sehr gut. Das heißt, man beschäftigt sich also wie kann man operativ mit Daten einen Effekt erreichen. Und dazu gehört es die umliegenden Prozesse genau zu beleuchten, und zu schauen im Endeffekt habe ich schon Daten an der Stelle, laufen wo Daten aus? Wo liegen die? Liegen die in Silos oder sind die schon konsolidiert vorhanden? Und wie kann ich den Prozess optimieren? Das heißt, welches Ziel habe ich konkret, was will ich damit erreichen? Will ich bessere oder höhere Kundenzufriedenheit, oder möchte ich mehr Umsatz? Und diese Fragen sollten Sie sich in diesem Prozess stellen. Und dann da einhergehend mit einer Datenstrategie den Use Case genau ausformulieren.

Das heißt, wir sprechen ja heute hauptsächlich über Marketing, Vertriebsprozesse. Das heißt, konkrete Wirkung priorisieren. Man hat dann sicherlich zahlreiche Use Cases identifiziert, muss sich dann Gedanken machen, welcher ist vielleicht der Use Case, den wir zuerst starten. Das heißt, man sollte sich nochmal mit den Anforderungen beschäftigen. Das heißt, welche externen und internen Anforderungen gibt es an den Prozess? Der Albert hat das schon erwähnt. Ist das vielleicht auch was mit DSGVO? Das heißt, wenn Sie Kunden direkt ansprechen brauchen Sie natürlich Doppel Opt-in, um eventuell da zu arbeiten und dergleichen. Das wird in dem Anforderungsmanagement genau erläutert. Und dann schauen wir uns die aktuelle Situation an. Das heißt, wir schauen uns den Reifegrad des Unternehmens an, wo sind Sie, mit welchen Tools arbeiten Sie? Haben Sie vielleicht schon ein System an Bord, mit dem man Daten getriebene Prozesse realisieren, Auswertungen durchführen kann, oder vielleicht auch Dashboards direkt aufbauen? Oder muss das alles neu aufgesetzt werden? Dann ist es abhängig auch von Ihren eigenen Vorlieben. Arbeiten Sie on Premise, oder haben Sie schon Cloud Anwendungen? Und wir entscheiden uns dann im Endeffekt für eine gewisse Technologie, und arbeiten daher mit Tools von Drittanbietern zusammen. Welche das sind werden wir Ihnen gleich noch vorstellen. Ja, dann geht es um die Daten getriebenen Fähigkeiten im Unternehmen ausbauen, in der Regel existieren da noch nicht so viele Personen, die sich intensiv damit beschäftigen. Sie brauchen Data Analysten, das ist mittlerweile ein rares Gut auf dem Markt. Und Kollegen, die damit verstehen umzugehen, wissen wie man Daten liest, und viel wichtiger, sich auch damit auseinandersetzt. Wie werden die visualisiert, um dann dem Business die Informationen zur Verfügung zu stellen. Data Governance da einhergehend auch ein wichtiges Thema. Wie wird mit den Daten umgegangen, welche Berechtigungen gibt es im Unternehmen, wer darf wo Zugriff haben? Und wie gesagt, da spielt auch DSGVO und Co rein.

Und die letzte wichtige Fragestellung. Existiert eine Struktur oder im Endeffekt eine Initiative für digitale Transformationen im Unternehmen, wo das angegliedert ist, und Data-driven Enterprise dies begleitet wird, um im Endeffekt die Voraussetzung zu schaffen, dass Sie mit den Daten überhaupt arbeiten, und es nicht ein extra Projekt ist was gesondert betrachtet wird. Haben Sie sich mit den Fragestellungen beschäftigt, dann sind Sie gut vorbereitet, um in so ein Projekt zu starten. Und wir freuen uns sehr gerne auf Ihre Antworten, und ich würde jetzt wieder an Albert übergeben, der einen kurzen Einstieg gibt über Best Practices und welche Möglichkeiten es gibt mit Datenauswertungen im Unternehmen vorzunehmen.

Albert Brenner: Vielen Dank Jan. Bevor wir das sozusagen machen hatten wir uns überlegt im Webinar- die Dialog Fähigkeit ist natürlich begrenzt, aber wir dachten zumindest mal einen kurzen Impuls Ihrer Seite von den Zuhörern. Angela, dafür haben wir eine Frage vorbereitet in die Gruppe.

Angela Meyer: Genau. Danke Jan und Albert. Und zwar haben wir eine Frage an Teilnehmer vorbereitet, um eben herauszufinden ob Ihr bereits Big Data nutzt, um relevante Insights über eure Kunden und ihr digitales Verhalten zu gewinnen. Ich starte jetzt hier mal die Umfrage. Und ihr habt Zeit hier jetzt diese Frage zu beantworten. Und im Nachgang werden wir dann in der Fragerunde dann auch die Ergebnisse gemeinsam analysieren. (8 Sek.) Wir geben euch ein paar Sekunden Zeit. Genau. Werden dann in der Fragerunde eure Antworten gemeinsam betrachten. Das wird interessant. (8 Sek.) So, mehr als die Hälfte hat auch schon gevotet. (7 Sek.) Und ich würde jetzt in zehn Sekunden auch die Umfrage wieder schließen. Und dann kann Albert mit dem Vortrag weitermachen, und die Umfrage Ergebnisse betrachten wir später. Ja.

Data Analytics im Unternehmen

Albert Brenner: Cool, super. Danke Angela. Wir kommen jetzt gleich auf die Umfrageergebnisse. Jetzt passiert im Hintergrund datenanalytischer Voodoo, so dass wir da dann gleich draufgucken können. Apropos Voodoo, wie machen es andere erfolgreiche Unternehmen? Da haben wir jetzt vier Beispiele mal mitgebracht, um einfach mal aufzuzeigen, eine Bandbreite aufzuzeigen wie sich andere Unternehmen mit dem Thema Data Analytics beschäftigen. Wir begleiten ja viele Unternehmen, und es gibt eigentlich so fünf Themen, oder fünf sage ich mal Fähigkeiten auch die Unternehmen auszeichnen, die mit der sozusagen Nutzung von Daten erfolgreich sind. Das eine ist das grundsätzliche Vertrauen in Daten. Das heißt, wenn ich jetzt letztendlich sage ich will einen Prozess automatisieren auf der Basis von Daten, oder wenn ich Entscheidungen treffen möchte auf der Basis von Daten, dann kann natürlich immer noch der Mensch letztendlich die finale Entscheidung treffen. Aber ich muss auch auf die Daten, die mir da gesammelt werden und die mir aufbereitet werden als Entscheidungsunterstützung letztlich vertrauen. Und dafür müssen die Daten auch vertrauenswürdig sein.

Das heißt, Thema auch Datenqualität, Datenkonsistenz, Datenvollständigkeit muss gegeben sein. Das zweite ist ein grundsätzliches Commitment dass Daten als ein strategisches Asset gesehen werden. Nicht umsonst sagt man sozusagen Daten sind wie Gold suchen, und man sucht dann sozusagen die Nuggets in den Daten, die Goldstückchen in den Daten, durch analytische Verfahren. Beziehungsweise Daten sind das neue Öl, sozusagen der neue Rohstoff der digitalen Ära. Das heißt, ich brauche ein gewisses Commitment das beispielsweise auch in Investitionen hinführt, dass auch Ressourcen Allokation hinführt, Daten als strategisches Asset zu sehen. Ich brauche die notwendigen Talente. Der Jan hat es schon angesprochen, Data Scientisten sind gefragte Fähigkeiten aktuell im Markt. Und die Daten entstehen dadurch nicht, dass ich sie-, oder der Datenschatz entsteht dadurch nicht dass ich sozusagen die Daten für mich behalte, sei es der Mitarbeiter, sei es der Geschäftsbereich. Sondern es geht darum Daten zusammenzuführen. Und durch die Zusammenführung entsteht eigentlich wirklich erst die notwendige Basis, um intelligente Analysen und letztendlich auch die daraus resultierenden Erkenntnisse abzuleiten. Das heißt, insgesamt geht es auch in der Organisation um Mindset rund um das Thema Data. So, jetzt schauen wir uns mal an, vier Unternehmen hatten wir ja gerade schon versprochen. Wie machen es die, welche sozusagen Use Cases bedienen die? Und wir haben jetzt hier mal herausgenommen OSRAM. Ich denke das Unternehmen ist bekannt. Und die haben im Rahmen ihrer Digitalstrategie unter anderem das Handlungsfeld Data-driven Decision Making in Marketing und Vertrieb als sozusagen Handlungsfeld identifiziert. Und sind so vorgegangen, dass sie gesagt haben welche Ziele, welche Business Ziele muss denn das Marketing eigentlich erreichen in oberster Ebene? Umsatz, Share of Wallet Erhöhung bei den Bestandskunden, Neukunden Akquise, Markenrelevanz und so weiter. Und letztendlich einen Treiberbaum, einen KPI Treiberbaum aufgebaut wie letztendlich diese Key Business Indikatoren gemessen werden können, aus unterschiedlichen Touchpoints heraus.

Also nicht jeder Like heißt ich habe jetzt hier Brand Awareness irgendwie erhöht. Auch ein gutes Beispiel dafür, dass nicht jede Metrik auch eine sinnvolle KPI darstellt. Das heißt, die Fragestellung aus dem einzelnen Marketing und Vertriebsaktivitäten, welche Metriken kann ich denn da generieren die sinnvolle KPIs ergeben, die aufzeigen wie ich denn-, welchen Beitrag das Marketing leistet zu meinen übergeordneten Geschäftszielen? Nach der konzeptionellen Arbeit wurde im Prinzip eine Infrastruktur aufgebaut. Ich hatte unterschiedliche, OSRAM hatte unterschiedliche Touchpoints, Website, Social, gewisse Apps, Order Systeme, aber auch Paid Kanäle, organische Kanäle. Und aus all diesen Kanälen sozusagen die relevanten Metriken zur Befüllung des erwähnten Treiberbaums herauszuziehen. Im Prinzip eine technische Infrastruktur aufgebaut, einen ETL Prozess spricht man da, aufgebaut, und letztendlich die Daten, in dem Fall war es eine Microsoft Architektur, die Daten in der Datenbank gespeichert, dort gewisse Metriken gebildet, und im letzten Schritt dann Dashboards zur Verfügung gestellt. Die sowohl auf der Zentralbereichs-Organisation als auch in den Ländern dann genutzt wurden für das operative Management der digitalen Marketing- und Vertriebsaktivitäten, aber auch sozusagen aggregierte Dashboards und Reports aufgebaut für das Management, bis hin zum C Level. Die dann im Prinzip auf einer höheren Aggregationsebene Real Time schauen konnten welchen Beitrag letztendlich Marketing und digitaler Vertrieb zur Erreichung der übergeordneten Geschäftsziele sozusagen miteinbringt. Das wurde dann weltweit ausgerollt, Länder trainiert, und sozusagen ein wirkliches Business Asset letztendlich geschaffen. Das Ganze kann man natürlich dann nochmal auch nutzen für sozusagen die Awareness, welche Relevanz Digitalisierung in dem jeweiligen Geschäftsmodell hat, zum Beispiel durch Command Center, die dann im Empfangsbereich oder an prominenten Stellen aufgehängt wurden. Also ein schönes Beispiel wie aus der Strategie heraus ein sozusagen Handlungsfeld identifiziert wurde und letztlich alle Marketing- und Vertriebsmitarbeiter dann in der Zentrale und in den Länder Gesellschaften über Dashboards sukzessive hingeleitet wurden an das Thema Data-driven Business Management. Jan, du hast ein zweites Beispiel, das auch auf der Strategie basiert.

Kundenbeispiele

Jan Stöckel: Ja, vielen Dank. Ja, wir sind auch da bei Osram ganz stolz, dass wir da im Foyer hängen vom Leithaus. Also wer die Möglichkeit hat da mal einzutreten wird das eine Dashboard, was der Albert gerade gesehen hat, da direkt im Foyer hängen sehen. Jetzt zu einem anderen Beispiel, die Firma medi, ist mittelständischer Medizinprodukte Hersteller, der im Bereich Versorgung, Post und operativ sowie präventiv tätig ist. Hauptsächlich Kompressions Produkte, aber auch Bandagen und Prothesen herstellt. Und hier begleiten wir das Unternehmen schon seit Jahren im Bereich Digitalisierung, Digitalstrategie und Konzeption und Beratung E-Commerce sind da die Hauptthemen. Und wenn man natürlich im E-Commerce weltweit aktiv ist, ergeben sich auch Strukturen und ich sage mal auch Konflikte mit gewissen Händlern. Und es passiert halt häufig, dass Händler sich auch nicht an Vorgaben des Vertriebs halten, und zum Beispiel Produkte außerhalb ihres Landes oder über Kanäle verkaufen, die nicht vorgesehen sind. Um sowas zu überwachen und auch die Preisstrukturen weltweit einzusehen, haben wir für medi ein internationales Preismonitoring konzipiert und aufgebaut, was den einzelnen Bereichen im Unternehmen, angefangen vom C-Level bis hin zum Vertriebsmitarbeiter, aufzeigt welche Produkte in welchen Kanälen zu welchem Preis angeboten werden. Bei den Kanälen geht es im Wesentlichen natürlich um Digitalkanäle, weil offline Kanäle lassen sich in dem Bereich schlecht überwachen. Aber selbst im online Bereich haben wir da verschiedene Bereiche identifiziert.

Es startet bei Marktplätzen genauso wie großen Händlerstrukturen. Bei Marktplätzen überwachen wir zum Beispiel Amazon mit, bei Händlern ist es ein Thema wie Zalando, wo mit geschaut wird welche Preise sind denn. Medi hat neben den Medizinprodukten auch noch eine Fashion und eine Sportlinie, die da auch im Fokus mit drin ist. Das heißt, wir überwachen im Grunde sechs Produktsortimente. Und schauen und da auch Wettbewerbsprodukte an. Wie sind die im Preisvergleich zu medi Produkten, und wie entwickeln sich auch da die Preise. Das heißt, Händler werden insbesondere beobachtet, auch Händler, die jetzt sich nicht an gewisse Vorgaben Richtung Kanälen halten, kommen dann zum Beispiel auf gewisse Blacklisten. Und da wird geschaut a, sind die Händler noch aktiv, oder es gibt auch das Thema Produkte, die nicht online vertrieben werden können. Also die rechtliche Situation zum Beispiel ist so, dass in manchen Ländern verschreibungspflichtige Produkte im normalen Handel nicht auftreten dürfen, wie zum Beispiel in Kanada, und da ist es sehr schlecht, wenn die Produkte natürlich dann auftauchen. Denn dadurch könnte die Verschreibungsfähigkeit entzogen werden, und so was will man natürlich verhindern. Und entsprechend bietet da das Monitoring gerade den Beteiligten einen sehr guten Überblick, um da frühzeitig einzugreifen und schlimmeres zu verhindern. Das ganze System wie man sieht ist auch Cloud basiert mit einer Microsoft Technologie aufgebaut. Wir arbeiten da mit einem Partner zusammen der das Ganze crawlt, und wir machen das ganze Voodoo wie der Albert sagte. Das heißt, wir aggregieren die Daten, reichern die an, wir müssen Währungsumrechnungen durchführen, wir ergänzen die Daten um zusätzliche Produktinformationen von medi um zum Beispiel eine Kategorisierung oder auch eine Einteilung durchzuführen. Auch die Händlerdaten werden erweitert. Dann zugeordnete Personenkreise zum Beispiel identifiziert, dass wir auch wissen in den Dashboards zu welchen Vertriebsgebieten gehört welcher Mitarbeiter und dergleichen. Und können dann über verschiedene Dashboards und Reports die Sachen ausspielen. Wir arbeiten wesentlich hier mit Power BI, also Ausspielungssystem. Wir stellen aber auch PDF Reports für einzelne Bereiche, wo jetzt kein Power BI Lizenz vorhanden ist. Das war ein relativ schlankes Projekt gestartet, und hat sich mittlerweile als tolles Dashboard und Projekt ausgeweitet. Und medi nutzt das also wirklich im täglichen Doing um da Ableitungen für das Geschäft zu sehen.

Als zweites Beispiel habe ich heute noch ein IoT Projekt mitgebracht. IoT Projekte sind in der Regel Datenprojekte. Denn was erzeugen Maschinen? Natürlich Daten. Hier am Beispiel der Firma multivac, das ist ein Hersteller von Maschinen, und die stellen insbesondere Verpackungsmaschinen her. Mit der Besonderheit, dass die grundsätzlich Trade herstellen, also für Lebensmittel Schalen die im Grunde aus zwei Folien bestehen. Einer dickeren unteren Folie, die über Wärmeverfahren verformt wird, und einer durchsichtigen, oft durchsichtigen Folie die obendrauf gebracht wird mit einem Aufdruck und das Produkt verschließt. Und die Herausforderung bei der Firma multivac war, dass die Folien zusammenpassen und optimal zusammenkleben. Und Sie als Kunde dann auch nicht zum Schluss dastehen, jeder kennt das bei der Käseverpackung und die nicht aufbekommen, sondern dass das im besten Fall ideal zusammenläuft. Da wurden die Maschinen schon immer mit Sensoren versehen, und wir nehmen jetzt die Daten auf. Haben analysiert in einem Projekt und in einer Digitalstrategie wie kann man das optimieren. Haben da auch eine Oberfläche für die Kollegen gebaut, wo die gewisse Einstellungen treffen können. Und analysieren permanent über Sensorik wie mit welchen Temperaturen und Drücken da gearbeitet werden muss, dass die Verpackung a ideal natürlich geschlossen wird, die wird auch in der Regel mit Gas befüllt. Das heißt, die muss ja Lebensmittel echt und dauerhaft verschlossen sein für die Haltbarkeit. Aber wie lässt sich das Produkt dann auch von dem Kunden recht einfach öffnen? Hier kommen verschiedene Technologien zum Einsatz. Wenn Sie da Interesse haben melden Sie sich bei uns, da tun wir den direkten Kontakt zu unseren IoT Kollegen aufstellen. Aber wie Sie sehen ist auch grundsätzlich Daten ein wichtiger Bereich gewesen, um das Projekt erfolgreich zu tun. Ich würde jetzt wieder an Albert übergeben, der uns noch einen kleinen Überblick zu Sky gibt.

Albert Brenner: Ja, bei Sky da ging es um das Thema Data-driven Marketing und Sales. Und die Fragestellung war, wie können wir als Sky noch besser die Daten nutzen für ganz unterschiedliche Anwendungsfelder. Letztendlich geht es ja darum sozusagen neue Kunden zu gewinnen, also Targeting. Es geht darum Bestandskunden sozusagen optimal zu bedienen, aufzuzeigen die Möglichkeiten, die das jeweilige Sky Produkt für den Kunden bietet. Und letztendlich da auch sozusagen Vorschläge zu machen welche weiteren Möglichkeiten bestehen. Die Herausforderung besteht letztendlich, gerade wenn man schon in dem Bereich Data-driven Marketing und Sales relativ weit ist, wie schaffe ich jetzt nochmal Hebel, zusätzliche Hebel zu erzeugen. Und letztendlich ging es hier um die Fragestellung, wie können wir durch den Einsatz von Datenmanagement Systemen, DMP, Customer Data Plattformen und Ähnlichem, sage ich mal die Daten getriebenen Use Cases, die wir heute schon sozusagen betreiben optimieren, den Hebel vergrößern, einerseits. Und andererseits eben zusätzliche Use Cases zu bedienen und aufzubauen.

Und das heißt, die Aufgabe bei Sky war damals sich anzuschauen jeder dieser Use Cases, Targeting, Retargeting, Negative Targeting, Onsite Offsite Personalisierung, verschiedene Paid Kanäle, bis hin zum Customer Care. Wo dem Agenten dann sozusagen aus dem Customer Care System auch Informationen oder Vorschläge gemacht werden. Wie können diese unterschiedlichen Use Cases optimiert werden? Und letztendlich welchen zusätzlichen Hebel im Sinne von Use Case Ziel, mehr Umsatz, oder eben auch reduzierte Kosten. Das heißt, wie kann ich eine gewisse Anzahl von Abschlüssen generieren mit weniger Advertising Spendings? Wie kann ich jetzt hier mit dem Einsatz einer Datenplattform eine Optimierung herbeiführen? Wir haben uns da verschiedene Use Cases durchgerechnet, haben uns verschiedene Datenplattformen angeschaut. Letztendlich kam Audience Manager von Adobe zum Tragen, den wir konzipiert und dann eingeführt haben. Und das Spannende bei dem Projekt war dann letztendlich, dass der Return on Investment, das heißt die ganze Konzeptionsphase und dann aber auch die Technologie Einführungsphase, einen Roi hatte von sechs Monaten. Das heißt, in relativ kurzer Zeit konnten da die Projektkosten nicht nur rein verdient werden, sondern ab dem sozusagen im siebten Monat bereits positive Effekte erzeugt werden. Das heißt, immer auch aufzuzeigen, und das ist sicherlich eines der Learnings hier, immer auch aufzuzeigen welchen Business Impact hat die Daten getriebene Aktivität. Sei es wie das Beispiel medi vom Jan, wo ich einfach mein Marktmanagement und auch mein Risikomanagement optimieren kann, oder sei es so ein Beispiel bei Sky, wo ich dann ganz konkrete akquisitorische Aktivitäten optimieren kann. Also immer auch sozusagen den direkten Impact auf das Geschäft in den Datenthemen aufzeigen. Das ist so eine der Empfehlungen da. Grundsätzlich, wie geht man in einem Data-driven Excellence Ansatz vor? Aus unserer Sicht gibt es da im Prinzip sechs Module.

Das eine ist eine Ist-Stand-Beschreibung, wo stehe ich denn in Bezug auf Daten? Das heißt, welche Daten liegen denn wo, in welcher Datenqualität liegen die vor, in welcher Konsistenz, wie nutzbar sind die? Also nutzbar im Sinne von technischer Nutzbarkeit, aber auch nutzbar im Sinne von rechtlicher Nutzbarkeit. Um da im Prinzip mal so eine Datenlandkarte aufzubauen. Und dann im Prinzip auch zu sehen welche Optimierungsmöglichkeiten gib es? Das heißt, ich habe vielleicht eigene Datenbestände, die schon in einer guten Qualität da sind, die aber mehr Aufschluss erlauben würden, wenn ich Daten aus anderen Quellen, sogenannte Second und Third Party. Also Second Party Data, Daten von Kooperationspartnern. Third Party Data, Daten, die ich im Prinzip akquiriere, dazukaufe. Das können geografische, das können Temperatur, das können Wetterdaten oder was auch immer sein, die letztendlich den eigenen Datenschatz nochmal wertvoller werden lassen. Wo liegen diese Daten, in welcher technologischen Infrastruktur liegen wir denn da? Und wie managen wir denn heute Daten? Wer ist denn eigentlich verantwortlich für das Thema Datenmanagement, Datenqualitätsoptimierung, Stammdatenmanagement? Ist bei vielen Unternehmen eine wichtige Geschichte, oder wichtige Fragestellung. Wie schaut die Data Governance aus? Darf jeder jede Daten wann auch immer benutzen? Also Stichwort Kontaktmanagement, auch Kontrolle, dass der Kunde nicht permanent von unterschiedlichen Abteilungen angesprochen wird. Und natürlich auch sage ich mal diese Daten zu überwachen im Sinne von was dürfen wir eigentlich mit diesen Daten, für was haben wir das Opt-in bekommen für diese Daten? So dass man da auch auf der sozusagen richtigen Seite steht. Der zweite große Schritt ist dann zu überlegen, die Daten, die wir haben, beziehungsweise die wir vielleicht auch durch Second und Third Party Data generieren könnte, was können wir denn mit den Daten tun? Und da gibt es natürlich einen Top-down Ansatz im Sinne von na ja, die Datenstrategie soll ja unterstützen gewisse Geschäftsziele zu erreichen. Das heißt, wo können wir denn da helfen mit Daten, wo können wir mit Daten ansetzen? Aber auch umgekehrt, sich die Daten mal anzuschauen und sozusagen welche Use Cases können wir denn daraus letztendlich generieren? Use Cases sozusagen dann priorisieren. Man kann vieles tun. Mit was beginne ich denn am schlauesten?

Das hat ja eine Fragestellung, was hat welchen Impact, welche Wirkung auf meine Geschäftsziele? Aber auch welchen Aufwand? Ich will sagen wir mal auch mit Big Wins beginnen. Das heißt, da ein gutes Use Case Portfolio abzustimmen, ein Konzept zu entwickeln, wie ich jetzt diese Daten letztendlich nutze. Ein aus unserer Sicht immer relevanter Aspekt ist das Thema Touchpoint Tracking. Das heißt, wie kriege ich aus allen Kundenkontaktpunkten-, Marketing und Vertriebe haben wir ja vorhin gesehen, da gibt es den größten sozusagen Werthebel für das Thema Smart Data. Und da sind natürlich die Kontaktpunkte zu den Kunden haben eine entscheidende Rolle. Das heißt, so Themen wie wir vorhin bei OSRAM gesehen haben, so was aufzubauen. Datenintegrations- und Analyse Architektur, das heißt, wie schaffe ich es jetzt die Daten aus den unterschiedlichen Themen zusammenzubringen? Stichwort Customer Data Plattform. Bei Sky kam eine Datamanagement Plattform zustande oder zum Tragen. Um dann im letzten Schritt auf der oberen Ebene die Customer Journey und die Kanäle konkret zu optimieren. Da haben wir jetzt glaube ich schon ein paar gute Beispiele gesehen. Und dann im letzten Punkt natürlich die Fragestellung, wie manage ich jetzt diese ganze Thematik? Da gibt es eine Business Seite, wer ist dafür verantwortlich? Wie baue ich da die Strukturen auf? Wie baue ich da die Fähigkeiten auch auf? Und auf der anderen Seite eben auch auf einer technischen Ebene. Welche Rolle kommt da der IT zu, vielleicht auch externen Hosting Providern? Und dort im Prinzip insgesamt eine Struktur zu schaffen die das Thema Datenmanagement im laufenden Prozess hält sozusagen. Jan, vielleicht noch ganz kurz, auch vor dem Hintergrund der Zeit, wie wäre da so ein typisches Vorgehen?

Vorgehen

Jan Stöckel: Das typische Vorgehen haben wir an einigen Stellen jetzt bereits angerissen. Das heißt, einige Themen schon mal diskutiert oder vorgestellt in den Projekten. Wir starten in der Regel bei den Kunden mit den strategischen Themen, dass wir uns Use Cases anschauen. Oder wie Albert schon sagte erst mal generell von den Unternehmenszielen ableiten was für Use Cases würden hier Sinn machen umzusetzen. Und diese sammeln wir in einem Backlog, diskutieren dann natürlich auch auf Basis der Hebelwirkung hauptsächlich Marketing, Vertriebsthemen, im Endeffekt auch Servicestrategien und dergleichen. Ist stark abhängig vom Geschäftsmodell des Unternehmens, denn nicht jeder hat so einen Endkundenkontakt und hat eine Customer Journey als Thema, sondern ja zum Teil auch andere Fragestellungen, die das Unternehmen umtreibt. Haben wir dann eine gewisse Anzahl an Use Cases identifiziert, schauen wir uns wie eben Albert auch schon sagte den Reifegrad des Unternehmens an. Wo steht das Unternehmen, hat es Daten schon ausreichend gesammelt, um konkret im Use Case eine Analyse durchzuführen und Ableitungen zu treffen die man dann automatisieren kann? Oder muss organisatorisch und systemseitig hier noch Sachen aufgebaut werden, Ressourcen sowie Kompetenzen, und aber auch technologische Voraussetzungen. Und dann werden die Use Cases nochmal beleuchtet, was geht in der Umsetzung relativ schnell, wo müssen Anforderungen getroffen werden? Und wir leiten dann eine Roadmap ab, und zwar so eine Smart Data Roadmap. Das heißt, wir versuchen über intelligente Auswertungen relativ einfach schon Assets zu identifizieren, oder Themen zu identifizieren wo ein Unternehmen relativ schnell einen Nutzen von der Datenanalyse gewinnt und auch erste Erfolge feiert.

Da setzen wir in der Regel auf so ein MVP, also Minimum Viable Products, möglichst kleine schlanke Projekte, die wir aussetzen, die ich sage mal groß in 100 Tagen umgesetzt werden. Um auch intern die Organisation mal da hinzuführen, zu zeigen es ist möglich mit Daten Use Cases umzusetzen, die auch einen Erfolg haben und direkten Impact auf das Business. Und b, diese auch ständig weiterentwickeln und in kurzen Iterationszyklen da agil voranzutreiben. Und dafür ist natürlich eine gewisse Architektur nötig. Das heißt, nach dem Konzept der Roadmap schauen wir uns an welche Voraussetzungen, wie im Vorfeld schon mal erwähnt, welche Präferenzen hat das Unternehmen? Ist es Cloud basiert? Gibt es Partnerschaften mit großen Unternehmen wie Microsoft oder Adobe? Und da gibt es eine Vielzahl von Produkten, die wir dann identifizieren, und dann auch gerne implementieren. Das heißt, wir haben in der diva-e ein relativ breites Entwicklungsteam von knapp 400 Entwicklern, die sich in unterschiedlichen Systemen auskennen, und da auch gerne mit in der Implementierung unterstützen. Und dann werden die Daten Use Cases als MVP umgesetzt, implementiert, und diese Lösung dann im Unternehmen im Endeffekt zum Laufen gebracht. Das heißt, es muss festgelegt werden wer der Product-Owner ist, also wer ist derjenige der verantwortlich ist auch für die Weiterentwicklung, das ganz im Unternehmen kommuniziert, aufbaut welche Bereiche mit dem System arbeiten, welche Lieferdaten, welche konsumierenden Daten, und was hat das für Auswirkungen auf den Prozess und was muss berücksichtigt werden. Und dann werden natürlich die Kollegen die mit dem System arbeiten trainiert, das heißt es gibt kleine Trainingseinweisungen, gegebenenfalls durch Etablierung neuer Dashboard Lösungen wie Power BI, wie Click & Co. Muss den Unternehmensbeteiligten natürlich auch eine Schulung gegeben werden, ein Training, wie nutzt man diese Analysen und was für Ableitungen lassen sich da treffen. Und zum Schluss, wenn das ganze verprobt wurde, in gewissen Bereichen erfolgreich ist natürlich auch, dann steht einem internationalen Rollout nichts im Wege. Das ist jetzt rein aus der Projektumsetzungsseite. Wenn man sich das technologisch einmal anschaut, wie funktioniert es da? Im Grunde deckt sich das in großen Teilen. Denn wir müssen in der Majority wie schon erwähnt schauen wir uns natürlich an wo liegen Daten. Liegen die in Silos, oder müssen die konsolidiert werden und harmonisiert? Und dann schauen wir welche Möglichkeiten gibt es zum Beispiel des Konsumierens. Da bieten sich Unternehmen an die direkten Schnittstellen fertig liefern, wie adverity, fivetran, oder eine segmentio. Die ermöglichen im Endeffekt konsumieren von Daten von unterschiedlichen Quellen. Aber man muss wissen, gewisse Anbieter wie Facebook und Microsoft und Google, wenn man da die Adverts zum Beispiel anzapft, ändern die regelmäßig ihre Schnittstellen und da müsste man ja ständig nach programmieren. Und solche Anbieter bieten dann im Endeffekt diese Standard Schnittstellen an. Und die kann man dann einfach konsumieren und dann in einer Datenbank auf Azure, auf AWS oder bei Google direkt, wenn man Cloud affin ist, speichern.

Und von dort geht es dann in die Optimierung und den nächsten Prozess, dass wir uns über Dashboards Gedanken machen. Da geht es darum Dashboards auf Basis der KPIs zu entwickeln, und so darzustellen, dass es auch im Endeffekt lesbar ist, für den Endnutzer auch einfach verstehbar, und er direkt seine Ableitung Anfang trifft, um dann später im dritten Schritt in die tiefere Analyse zu gehen. Und vielleicht auch automatisierte Prozesse dann im besten Fall später einführen zu können. Das heißt, hier kommt das Thema KI, was der Albert schon anfänglich erwähnt hat, zum Tragen. Das heißt, über statistische Methoden A oder auch Databricks, was zum Beispiel in der Azure Cloud integriert ist oder anderen Systemen, versuchen wir über statistische Verfahren ähnliche Muster zu erkennen. Das ist ein Hauptthema zum Beispiel in den IoT Projekten, um dann Ableitungen zu treffen und automatisiert Prozesse anzusteuern, Warnmeldungen und dergleichen. Das ist zum Teil gar kein so großes Hexenwerk, sondern es ist halt auch abhängig, dass man eine gewisse Relevanz von Daten erst mal hat. Das heißt, auch hier wird es einen zeitlichen Verzug geben zwischen den Dashboards und Last-Minute Anreicherungen, Aufbau der Daten, bis hin dass man dann wirklich automatisierte Prozesse durchführen kann. Im letzten Bereich wird dann das Geschäft optimiert.

Das heißt, werden direkt nicht nur automatisierte Slots und so, sondern es gibt direkte Ausleitungsthemen. Das kann so weit gehen, dass man Google im Endeffekt Anzeigen zum Beispiel optimiert, dass man Ausspielungen macht über Target, das ist von Adobe ein Produkt, wo man Zielgruppen Ansprache macht. Oder Bloomreach bietet da ein ähnliches Produkt an. Oder man seine SEA, also seine Kampagnen optimiert. Da bieten wir zum Beispiel mit intelliAd auch eine Lösung, oder auch eine Analyse zum Beispiel für Amazon an. Das zum Thema Produkte und Technologie mit dem wir da zum Beispiel arbeiten, oder beispielhaft arbeiten. Das sind sicherlich nicht alle die das sind, aber sollten mal paar Referenzen sein aus Projekten, die wir da schon zahlreich genutzt haben. Und ich würde jetzt an Albert übergeben, der gibt mal noch ein Beispiel wie Sie mit uns schnell starten können, was so die nächsten Schritte wären und unser empfohlener Einstieg in das Thema Smart Data.

Albert Brenner: Genau. Sozusagen in aller Kürze. Was wir anbieten können, weil, Sie haben gesehen, Daten Excellence, Strategie, Use Cases, Technologien und so weiter. Wir haben es an den vier Beispielen, man könnte die Reihe noch länger machen. Da gibt es viele Ansatzpunkte, viele Möglichkeiten, birgt auch eine gewisse Komplexität. Und was wir versuchen würden mit einem sozusagen Art Starter Paket, wir nennen das Data Opportunity Workshop, den wir Ihnen anbieten. Drei Sachen machen wir dort. Das erste ist sich anzuschauen welche Use Cases initial zumindest sind denn für ein Unternehmen relevant in der Größe, in der Branche, mit der Kunden, Produkt und Go To Market Struktur. Zweitens, wo stehen Sie in Bezug auf der Datenreife? Da würden wir so ein Quick Assessment machen. Dieses Quick Assessment hilft dann letztendlich die Use Cases zu priorisieren. Und zum Dritten würden wir dann zusammen mit Ihnen direkt auch schon einen Use Case umsetzen. Und was sich da immer anbietet ist im Prinzip ein Dashboard, welches mal Transparenz darüber gibt, welche Daten es gibt, wie die sozusagen aufgezeigt werden können. Welche sozusagen Zusammenhänge zwischen Daten bestehen. Da muss man sich dann einen Bereich aussuchen, ist es Marketing, ist es Vertrieb, ist es Service, was auch immer. Und da würden wir dann sozusagen in einem, im Prinzip so eine Art Co Creation Sprint, ein gemeinsames Dashboard bauen. Also ein sehr komprimierter Ansatz, wo wir Use Cases, Reifegrad und schon einen Use Case als Dashboard Entwicklung durchführen. Dafür ist relativ geringe Vorarbeit notwendig. Ein eintägiger Workshop und dann letztendlich eine Nachbereitung. Ich glaube ein ganz guter, feiner, kleiner Ansatz, der schnell geht, und für ein Unternehmen schon mal, ich sage mal, die Möglichkeiten Welt aufzeigt, wie man in Richtung Data Excellence kommen kann. Und das ist ja letztendlich unser Ziel. Und damit danke ich auch nochmal ganz herzlich für die Teilnahme und die Aufmerksamkeit. Und Angela, wer jetzt noch sozusagen dann im Nachgang auch Kontakt mit uns aufnehmen möchte, mit dem Jan und mir, hier sind schon mal unserer Kontaktdaten. Angela, aber wir wollten ja jetzt noch ganz kurz die Umfrage uns anschauen.

Angela Meyer: Ja, genau. Und zwar haben die Teilnehmer eben die Frage beantwortet ob Sie bereits Big Data nutzen. Und bei unseren Teilnehmern nutzen bereits 50 Prozent Big Data in Ihrem Unternehmen. 17 Prozent noch nicht, aber haben eben Interesse daran es zukünftig zu tun. Und rund 33 Prozent nutzen aktuell kein Big Data.

Albert Brenner: Da bedarf es noch Überzeugungsarbeit. Ich kann nur wirklich wärmstens empfehlen sich nochmal sozusagen intensiv Gedanken darüber zu machen, wie Daten Wettbewerbsvorteile sozusagen als strategisches Asset genutzt erbringen kann. Und die anderen 17 Prozent, gute Entscheidung den Weg voranzugehen. Und was schön ist, dass wir immerhin über oder 50 Prozent der Teilnehmer haben, die dort schon sozusagen tätig sind, Aktivitäten, Use Cases umsetzen. Wir haben ja verschiedenste Analysen, auch aus unseren unterschiedlichen Zirkeln, und was wir dort sehen ist, dass wir jetzt hier im Webinar offensichtlich einen sehr, sehr guten Reifegrad an Teilnehmern haben. Das freut mich sehr. Weil im Branchen Durchschnitt sind wir noch ein Stück weit unter den 50 Prozent. Und 43 Prozent der Unternehmen haben Big Data Ansätze, also Unternehmen über 1000 Mitarbeiter waren das. Von dem her haben wir hier eine sehr reife Zielgruppe. Das freut mich. Und vielleicht gibt es dann dementsprechend auch schon qualifizierte Fragen, die wir gerne noch beantworten.

Q&A

Angela Meyer: Ja, genau. Also ihr habt jetzt noch Zeit Fragen zu stellen. Ich würde jetzt mal auch eine Frage aufgreifen, auch wenn wir schon über der Zeit sind. Wir machen eine sehr schnelle Fragerunde würde ich sagen. Und würde jetzt hier mal die Frage aufnehmen

Wie lange dauert denn bei euch typischerweise ein Projekt?

Albert Brenner: Okay, gute Frage. Der Anwalt würde sagen es kommt drauf an. Der BWLer scheinbar auch. Also, es kommt drauf an. Natürlich darauf, wo wir loslaufen. Wenn sozusagen die Daten Use Cases noch nicht feststehen, wenn die Situationsidentifikation noch nicht vorhanden ist, also wo liegen denn welche Arten von Daten, in welcher Qualität liegen die denn da herum, und eben auch was will ich mit den Daten machen, Stichwort Use Cases, und dann letztendlich Use Cases auch zu implementieren, das dauert sagen wir mal länger. Da sind wir dann schon bei fünf, sechs Monaten von so einem Projekt, bis ein erster qualifizierter Use Case auch umgesetzt wird. Aber wenn wir da andere Voraussetzungen haben, das heißt die Vorarbeiten sind schon getan, Jan, was denkst du, was brauchen wir da?

Jan Stöckel: Ja, wenn wir konkrete Anforderungen haben, Daten bereitstehen, ist es durchaus möglich in drei Monaten ein Projekt live zu kriegen. Hat man an dem medi Projekt gesehen, das war genauso ein Zeithorizont. Mit dem ersten MVP, und der wird dann in der Regel weitergetrieben. Und so ein Projekt ist so ein Dauerläufer. Das heißt, es kommen neue Anforderungen, und das wird in der Regel dann auch stetig erweitert. Denn auch der Markt verändert sich ja, es kommen neue Player hinzu, und es sind stetige Fortführungen und wird ständig auch erweitert. Die Idee ist auch, was Albert ja vorhin sagte, dass man auch zusätzliche Daten wie Wetterdaten mit dazu zieht, um vielleicht Auswirkungen im Bereich Medizinprodukte auszuführen. Zum Beispiel hat sich schon mal gezeigt nach Analysen, dass wenn die Wintersaison startet mit Skifahren und Co, dann die Absatzzahlen für Bandagen stark steigt. Aber ich glaube, um solche Sachen zu leisten brauchen wir keine Big Data Analyse. Aber so was in die Richtung wäre dann auch die nächste Ausbaustufe zum Beispiel bei medi.

Angela Meyer: Und hier kam jetzt noch eine Frage rein.

Ob ihr jetzt noch konkret das Data Majority Assessment erläutern könntet? Wie läuft das genau ab? Und wie lange dauert das ungefähr? Macht ihr da Interviews oder?

Albert Brenner: Ja. Gerne übrigens dann auch im Nachgang nochmal kurze Mail droppen, und dann können wir da vielleicht auch ein, zwei Folien dazu schicken. Von dem her, in aller Kürze, wir haben da im Reifegrad Modell ein sehr strukturiertes Vorgehen. Wir machen da zwei Dinge, zum einen wir machen Interviews. Das ist korrekt. Und wir schauen uns aber schon auch Datensysteme an, schauen uns Datensätze an. Haben da verschiedenste sozusagen Analyse Werkzeuge, mit denen wir dann auf die Datenbestände drauf gehen, die zur Verfügung gestellt werden können. Und um sozusagen erste Analysen festzumachen und daraus insgesamt letztendlich ein Gesamtbild zu formen. Von dem her ist es mit Interviews alleine nicht getan. Sondern ich will ja wirklich auch schauen, in welcher Datenqualität liegen die Sachen vor, und dafür muss ich dann auch einmal auf so was drauf schauen. Aber so was kann man in einer komprimierten Form schon in sechs bis acht Wochen durchziehen.

Angela Meyer: So, genau. Also alle weiteren Fragen und Details klären gerne unsere Experten auch per Mail oder direkt per Telefon. Ihr könnt sie gerne direkt kontaktieren, und sie sind für alle Fragen offen. Hier noch ein kurzer Hinweis zu unseren weiteren Webinaren, die wir wöchentlich veranstalten. Rund um SEO, E-Commerce, Content. Meldet euch gerne weiter zu unseren Webinaren an, wir freuen uns auf eure Teilnahme. Und jetzt danke ich euch beiden. Danke Jan und danke Albert für eure Insights, und danke an die Teilnehmer für eure Zeit, und sage bis zum nächsten Mal.

Albert Brenner: Dankeschön.

Jan Stöckel: Dankeschön, bis zum nächsten Mal. Ciao.