Beiträge

In einer künftigen cookie-freien Werbelandschaft werden Browser und Betriebssysteme zum Gatekeeper des digitalen Marketings. Das hat gravierende Folgen – und zwar wesentlich gravierender, als den meisten bislang wohl bewusst ist.

Wer entscheidet künftig darüber, ob und wo wir im digitalen Universum welche Werbung zu sehen oder hören bekommen? Einige wenige Gatekeeper? Oder wollen wir den Marktzugang im demokratischen bzw. marktwirschaftlichen Sinne offener halten? Wir stehen derzeit vor wichtigen Fragen und Weichenstellungen. Sie werden das digitale Marketing wahrscheinlich der nächsten zwei Jahrzehnte maßgeblich prägen. Und die meisten von uns ahnen vielleicht lediglich, was da auf sie zurollt.

Wie sind wir eigentlich in die heutige Situation gekommen? Die Kurzzusammenfassung:  Zu viel BlingBling auf den Websites, zu viele Tracker und ein zu hoher Nervfaktor des KaufMichEndlich-Retargetings. Vielleicht haben wir es als Branche einfach ein bisschen übertrieben. Als Reaktion darauf haben Nutzer Adblocker installiert und der Gesetzgeber mit der DSGVO reagiert. Die Politik hat es gut gemeint, aber schlecht gemacht! Denn nun führt unser europäischer bzw. deutscher Datenschutz absurderweise dazu, dass wir globale Datenoligopole fördern. Diese schränken unseren Gestaltungsspielraum und unsere wirtschaftlichen Möglichkeiten massiv ein. Dass „Eine Welt ohne Cookies ist schon mal ein erster guter Schritt“ ist, wie Jürgen Scharrer unlängst in Horizont kommentierte, halte ich persönlich für eine sehr naive Sicht. Das Gegenteil könnte der Fall sein: „Cookies raus“ bedeutet „GAFAs vor“! Der Verlust der Cookies stärkt Datenoligopole, vielleicht sogar ein Datenmonopol.

Auf dem Weg ins Datenoligopol: Wenige Bohrinseln mit exklusiven Rechten

Wenn Daten das neue Öl sind, dann besitzen – wenn wir nicht aufpassen – künftig einige wenige große US-amerikanische digitale „Ölkonzerne“ die Quellen. Mit nur wenigen Bohrinseln, aber sehr exklusiven Förderrechten. Ich glaube, viele in Deutschland und Europa haben die wahre Dimension dieses Umbruchs noch nicht wirklich verstanden. Vor allem Google hat in diesem Spiel strategisch sehr geschickt agiert:

Im ersten Schritt wurde das Augenmerk der Regulierer allein auf das „böse“ Third-Party-Cookie gelenkt. LogIns, die viel weitreichendere Rechte an Daten beinhalten, die sich perfekt auch geräteübergreifend miteinander verknüpfen verbinden lassen, blieben außen vor.

In Schritt 2 wird eine Lösung für ein Problem präsentiert, das erst durch Schritt 1 entstand. Die derzeitige DSGVO-Realität mit ihren Consent-Lösungen ist, sowohl für User als auch für Firmen, viel zu komplex und intransparent. Für Google die perfekte Ausgangssituation: Denn nun naht im zweiten Schritt – als Retter auf dem weißen Pferd – Google mit seiner Initiative der „Privacy Sandbox“.

Und sowohl aus technischer als auch organisatorischer Sicht ist das ein durchaus interessanter Ansatz: Eine zentrale Stelle, die die gesamten Daten erhebt und verwaltet. Schluss mit dem völlig unübersichtlichen Meer an Dienstleistern, die in jeden Opt-In-Prozess verwickelt sind und sich am Ende auch nicht mehr wirklich kontrollieren lassen. Und Google sein Dank gibt es auch schon eine passende Infrastruktur. Den Browser bzw. das Betriebssystem bei mobiler Nutzung. Die digitale Werbewelt, so wird uns suggeriert, würde dadurch wieder simpel und beherrschbar.

Wir sollten jetzt aber nicht zu schnell in die Convenience-Falle tappen. Wenn der Markt nur weil es einfach, schneller und scheinbar leichter ist – zur Google-Lösung greift, könnte er sich dauerhaft den  freien Weg zu Daten verbauen. Und damit auch alle Chancen künftig eigene, mit umfangreicheren Daten verbundene Businessmodelle auf- und umzusetzen.  

Die Frage, was nach den Cookies kommt, ist deshalb so fundamental, weil unter dem Deckmantel des Datenschutzes eine neue technische Infrastruktur entstehen soll, die die gewohnten Kräfteverhältnisse im World Wide Web noch weiter zu unseren Ungunsten verschiebt. In einem Third-Partie-Cookie-freiem Internet schwingen sich Browser und Betriebssysteme nämlich zu den zentralen Gatekeepern auf. Das ändert das Wesen des Netzes. Künftig wollen wenige Gatekeeper entscheiden, welche Art von Daten Werbetreibenden, Agenturen und Publishern zur Verfügung stehen. Und damit auch, wer sich in welchem Umfang refinanzieren kann.

Die Black Box entscheidet, mit welchen Daten wir arbeiten dürfen

Der Browser wird zur Black Box. Alles, was an Daten und Informationen für ein sinnvolles Targeting wichtig ist, wird dort hinter verschlossenen Türen gemessen und generiert. Liest man die Äußerungen von Google genauer, scheint es auf eine Situation hinauszulaufen, die wir u.a. vom Videoportal Youtube im Prinzip heute schon kennen: Advertiser erfahren zwar, ob sie ihre Zielgruppen erreichen. Aber sie können künftig nicht mehr selbst tracken und die Ergebnisse überprüfen. Auch die Leistungswerte erhebt nur YouTube. Kontrolle? Kaum möglich. Aus einem einstmals offenen, arbeitsteiligen System, wird ein zentral gelenktes Internet mit völlig verändertem Charakter. In diesem System lernt und optimiert vor allem einer: der Gatekeeper. Eine externe Leistungskontrolle und ein Anpassen bestehender Strategien wird damit für uns als Mediaagenturen extrem erschwert. Kreative Eigenentwicklungen lohnen sich nicht mehr, weil der Gatekeeper entscheidet, welches Set an Daten zur Verfügung gestellt wird.

Natürlich kann man dieses attraktive Angebot von Google annehmen. Man sollten sich nur der eventuellen Konsequenzen wohl bewusst sein. Denn hinterher soll keiner sagen, er hätte das nicht gewusst.

Das Internet ist erst der Anfang, Mobile folgt und TV kommt bald

Online haben sich die Gewichte bereits verschoben. Nur das ist erst der Anfang, denn im heutigen digitalen Ökosystem hängt alles mit allem zusammen. Der größte Browser beispielsweise (Chrome) gehört dem weltweit dominierenden Werbenetzwerk Google. Und Google stellt mit Android auch das beherrschende Mobile-Betriebssystem. Aus dieser Perspektive wird aus dem anfangs erwähnten Oligopol der Browser schnell ein Duopol der Betriebssysteme mit einem eher kleinen (Apple mit iOS) und einem übermächtigen Player (Google hat mit Android beispielsweise 76 Prozent Marktanteil in Deutschland). Und es wird keinesfalls bei Desktop, Laptop und Smartphone bleiben. Diese Ausdehnung der Betriebssysteme wird Folgen für die Werbung auf allen Bildschirmen haben, vor allem auch für das Fernsehen. Damit würde eine Firma mit einem Marktanteil von rund 80 Prozent in der westlichen Welt, Google, die beiden größten Werbemedien weltweit dominieren, weil sie ihre Erlösprozesse steuert.

Die Diskussion um Cookies, Browser und  Betriebssysteme ist also nicht nur ein Thema für das Internet im engeren Sinne, sondern betrifft letztlich unsere gesamte Medien- und Werbelandschaft. Es ist auch eine kulturelle Auseinandersetzung. Vielleicht sogar die fundamentalste, die wir derzeit führen. Es geht um die Refinanzierung der Inhalte, die Basis unserer demokratischen Gesellschaft sind. Betrachten wir das Internet als öffentlichen Raum, mit der Möglichkeit der Teilhabe von vielen Bürgern und Unternehmen? Oder wird es zu einer rein wirtschaftlichen Infrastruktur, die von einem oder wenigen US-Konzernen bestimmt wird?

Es ist höchste Zeit, dass wir in Deutschland und Europa diese Auseinandersetzung intensiver führen. Gerade wir Deutschen neigen bisweilen dazu, uns in allzu kleinteiligen Branchendebatten zu verlieren. Es wird Zeit, gemeinsam größer zu denken und ernsthafte Alternativen zu entwickeln!

Dieser Beitrag erschien zuerst bei Horizont.

Um die Herausforderungen der fortschreitenden digitalen Transformation zu meistern, haben viele , Medien und Agenturen aus der Marketing- und Kommunikationsbranche in den letzten Jahren stark in datenbasierte Technologien und Infrastrukturen investiert. Allerdings gelingt es häufig nicht, diese „PS auch auf die Straße zu bringen“ und einen relevanten Wettbewerbsvorteil daraus zu ziehen – auch, weil häufig HiPPOs auf ihr Bauchgefühl vertrauen.

Der digitale Wandel in den Organisationen ist eben nicht nur technischer, sondern insbesondere kultureller Art. Und hier hemmen, laut einer Capgemini-Umfrage, firmenkulturelle Probleme die digitale Transformation weitaus stärker, als etwa veraltete IT-Systeme oder mangelnde Ressourcen.

Bei Plan.Net NEO beschäftigen wir uns intensiv mit der Etablierung eines konsequent datengetriebenen Leistungsangebots, der Integration von Media und Content auf Basis von Daten. Diese Daten und die aus ihnen gewonnenen Insights sollen dabei sowohl den Kreativen, als auch den Mediaexperten aus unserer Mannschaft als „Treibstoff“ für die Entwicklung von relevanten Inhalten und deren wirksamer medialer Aktivierung dienen.

Im Zuge dieses tiefgreifenden Change-Prozesses haben wir vieles gelernt, vor allem auch im Hinblick auf die erfolgskritische Bedeutung der unternehmenskulturellen Aspekte auf dem Weg zu einer datenfokussierten Agentur. Aus den Key Learnings lassen sich zusammenfassend fünf Praxistipps für Agenturen bilden, die auch allgemein gültig angewendet werden können

  1. Daten-Skills entwickeln und fördern

Eine gelebte Datenkultur beginnt mit „Empowerment“ und der Demokratisierung der Daten. Es gilt die Mitarbeiterschaft in der Breite technologiegestützt zu befähigen, im „Self Service“ Daten zu analysieren und datenbasierte Entscheidungen treffen zu können.

Denn nicht der Mangel an Daten ist oftmals die Herausforderung, mit der Unternehmen konfrontiert sind, sondern der Weg von den Daten zur Entscheidung. Konzentrieren sich die Datenbestände in einer Organisation in den Händen einiger weniger Experten, liegt das Potenzial dieser Daten für den kommerziellen Erfolg des Unternehmens weitestgehend brach. Um stattdessen als Organisation den vollen Nutzen aus Daten zu ziehen, muss jeder Mitarbeiter die Möglichkeit haben, auf die Daten zuzugreifen und sie täglich in die eigenen Entscheidungen einzubeziehen.

Das bedeutet allerdings nicht, dass jeder Mitarbeiter ein Data Scientist werden soll (und kann). Jeder sollte jedoch analytische Grundkenntnisse entweder bereits besitzen oder sie durch Qualifikationsmaßnahmen erlangen können, um in der Lage zu sein, datenbasierte Sachverhalte zu bewerten und Daten für Entscheidungen nutzen zu können.

  1. Technologie muss sich den Anwendern anpassen und nicht umgekehrt

Eine wichtige Rolle für die Umsetzung des datenbasierten Arbeitsalltags kommt den dafür eingesetzten Technologien und Tools zu. Soll deren Nutzung nicht ausschließlich den Datenspezialisten vorbehalten bleiben, sind für eine breite Akzeptanz bei den Anwendern und ihre Wahrnehmung von Brauchbarkeit sowie Nutzwert in der Praxis vor allem folgende Eigenschaften erfolgsentscheidend:

  • Convenience und intuitive Nutzung

Je einfacher und intuitiver der Umgang mit Daten für die Nutzer gestaltet wird, desto eher werden sie deren Wert für die Qualität ihrer tagtäglichen Arbeit realisieren und rasch nicht mehr missen wollen.

  • Intelligente Datenvisualisierungen

Dashboards oder andere graphische Darstellungsformate helfen die zentralen Aussagen der Daten schnell auf einen Blick zu . Ebenso stellen sie sicher, dass alle involviertenn Personen das gleiche Bild sehen. Diese Komplexitätsreduktion ist eine wichtige Voraussetzung für effizientes Arbeiten jedes Einzelnen und effektive Kollaboration im Team.

  • Dynamische Dateninteraktionsmöglichkeiten

Entscheidungsprozesse verlaufen selten linear. Datenanalyse-Plattformen sollten es daher so einfach wie möglich machen, Daten flexibel zu erkunden, Hypothesen zu testen und Szenarien auszuprobieren.

Ein anschauliches Beispiel für durch Technologie ermöglichtes Daten-„Empowerment“ ist das in unserer Schwesteragentur Plan.Net Business Intelligence entwickelte Tool „Brand Investor“, das bei uns seit einiger Zeit im Einsatz ist.

Das Tool ermöglicht unseren Beratern und Planern die Bestimmung des wirkungsoptimalen Kommunikationsplans für die Marken unserer . Dies nimmt jedoch nicht die bisher entstanden umfangreichen Kapazitäten von Daten- und BI-Spezialisten in Anspruch. Der Brand Investor macht mittels künstlicher Intelligenz das Wissen aus über 2.000 kalkulierten Mediaplänen und mehr als 200 durchgeführten Marketing Mix Modellings auf Knopfdruck nutzbar. Mit Hilfe einer interaktiven, visualisierungsorientierten Benutzeroberfläche können die Anwender zu ihrer datenbasierten Entscheidungsfindung in wesentlich kürzerer Zeit als zuvor im Do-It-Yourself-Modus die Budgetallokation für verschiedenste Planszenarien optimieren und deren Wirkung prognostizieren.

  1. Kritische Neugier im Umgang mit Daten fördern

Eine grundsätzliche Neugier ist zentraler Motor für Innovation und Wachstum. Sie bildet auch eine wesentliche Grundlage für eine Analysekultur. Denn hier geht es um die aktive Suche nach neuen Ansätzen, den Drang zum Ausprobieren und Experimentieren. Vor allem, wenn dies auf der Basis von Daten erfolgt, muss das kulturelle Rahmenwerk gewährleisten, dass das kritische Denken dabei nicht zu kurz kommt.

Eine „Data First“-Unternehmenskultur darf nämlich keinesfalls bedeuten, dass man Kennzahlen blind folgt und nur auf der Grundlage von nackten Zahlen ohne weiteren Kontext zu entscheiden. Vielmehr sollte sie zur kritischen Interpretationsfähigkeit im Umgang mit Daten motivieren, sodass die Organisation ihre Entscheidungen nicht nur auf verlässlichen Daten stützt, sondern im Hinblick auf das Thema Datenqualität auch weiß, wann es besser ist, dies nicht zu tun.

  1. Datenkultur von oben vorleben

Letztendlich wenig überraschend ist die Erkenntnis, dass eine erfolgreiche Etablierung einer datenorientierten Unternehmenskultur an der Spitze der Organisation beginnt. Allerdings sollte man sich das als Führungskraft immer wieder in Erinnerung rufen, da die Realität leider zeigt, dass dies im hektischen Alltag doch allzu häufig in Vergessenheit gerät.

Das Führungsteam muss eine klare Vision vorgeben, um Daten in die DNA des Unternehmens zu schreiben. Es gilt jedoch, diese nicht nur zu konzipieren und fleißig zu kommunizieren, sondern diese auch tagtäglich selbst vorleben. Das Buzzword lautet hier „walk the talk“, also den eigenen Worten auch Taten folgen zu lassen. Wenn die Führungskräfte mit gutem Beispiel vorangehen, werden die anderen Manager und Mitarbeiter der Organisation ihr Verhalten recht bald – bewusst oder unbewusst – entsprechend anpassen.

Der Kulturwandel funktioniert aber auch zweigleisig, also sowohl Top-Down als auch Bottom-Up. Das gibt Führungskräften eine Rolle als Vorbild, aber auch als gezielte Förderer geeigneter und engagierter Mitarbeiter, die dann als Multiplikatoren bzw. sogenannte Change-Agenten in ihren jeweiligen Teams fungieren.

  1. Dem Bauchgefühl entsagen

Eng verknüpft mit dem voranstehenden Punkt ist die Empfehlung, alles daran zu setzen, organisationsweit Bauchgefühl konsequent und nachhaltig durch Entscheidungen zu ersetzen, die auf Daten und Fakten beruhen.

Denn viele Teams in Unternehmen werden immer noch von HiPPOs geführt. HiPPO steht hierbei für „Highest Paid Person’s Opinion“. Damit ist gemeint, dass Entscheidungen oft von den höchstbezahlten Mitarbeitern des Teams getroffen werden, die unter Umständen weit entfernt von der eigentlichen Frage-/Problemstellung sind. Das ist insbesondere problematisch, wenn diese HiPPOs auf Grundlage ihres auf subjektiver Erfahrung und intuitiven Bauchgefühls , statt von ihren Teams datengestützte Analysen und Empfehlungen für eine objektive Entscheidungsfindung einzufordern.

Wenn Daten wirklich eine zentrale Rolle für die Organisationskultur spielen sollen, muss der Anspruch lauten, auch alle Entscheidungen im Unternehmensalltag auf deren Basis zu treffen. Ohne Ausnahmen.

Im Herzen eines jeden Shops steht ein Produkt, das auch verkauft werden will. Insbesondere im digitalen Marketing werden die eigene Marke, ganze Kategorien, aber auch einzelne Produkte beworben. Doch diese Produkte sind selten exklusiv im eigenen Shop vertreten, denn auch die Konkurrenz listet entsprechende Angebote. Auf Plattformen wie Amazon, Facebook, Google Shopping, Payback, Criteo oder Idealo werden Produktmerkmale wie Preis oder Farbe miteinander verglichen und auf unterschiedliche Weise wie z.B. Retargeting oder Preisvergleich mit zusätzlicher Reichweite versehen. Das schafft einen Mehrwert für den Endkunden, wird doch das Angebot transparenter und die Auswahl auf den Shopping-Plattformen größer. Doch wie speisen sich die Produktmerkmale eigentlich in diese Plattformen? Die Antwort liegt im Produktdatenfeed.

Der Produktdatenfeed ist damit das Filet und Herzstück, um Produkte bestmöglich zu platzieren und durch höhere Aufmerksamkeit mehr Umsatz zu generieren. Fehlen Produktmerkmale wie zum Beispiel die Farbe, Größe oder der Preis, kommt es oftmals gar nicht erst zu einer Listung – und damit zu Umsatzverlust. Noch heikler wird es, wenn Grundpreise (also Preis pro Liter/Gramm/Meter) auf Shopping-Plattformen wie z.B. Google Shopping nicht im Feed zur Verfügung stehen: Es droht die Abmahnung durch den Wettbewerb. Dabei ist die Lösung eigentlich ganz einfach, denn ein Grundpreis kann zumeist recht leicht automatisiert errechnet und im Datensatz angereichert und markiert werden. Ist der Grundpreis für Google dann im Feed vorhanden, wird er auch ausgespielt und die Anzeige rechtlich konform ausgeliefert.

Datensätze wie Bestände oder Produktfarbe lassen sich häufig aus der eigenen Webseite auslesen, in Datenbanken schreiben und im Datenfeed wieder zur Verfügung stellen. Sucht der Käufer dann auf den einschlägigen Plattformen nach einem „roten Kleid“, so wird das auf der Plattform dann eben auch ausgespielt und steht im Angebot und Wettbewerb zu allen roten Kleidern in einer bestimmten Größe. Und häufig liefern sogenannte „Crawls“, also das automatisierte Absuchen und Abspeichern von bestimmten Informationsbereichen auf Webseiten weit mehr nützliche Informationen, als sie fürs Marketing notwendig wären. Preisfehler lassen sich in weiteren Listen erfassen, die der Korrektur auf der eigenen Webseite dienen. Und diese Daten kommen nicht nur aus der eigenen Webseite: Auch andere Seiten, Masterfeeds oder externe Datenpools lassen sich über API-Schnittstellen anzapfen und reichern die zum Produkt gehörenden Informationen an. Bestandsinformationen können in Echtzeit nicht mehr vorhandene Produkte aus der Bewerbung nehmen oder sogar dem Einkauf wertvolle Informationen zur aktuellen Nachfrage liefern.

Gut angereicherte Datensfeeds führen zu Umsatz

Auch die Affiliate-Netzwerke klagen über fehlende Produktinformationen ihrer Kunden für ihre Publisher. Ein gut angereicherter Datenfeed würde über die Netzwerke direkt auf mehreren Shopping-Plattformen verteilt und somit den Umsatz skaliert nach oben treiben. Skaliert deswegen, weil die Anreicherung um die begehrten Produktinformationen einmalig im Feed initiiert wird und danach auf allen Plattformen wertschöpfend eingesetzt werden kann. So manche Plattform lässt sich hierdurch überhaupt erst erschließen, da verschiedene Datenfelder obligatorisch zu befüllen sind, um überhaupt erst in die Bewerbung aufgenommen zu werden. Ist der Datenfeed erst einmal ordentlich angereichert und in die Systeme eingepflegt, können damit fast alle Kanäle am konversionsstarken Ende der Customer Journey erfolgreicher Umsatz generieren: Amazon, Google Shopping, Facebook und Affiliate.

Dieser Artikel erschien auch im Digital Publishing Report.

Brand-Manager, Konsumenten aber auch Marketing- und Werbeleiter hegen eigentlich dasselbe Ziel, nämlich miteinander zur richtigen Zeit, am richtigen Ort und mit der richtigen Botschaft in Kontakt zu treten. Das Problem hierbei ist, dass sie alle ganz unterschiedliche Herangehensweisen verfolgen und Unternehmen die dafür notwendigen Daten selten in Echtzeit auswerten.

Der Verbraucher, der auf der Suche nach bestimmten Produkten oder Dienstleistungen ist, erwartet eine möglichst personalisierte Behandlung – und das natürlich jederzeit, auf allen verfügbaren Geräten und über jeden möglichen Kanal. Die sogenannte Customer Journey folgt schon lange keinem geraden Pfad mehr. Denn für Kunden gibt es unendlich viele Möglichkeiten, um mit den verschiedenen Unternehmen in Kontakt zu treten. Sie können dabei entweder direkt auf die Marken zugehen oder indirekt, zum Beispiel über Performance Marketing-Kanäle wie Preisvergleiche oder Social Media-Plattformen. Die Folge: Durch die verschlungene Customer Journey entstehen immer mehr Kaufprozess-bezogene Daten. Marketer hingegen wollen den digitalen Kunden verstehen und erreichen, haben aber dabei natürlich stets den eigenen ROI im Hinterkopf. Sie verfolgen dementsprechend eine Strategie, die das meiste aus dem Marketingbudget rausholt. Doch dazu müssten sie erstmal ihren Weg durch den Datendschungel finden. Die immer größer werdende Menge an Daten macht es ihnen jedoch zunehmend schwer, die richtigen Informationen zur richtigen Zeit zu finden.

Die fetten Wachstumsjahre sind vorbei

Der größte Teil der ständig gesammelten Daten verbleibt meist ungenutzt in der virtuellen Schublade. Gerade im Marketing werden unendlich viele Nutzerdaten gesammelt, um darauf basierend eine möglichst passgenaue, persönliche Marketingkampagne für die Shop- oder Websitebesucher zu schneidern. Derzeit gehen jedoch viele Marketingabteilungen noch zu unstrategisch mit den Daten um, denn die wenigsten Daten werden analysiert und in Kontext gesetzt. Konkrete Optimierungsmaßnahmen und Anschlusshandlungen ergeben sich daraus bisher also leider nur selten. Bevor man – mehr oder weniger – planlos Daten anhäuft, sollte man sich also fragen:

  • Muss ich wirklich ständig neue Daten sammeln, um meine Marketingkampagnen erfolgreich zu führen?
  • Wo fange ich mit dem Sammeln der Daten an und wo höre ich wieder auf?
  • Wie können Daten eingesetzt werden, um bei der Entscheidungsfindung zu helfen?
  • Und welche Daten sind für eine erfolgreiche Kampagnen-Aussteuerung eigentlich notwendig?

Zunächst ist die vielleicht etwas ernüchternde Antwort auf alle diese Fragen: Das Datensammeln an sich wird wohl nie aufhören. Es geht viel mehr darum, die (vorhandenen) Daten besser zu nutzen! Dazu sollten sich der Marketer eine vernünftige Datenstrategie zulegen, denn die fetten Jahre des Onlinehandels sind vorbei! In den ersten Jahren konnte der Onlinemarkt zunächst ein schnelles Wachstum verbuchen. Dies war aber zumeist auto-generiert, weil der Markt sich neu auftat und sich das Käuferverhalten in Richtung Online verschob. Zwar steigen auch heute die Onlineumsätze weiter, aber wesentlich langsamer als noch zu Beginn. Denn der Nutzer ist bereits online und der Markt immer mehr gesättigt. Jetzt wird der Kuchen verteilt! Wer weiterhin im vorderen Bereich der Onlineplayer mitspielen möchte, muss nun also auf mehr als kreative Kampagnen setzen. Denn letztlich bedeutet die Sättigung des Marktes, dass aktuell alle Marktteilnehmer die gleiche Startposition haben. Mit der gleichen Ausgangslage kann daher vor allem eine clevere Datenstrategie einen erheblichen Vorsprung vor der Konkurrenz verschaffen.

Das Datensammeln an sich wird wohl nie aufhören. Es geht viel mehr darum, die (vorhandenen) Daten besser zu nutzen!

Abteilungsübergreifenden Datenaustausch ermöglichen

Die gute Nachricht? Der erste Schritt hin zu einer erfolgreichen Datenstrategie ist mit einer ersten Bestandsaufnahme der vorhandenen Daten bereits getan! Die bestehenden Kundendaten sind besonders wertvoll, denn sie liefern wichtige Informationen über Kaufverhalten, Einkaufs- beziehungsweise Besuchsfrequenz und Warenkörbe.

Bereits existierende Daten sind für Unternehmen die Basis für die spätere, individuelle Werbeansprache der Verbraucher. Wichtig ist dabei, bereits vorhandene Daten abteilungsübergreifend miteinander abzugleichen und Überschneidungen ausfindig zu machen. Häufig weiß leider die linke Hand nicht, was die rechte tut. Auf diese Weise entstehen in der Regel Datensilos, die verhindern, dass der Datensatz zum Datenschatz wird. Umso essenzieller ist es dementsprechend, dass alle Abteilungen – von IT über Vertrieb bis hin zu Marketing – miteinander kommunizieren und ihre Daten in einer gemeinsamen Lösung, der sogenannten Single Source of Truth, zusammenführen. Dafür muss der Stellenwert der Daten über alle Abteilungsgrenzen hinweg klar kommuniziert werden. Idealerweise sollte jedes Unternehmen seinen eigenen Datenmanager haben, der als Schnittstelle zwischen den einzelnen Abteilungen fungiert. Dieser muss verstehen, wer die Zielgruppe des Marketings und des Vertriebs ist, um dementsprechend die richtigen Daten zu sammeln, aufzubereiten und zu verdichten.

Der Datenmanager kümmert sich darüber hinaus um das richtige Format für die Datenspeicherung, um sie anschließend über die Single Source of Truth verfügbar zu machen. Insbesondere bei großen Händlern und Konzernen entstehen häufig Produktsilos. Der Datenmanager muss sich um eine Verknüpfung der Daten kümmern, um die Auslieferung von produktübergreifenden Kampagnen möglich zu machen.

Der Fokus verändert sich: Weg vom Kaufabschluss – hin zu Kundenbedürfnissen

Eine sehr wichtige strukturelle Veränderung des Marktes ist die Verlagerung des Fokus von der Transaktions- hin zur Customer Lifetime-Perspektive. Dies bedeutet, dass nicht mehr der Kaufabschluss im Mittelpunkt steht, sondern der Kunde selbst. Es wird also zunehmend wichtig herauszufinden, wie viel ein einzelner Kunde Wert ist, wenn ich ihn gezielt ansprechen kann. Der Verbraucher, der auf der Suche nach bestimmten Produkten oder Dienstleistungen ist, erwartet eine personalisierte Ansprache und entsprechende Angebote. Der informierte Kunde recherchiert und shoppt dabei überall und jederzeit und hinterlässt so immer mehr Kaufprozess-bezogene Daten. Abseits des reinen Transaktionsfokus, der auch die Datenauswertung und Ansprache nur auf den Kauf selber ausrichtet, berücksichtigt die Customer Lifetime-Perspektive den langfristigen Wert des Kunden. Sie will einen zufriedenen Kunden hinterlassen, der wiederkommt, der einen Service weiter empfiehlt, der nach Abbruch eines Kaufes vielleicht dennoch in drei bis vier Monaten zum Käufer wird.

Daraus ergeben sich komplett neue Herangehensweisen und Fragen, die sich Marketer stellen müssen:

  • Wie denkt der Kunde?
  • Was interessiert ihn wirklich?

Die wichtigste Frage ist derzeit jedoch:

  • Wie stelle ich sicher, den Kunden über alle Kanäle zu erreichen?

Denn dieser bewegt sich von Kanal zu Kanal, geht also mal online und informiert sich dort über ein neues Produkt, fragt den Verkäufer am POS oder ruft Daten über sein Smartphone oder seinen Desktop-PC ab.

Marketingmanager müssen all diese Daten von den verschiedenen Kontaktpunkten zusammenbringen und einem Kunden zuordnen können. Denn letztlich hegen Marken, Konsumenten aber auch Marketing- und Werbeleiter eigentlich dasselbe Ziel, nämlich miteinander zur richtigen Zeit, am richtigen Ort und mit der richtigen Botschaft in Kontakt zu treten. Das Ziel des Unternehmens sollte sein, den Kunden regelmäßig mit für ihn passenden Inhalten anzusprechen und so eine langfristige Bindung an die Marke oder das Unternehmen zu erzielen. Denn ohne diese Bindung sind keine langfristigen, sondern weiterhin nur kurzfristige, von Aktionismus geprägte, Ziele realisierbar.

Durch die verschlungene Customer Journey entstehen immer mehr Kaufprozess-bezogene Daten, die oft unausgewertet bleiben. (Quelle: Tradedoubler)

BI-Lösungen fördern schnelle Entscheidungen im Marketing

Um den Kunden individuell passende Angebote machen zu können, ist eine Harmonisierung der verfügbaren Daten unabdingbar. Der Wert, der in den Daten steckt, muss ermittelt und ausgewertet werden. Angesichts der manuell nicht handhabbaren Datenberge kommen Unternehmen bei ihrer Marketinginfrastruktur kaum um eine entsprechende Business Intelligence (BI)-Lösung herum. Schließlich geht es nicht nur um eine Automatisierung der Marketingprozesse, sondern um die richtige Interpretation der Daten. Denn wenn das Marketingmanagement nur Teileinsichten erhält, muss es einige Entscheidungen „aus dem Bauch heraus“ treffen, da der Gesamtüberblick fehlt. So riskieren Marketingentscheider, falsche Entschlüsse zu treffen. Oder noch schlimmer: Die Datenberge überfordern sie und sie treffen überhaupt keine Entscheidung.

Marketingmanager benötigen ein Tool, das die Verarbeitung großer Datenmengen ermöglicht und die für Geschäftsentscheidungen erforderlichen Informationen in schnell zu erfassenden Grafiken und Diagrammen visualisiert. (Quelle: Tradedoubler)

Eine weitere wichtige Voraussetzung auf der Infrastrukturseite ist eine zentrale Datenhaltung, also die Verknüpfung und Zusammenfassung der Kunden- und Kampagnendaten in der Single Source of Truth. So laufen die Daten aller Marketingaktivitäten, sei es Suchmaschinenoptimierung, Affiliate- und Display-Marketing oder Social Media, zentral zusammen. Das Marketingteam bekommt die ausgewerteten Daten idealerweise in Echtzeit über die entsprechende BI-Lösung angezeigt und leitet basierend darauf Optimierungspotenziale ab. Die Customer Journey muss dabei stets im Blick behalten werden. Nur so kann die Verschiebung hin zum Customer Lifetime Value funktionieren. Schon heute sehen wir die Entwicklung, dass vorausschauende Unternehmen viel Know-how intern bündeln, hochspezialisiert sind und stark datengetrieben beziehungsweise IT-unterstützt arbeiten.

Die Customer Journey muss stets im Blick behalten werden. Nur so kann die Verschiebung hin zum Customer Lifetime Value funktionieren.

Big Data wird zu Smart Data

Den Firmen steht heutzutage also eine unüberschaubare Menge an Daten zur Verfügung. Nur mithilfe geeigneter Software ist es ihnen noch möglich, das komplexe Online-Nutzerverhalten über eine Vielzahl an Kanälen und Endgeräten komplett nachzuvollziehen. Die gewonnenen Daten werden so anschlussfähig gemacht und Marketer erhalten Einblicke dahingehend, inwiefern einzelne Plattformen, Kanäle, Geschäftsmodelle und Publisher die Kaufentscheidung beeinflusst haben. Nur mithilfe dieser Informationen können sie alle digitalen Marketingmaßnahmen optimieren und personalisierte Werbung zur richtigen Zeit, am richtigen Ort, für die richtige Person, auf dem passenden Gerät ausspielen. Alles in allem gilt: Ohne smarte Daten, keine erfolgreichen Entscheidungen im Onlinemarketing.

Ohne smarte Daten, keine erfolgreichen Entscheidungen im Online Marketing.

In fünf Schritten zu besseren Entscheidungen

Mit diesen fünf Schritten behalten Online Marketingmanager den Überblick über ihre Daten:

1. Brechen Sie Ihre internen Abteilungs- und Kanalsilos auf. Viel zu häufig wird der direkte Erfolg nur im eigenen Silo gesucht, anstatt sich auf den Kunden als Ziel zu konzentrieren. Akzeptieren Sie die kanalübergreifende User Journey des Kunden.

2. Wenn Sie noch einen Schritt weiter gehen können: Gründen Sie ein dediziertes BI-Team, das die Daten untersucht und einordnet. Für bestmögliche Ergebnisse sollte es aus einer ausgewogenen Mischung von Marketing-, IT-, Datenmanagement- und Vertriebsmitarbeitern bestehen.

3. Es muss eine klare Zielsetzung geben, auf der die Datenstrategie basiert und entsprechend ausgerichtet wird. Das bedeutet für das BI-Team, nur Daten abzufragen, die einem konkreten Verwendungszweck dienen. Eine strukturierte Vorgehensweise mit der Zielsetzung im Hinterkopf verhindert das reine Ansammeln von Daten.

4. Es sollten so wenig verschiedene Softwarelösungen wie möglich zum Einsatz kommen. Je mehr einzelne Lösungen genutzt werden, umso größer das Datenchaos.

5. Achten Sie darauf, ein Business Intelligenz-Tool zu wählen, dass ein einheitliches Reporting und systematische Analysen bietet. Das ist der Schlüssel für eine erfolgreiche Datenstrategie, denn nur so werden die Daten lesbar und anschlussfähig und können Sie darin unterstützen, die richtige Entscheidung zu treffen.

 

Dieser Beitrag erschien zuerst bei dpr.

Wir schreiben das Jahr 2019. Das Thema Werbung im digitalen Raum hat sich seinen Platz in der Kommunikationswelt erobert und baut ihn immer weiter aus. Dies basiert auf den sich verändernden Mediennutzungsgewohnheiten der jüngeren und zunehmend auch älteren Nutzer, dem breiten Potential relevanter Werbeformen und nicht zuletzt auch den immer ausgefeilteren, datenbasierten Möglichkeiten der Kommunikationssteuerung.

Dabei ist die Kombination von Nutzungssituation, Zielgruppenprofil und bisheriger Historie der werblichen Kontakte der Schlüssel für die Optimierung von Art, Inhalt und Häufigkeit des kommunikativen Kontakts. Grundlage dafür ist eine einheitliche Datenbasis, die eine Steuerung aller relevanten Touchpoints zulässt. Klingt nach einer exzellenten Ausgangposition für die großen Amis (Google, Facebook, Amazon: GAF) und das ist sie auch. Sie erfüllen fast alle Voraussetzungen, jeweils in ihrem eigenen (Daten-) Universum.

Und der „Rest der Welt“? Hat in Deutschland und Europa das Problem erkannt und beginnt nahezu zeitgleich mit zwei großen Playern, Verimi und NetID, zu handeln. Während Verimi sich aber vor allem außerhalb des Themas Kommunikationssteuerung betätigt, will NetID genau dafür die Grundlage liefern. Die Chancen für einen Erfolg sind gegeben. Wenn sich der „Rest des Marktes“ datentechnisch über NetID vernetzbar macht, bietet das ein mit den GAFs vergleichbares Reichweitenpotential. Wichtig ist dabei, dass NetID nur die technologische Grundlage liefert, die differenzierenden Angebote bleiben die gemeinsame Aufgabe der darüber vernetzten Plattformen.

Und bei geschickter Formulierung von Angeboten für den Werbemarkt ist auch ein echter Wettbewerbsvorteil drin. Erforderlich sind hohe Reichweiten. Das ist möglich, da die teilnehmenden Player sie heute schon haben – nur nutzbar machen durch Registrierung ist noch dringend erforderlich. Zweiter Erfolgsfaktor: Ein relevanter Teil hochwertiger, auch redaktioneller Umfelder mit impactstarken und effizienten Werbeformen ist dort im Angebot. Richtig spannend wird es dann bei Erfolgsfaktor Nummer drei, dem transparenten und rechtskonformen Zugangs der Kunden zu Tracking- und Optimierungsdaten. Hier schotten sich die GAF bisher weitgehend ab und verhindern die direkte und integrierte Erfolgsmessung durch Kunden und Agenturen. Die Beibehaltung dieser Offenheit kann der zentrale Wettbewerbsvorteil des „Rests der Welt“ sein, denn damit ist die Steuerungsmöglichkeit und der Erfolgsnachweis jedes eingesetzten Werbeeuros mit deutlich höherer Transparenz möglich als in den walled gardens. Das gilt nicht nur für die reine Leistungsmessung, sondern auch für qualitative Faktoren wie AdFrauf oder Visibility.

Das relevante Angebot für den Werbemarkt entsteht aus diesen drei Erfolgsfaktoren. Problematisch ist die konkret einsetzbare Reichweite, hier hat NetID noch erheblichen Aktivierungsbedarf bei den Nutzern. Der Rest ist schnell lösbar, wenn alle Beteiligten das Interesse des Marktes über ihre Partikularinteressen stellen.

Dann haben wir zwar immer noch ein (Daten-) Oligopol von dann vier großen Datenpools, aber der intensivierte Wettbewerb wird mehr Auswahl schaffen –  und das ist gut so.

Dieser Artikel erschien zuerst auf adzine.de.

Programmatic Advertising (PA) ist ein schillernder Begriff. Manche Marktteilnehmer benutzen ihn als Buzzword, als Plakette eines Hype, der tatsächlich zeitweise sehr hohe Erwartungen bei vielen Marktteilnehmern geweckt hat, vor allem bei Werbekunden. Andere nehmen PA häufig als Synonym in Anspruch: Für seit vielen Jahren überfällige Automatisierungsvorhaben, gerade bei den sogenannten klassischen Medien, an denen aber eigentlich nichts „programmatisch“ ist. Wir bei mediascale definieren Programmatic Advertising vor allem als datengetriebenenen Mediaeinkauf und als Prozess, bei dem wir erst am Anfang stehen.

Deshalb stellt die Enttäuschung, die bei dem ein oder anderen Werbetreibenden eingetreten sein mag, kein Grundsatzproblem für Programmatic Advertising dar. Sie sollte vielmehr der Ansporn sein, Programmatic auf das nächste Level zu heben: Zum einen, indem man das Setup aus Dienstleitern und Technologie überdenkt, zum anderen sollten die eigenen Erwartungen vernünftig kalibriert werden.

In den vergangenen Jahren haben vor allem Venture Capital-finanzierte Player, die unbedingt Teil der medialen Wertschöpfungskette werden wollten, den Programmatic Hype zum Start aus Eigeninteressen geschürt und hohe Erwartungen geweckt. Und natürlich haben sie „ihren“ Teil der Supply Chain beansprucht. Wer sich aber mit dem Markt intensiver beschäftigte, wusste, dass Menge und Qualität der zur Verfügung stehenden Profildaten für Programmatic-Kampagnen beschränkt sind. Erst gute Daten aber steigern die Effizienz der Kampagnen so deutlich, dass die Mehrkosten für die zusätzlichen Mitglieder der Wertschöpfungskette wieder hereingespielt werden. Eine mögliche Enttäuschung war also eine mit Ansage oder basierte auf unrealistischen Erwartungen.

Wir haben in vielen Gesprächen mit unseren Kunden die Möglichkeiten aber auch die Grenzen von Data Driven Advertising realistisch dargestellt, um überzogene Erwartungen an PA von vornherein auszuschließen. Dabei gehen wir von folgenden Prämissen aus, mit denen auch unsere Kunden, manchmal gegen ihren anfänglichen Willen, bisher immer gut gefahren sind:

  • Programmatic Advertising ist kein neuer Kanal, in dem komplett andere Gesetze gelten, als im klassischen Displaygeschäft. Auch in einer Auktion ersteigert und mit Daten hinterlegt bleibt ein Content Ad ein Content Ad und wird nicht die Werbewirkung eines Instream-PreRoll-Großformats entwickeln.
  • Aussagekräftige, valide erhobene Daten sind die unentbehrliche Grundlage von Programmatic Advertising. Hierbei gilt: Genau hinzuschauen und ein umfassendes Auditing der zur Verfügung stehenden Datenangebote betreiben! Der Datenmarkt in den DMPs erscheint auf den ersten Blick riesig. Aber Datensegmente, die halten, was sie versprechen (also einen entsprechenden Uplift in den Kampagnen liefern), sind keinesfalls im Überfluss vorhanden. Und sie haben ihren Preis.
  • Eine Impression, die man nicht mit wertigen Daten hinterlegen kann, sollte man auch nicht programmatisch einkaufen. So sinnvoll es ist, alle Werbekontakte einheitlich zu tracken und alle Kampagnen und pseudonymen Profildaten in einem System zu akkumulieren, so wenig Sinn macht es, ungetargetetes Kampagnenvolumen in die Systeme zu geben, nur um es „programmatisch“ eingekauft zu haben. Das produziert Kosten und technische Leistungsverluste, denen kein finanzieller Mehrwert gegenübersteht.
  • Der für alle zugängliche offene Marktplatz (Open Market), von vielen ursprünglich als das zentrale Heilsversprechen von Programmatic verkündet, schaffte mehr Probleme, als er löst. Denn er hat auch einer Fülle von unseriösen Playern den Weg in den Markt eröffnet. Die Bemühungen der großen, offenen Sell-Side-Plattformen, die schwarzen Schafe wieder hinauszudrängen, sind löblich, aber leider nicht immer von Erfolg gekrönt. Deshalb kaufen wir nur Inventare, die wir technisch und kaufmännisch genau prüfen können. Wenn immer möglich bei Partnern (häufig in privaten Marktplätzen), die wir kennen und mit denen wir schon etablierte Geschäftsbeziehungen haben – einschließlich der im Notfall im Interesse des Kunden notwendigen Sanktionsmöglichkeiten.
  • Wir vergessen die Kreation nicht: Was nützt die ausgefeilteste Planung auf Profilbasis, wenn nur ein Werbemittel vorhanden ist? Deshalb ist Data Driven Creativity aus unserer Sicht das unverzichtbare vierte Standbein von Programmatic Advertising – neben der Technik, der Mediafläche und den Daten.

Stand heute hat Programmatic bereits große Veränderungen im digitalen Mediabusiness bewirkt. Wir sind aber überzeugt, dass dieser Transformationsprozeß noch ganz und gar nicht abgeschlossen ist. Und er wird in Zukunft immer mehr Mediengattungen erfassen: TV, Out-of-Home, Audio, Kino und am Ende auch Print. In spätestens fünf Jahr werden wir immer mehr Kanäle über Programmatic planen, buchen und aussteuern können. Außerdem entwickelt sich die Mediennutzung der Menschen weiter, es entstehen in immer höherer Geschwindigkeit neue, relevante Plattformen und auch die Datenschutzvorgaben erfordern grundsätzliche und teilweise neue Antworten. All das sind Herausforderungen, die uns auf Trab und agil halten. Auf dem heutigen Entwicklungsstand stehen zu bleiben, ist keine Lösung. Vor allem, weil wir mit Programmatic erst am Anfang stehen.

Dieser Beitrag erschien zuerst auf adzine.de.