Um es gleich vorweg zu nehmen – die eine, universell richtige Strategie auf Amazon zu verkaufen gibt es nicht. Die Wahl des richtigen Verkaufsmodells ist jedoch ein erfolgskritischer Faktor in jeder ganzheitlich geplanten Distributionsstrategie. Eine intensive Auseinandersetzung mit allen zur Verfügung stehenden Optionen, ist daher unbedingt zu empfehlen.

Rückblick: 1995 als Online-Buchhändler gestartet, erkannte Amazon-Gründer Jeff Bezos sehr schnell, dass er sein Ziel, Amazon zum „größten Online-Kaufhaus der Welt“ zu machen, allein über das Retail-Geschäft mit Vendoren nur schwer werde erreichen können. So öffnete sich das Unternehmen aus Seattle bereits Ende der 90er Jahre für Dritthändler – auch Seller genannt – die seitdem gegen Abgabe einer Verkaufsgebühr in eigenem Namen auf der Plattform verkaufen können.

Seitdem entwickelt sich das Marktplatzgeschäft von Amazon äußerst dynamisch und hat den eigenen Retail-Handel bereits im Jahr 2015 an Umsatz übertroffen. Laut einem Anfang des Jahres veröffentlichtem Brief von Jeff Bezos an seine Aktionäre, hat der Marktplatz 2018 rund 58% der gesamten Warenverkäufe auf der Plattform erzielt. Dieser Umstand war Bezos den trockenen aber treffenden Kommentar wert: „Die Drittanbieter-Händler treten uns in den Hintern. Kräftig.“

Amazon fokussiert sich zunehmend auf das Marktplatzgeschäft

Ungewollt ist diese Entwicklung aber nicht – sie ist eher strategisches Kalkül. Nutzte Amazon in der Vergangenheit seine direkten Lieferantenbeziehungen um schnelles Wachstum und Marktmacht zu gewinnen, findet seit einiger Zeit eine spürbare Fokussierung auf das für Amazon profitablere und risikoärmere Marktplatzgeschäft statt. So hat zum einen eine Angleichung der Tools stattgefunden, mit denen Seller und Vendoren ihre Produkte darstellen und bewerben können (z.B. Sponsored Ads, A+ Content und Brand Stores).

Zum anderen wurden Support und persönliche Betreuung von Vendoren beispielsweise durch Vendor- und InStock-Manager deutlich zurückgeschraubt. Nicht zuletzt sorgte Anfang des Jahres eine Meldung für Aufsehen, nach der Amazon unangekündigt und ohne weitere Begründung Bestellungen bei mehreren Tausend, überwiegend kleineren Vendoren, gestoppt habe, um diese in das Seller-Programm zu drängen. Dies wäre eine sehr aggressive Methode zur Verlagerung des Retail- zugunsten des Marktplatzgeschäftes.

Die Modelle unterscheiden sich weiterhin fundamental

Trotz Angleichungen in einigen Bereichen, unterscheiden sich beide Modelle aber nach wie vor fundamental voneinander. Fällt die Entscheidung für das Vendor-Modell, bedarf es zunächst einer entsprechenden Einladung von Amazon. Ist diese Hürde genommen, sind ausschlaggebende Faktoren einerseits vertriebspolitische Gründe, zum Beispiel, wenn eine Konkurrenzsituation mit anderen Händlern, die im Zweifel ebenfalls Kunden sind, vermieden werden soll.

Daneben sind auch das zumindest theoretisch höhere Absatzpotential, das hohe Vertrauen der Kunden in die Marke Amazon sowie der Zugriff auf die noch verbleibenden exklusiven Marketingprogramme (z.B. Amazon VINE zur Generierung von Produktrezensionen) Argumente für den Vendor-Status. Im Gegenzug verlieren Vendoren preispolitische Einflussmöglichkeiten, müssen sich jährlich in zum Teil harte und langwierige Konditionenverhandlungen mit Amazon begeben und weitestgehend auf Endkundenkontakt verzichten.

Seller hingegen schätzen die größere Flexibilität hinsichtlich der Preisgestaltung und Lagerbestandsplanung sowie die deutlich umfangreicheren, kostenlos zur Verfügung gestellten Daten und Insights in Bezug auf Bestellungen, Keywords und Warenkorbstatistiken. Als nachteilig werden hingegen vor allem der höhere Aufwand bei Fulfillment oder Kundensupport wahrgenommen.

Ein hybrider Ansatz könnte ebenfalls eine gute Lösung sein

Wer über genügend Ressourcen, Know-how und die entsprechende technologische Infrastruktur verfügt um beide Modelle umzusetzen, für den könnte ein hybrider Ansatz eine weitere Option darstellen. Dieser vereint die Vorteile von Vendor- bzw. Seller-Dasein und erfreut sich daher zunehmender Beliebtheit. Die höhere Flexibilität bei der Festlegung der Verkaufspreise, die Sicherstellung der Verfügbarkeit auch unrentabler „CRaP-Produkte“ (Can´t Realize any Profit) sowie der Zugang zu spezifischen Analysedaten in Seller Central, können für (Teil-) Segmente eines Herstellers oder Händlers ausschlaggebende Argumente für die Wahl eines Hybrid-Modells sein. Richtig gemanaged, kann dieses Modell die erhöhten Aufwände und eventuell auftretende Kannibalisierungseffekte beider Kanäle mehr als aufwiegen.

Dieser Beitrag ist Teil einer vierteiligen Serie bei etailment.de. Hier geht’s zu den Teilen Eins, Drei und Vier.

Auf 53,3 Milliarden Euro ist der deutsche Onlinehandel im Jahr 2018 laut dem Institut für Handelsforschung gewachsen. Dies entspricht einer Steigerung gegenüber dem Vorjahr von über 4,4 Milliarden Euro bzw. 9,1 Prozent.  Rund die Hälfte dieses Wachstums wurde hierbei alleine durch den Marktplatz von Amazon getrieben, der in 2018 in DE über 100.000 neue Händler und Hersteller für sich gewinnen konnte, bemerkenswerterweise davon ca. 40 Prozent aus der Volksrepublik China.

Die Gründe für diese rasante Entwicklung sind schnell identifiziert: Zum einen nutzen immer mehr Konsumenten das Internet zum Einkaufen und starten immer öfter ihre Produktsuche direkt bei Amazon. Noch vor wenigen Jahren war diese Torwächterfunktion im E-Commerce der Suchmaschine Google vorbehalten. Zudem hat es Amazon geschafft mit Prime ein äußerst attraktives Kundenbindungsprogramm zu etablieren. Dessen rund 100 Millionen weltweite Mitglieder profitieren gegen Gebühr von kostenloser und schneller Lieferung, medialen Angeboten wie Prime Video oder Prime Music, exklusiven Rabattaktionen (z.B. Prime Day) und Spezialshops (z.B. Amazon Fresh). Dadurch ist die Plattform so tief im Relevant -Set der Kunden verankert, dass sie im Schnitt doppelt so häufig bei Amazon bestellen wie Nicht-Mitglieder. Als Zielgruppe zur Neukundengewinnung für andere Webshops sind diese Kunden praktisch nicht mehr erreichbar.

Neben der hohen Reichweite und einer besonders treuen Kundschaft bieten die digitalen Marktplätze von Amazon, OTTO & Co. noch einen weiteren, entscheidenden Vorteil. Ihre technische und logistische Infrastruktur kann von allen Anbietern genutzt werden, ohne selbst in finanzielle Vorleistung gehen zu müssen. So wird die Instandhaltung der Plattformen, Transaktionsabwicklung sowie Marketingaktionen z.B. zum Cyber Monday vom Betreiber übernommen und das Serviceangebot kann optional bis zur gesamten Logistik inklusive Lagerung und Retourenhandling erweitert werden, wie zum Beispiel bei Amazons Fulfillment-Programm FBA.

Zahlen des Kölner Marktforschungsinstituts IFH zeigen, dass Anbieter, die ihre Produkte 2017 über Amazon vertrieben haben, ein Umsatzplus von mehr als 20 Prozent gegenüber dem Vorjahr verzeichnen konnten, doppelt so hoch wie das Gesamtwachstum des Onlinehandels im gleichen Zeitraum. Die Abwicklung von Versand, Abrechnung und Gewährleistung über den Marktplatz, erleichtert kleineren Händlern und Herstellern darüber hinaus den Einstieg in internationale Märkte. Die Bekanntheit und das Vertrauen der Kunden in das globale Markenversprechen von Amazon oder eBay kann also jeder Anbieter zu seinem eigenen Vorteil nutzen.

Jedoch muss man neben all den genannten Anreizen und Vorzügen, welche die großen Plattformen zweifelsohne bieten, auch Risiken und mögliche Gefahren bei der Entwicklung einer geeigneten Marktplatzstrategie berücksichtigen.

Hersteller und Händler mit austauschbaren Produkten, ohne starke eigene Markenidentität oder signifikanten Preisvorteil sollten den Wettbewerb auf den Marktplätzen nicht unterschätzen. Kann im eigenen Online-Shop das Sortiment in aller Breite und Tiefe exklusiv präsentiert werden, konkurriert man auf Amazon und Co. mit zahlreichen Anbietern um die Aufmerksamkeit der Kunden und Sichtbarkeit der eigenen Produkte. Durch eine Reihe effektiver Marketing-Tools lassen sich zwar entsprechende Platzierungen auf den ersten Suchergebnisseiten einkaufen, um aber auch langfristig eine organische Top-Platzierung zu erzielen sind je nach Kategorie erhebliche Investments in werbliche Maßnahmen sowie die Pflege und Optimierung des Produktkatalogs notwendig, die eine kalkulierte Marge schnell auffressen können.

Ein weiterer Nachteil, insbesondere in der Customer-Lifetime-Value Betrachtung, ist die fehlende oder stark eingeschränkte Möglichkeit mit Kunden in direkten Kontakt zu treten, diese über Aktionen oder Neuprodukterscheinungen zu informieren und eine nachhaltige CRM Strategie zu etablieren.

Last but not least besteht die Gefahr einer zu starken Abhängigkeit vom Marktplatz und dem drohenden Kontrollverlust über die eigene Marke. Unvorhersehbare Gebührenerhöhungen, Änderungen in den allgemeinen Guidelines und Geschäftsbedingungen sowie der Vormarsch zahlreicher Amazon Eigenmarken wie „Basics“, „Essentials“ oder „Find“ können das Engagement auf Markplätzen über Nacht unrentabel machen. Schlechte Geschäftspraktiken oder negative Black Hat Taktiken der Konkurrenz können im schlimmsten Fall sogar zu einer sofortigen Sperrung des eigenen Accounts führen.

Es empfiehlt sich daher die intensive Prüfung weiterer Vertriebskanäle zur Diversifizierung. Neben der Analyse von Nischen-Marktplätze wie z.B. hood.de, yatego.com, avocadostore.de oder selekt.com, sollte auch die Erstellung eines eigenen Online-Shops in Betracht gezogen werden. Dieser hat insbesondere dann große Aussicht auf Erfolg, wenn er sich signifikant und für den Kunden leicht ersichtlich von den Angeboten der Marktplätze unterscheidet. Man erreicht dies beispielsweise durch eine besonders attraktive Preisstruktur, ein unverwechselbares Produktsortiment oder auch durch eine außergewöhnlich gute User Experience. Der Einsatz von Augmented Reality oder Chat Bots für besonders erklärungsbedürftige Produkte oder Services kann einen echten Mehrwert bringen und so Zielgruppen auch abseits der großen Marktplätze für neue Shopping-Kanäle erschließen.

Eine pauschale Empfehlung hinsichtlich der Entwicklung und Etablierung einer geeigneten E-Commerce- und Marktplatzstrategie lässt sich nicht treffen und muss individuell vorgenommen werden. Generell lässt sich aber festhalten: Aufgrund der hohen Reichweite und des enormen Potentials führt kaum ein Weg an den großen Marktplätzen vorbei. Da die Plattformen aber aufgrund ihrer Marktmacht die Beziehung meist einseitig diktieren, sollte eine zu große Abhängigkeit und Konzentration auf einen Marktplatz vermieden und alternative Standbeine aufgebaut werden.

Dieser Artikel ist Teil einer vierteiligen Serie bei etailment.de. Hier geht’s zu Teil Zwei, Drei und Vier.

Im Herzen eines jeden Shops steht ein Produkt, das auch verkauft werden will. Insbesondere im digitalen Marketing werden die eigene Marke, ganze Kategorien, aber auch einzelne Produkte beworben. Doch diese Produkte sind selten exklusiv im eigenen Shop vertreten, denn auch die Konkurrenz listet entsprechende Angebote. Auf Plattformen wie Amazon, Facebook, Google Shopping, Payback, Criteo oder Idealo werden Produktmerkmale wie Preis oder Farbe miteinander verglichen und auf unterschiedliche Weise wie z.B. Retargeting oder Preisvergleich mit zusätzlicher Reichweite versehen. Das schafft einen Mehrwert für den Endkunden, wird doch das Angebot transparenter und die Auswahl auf den Shopping-Plattformen größer. Doch wie speisen sich die Produktmerkmale eigentlich in diese Plattformen? Die Antwort liegt im Produktdatenfeed.

Der Produktdatenfeed ist damit das Filet und Herzstück, um Produkte bestmöglich zu platzieren und durch höhere Aufmerksamkeit mehr Umsatz zu generieren. Fehlen Produktmerkmale wie zum Beispiel die Farbe, Größe oder der Preis, kommt es oftmals gar nicht erst zu einer Listung – und damit zu Umsatzverlust. Noch heikler wird es, wenn Grundpreise (also Preis pro Liter/Gramm/Meter) auf Shopping-Plattformen wie z.B. Google Shopping nicht im Feed zur Verfügung stehen: Es droht die Abmahnung durch den Wettbewerb. Dabei ist die Lösung eigentlich ganz einfach, denn ein Grundpreis kann zumeist recht leicht automatisiert errechnet und im Datensatz angereichert und markiert werden. Ist der Grundpreis für Google dann im Feed vorhanden, wird er auch ausgespielt und die Anzeige rechtlich konform ausgeliefert.

Datensätze wie Bestände oder Produktfarbe lassen sich häufig aus der eigenen Webseite auslesen, in Datenbanken schreiben und im Datenfeed wieder zur Verfügung stellen. Sucht der Käufer dann auf den einschlägigen Plattformen nach einem „roten Kleid“, so wird das auf der Plattform dann eben auch ausgespielt und steht im Angebot und Wettbewerb zu allen roten Kleidern in einer bestimmten Größe. Und häufig liefern sogenannte „Crawls“, also das automatisierte Absuchen und Abspeichern von bestimmten Informationsbereichen auf Webseiten weit mehr nützliche Informationen, als sie fürs Marketing notwendig wären. Preisfehler lassen sich in weiteren Listen erfassen, die der Korrektur auf der eigenen Webseite dienen. Und diese Daten kommen nicht nur aus der eigenen Webseite: Auch andere Seiten, Masterfeeds oder externe Datenpools lassen sich über API-Schnittstellen anzapfen und reichern die zum Produkt gehörenden Informationen an. Bestandsinformationen können in Echtzeit nicht mehr vorhandene Produkte aus der Bewerbung nehmen oder sogar dem Einkauf wertvolle Informationen zur aktuellen Nachfrage liefern.

Gut angereicherte Datensfeeds führen zu Umsatz

Auch die Affiliate-Netzwerke klagen über fehlende Produktinformationen ihrer Kunden für ihre Publisher. Ein gut angereicherter Datenfeed würde über die Netzwerke direkt auf mehreren Shopping-Plattformen verteilt und somit den Umsatz skaliert nach oben treiben. Skaliert deswegen, weil die Anreicherung um die begehrten Produktinformationen einmalig im Feed initiiert wird und danach auf allen Plattformen wertschöpfend eingesetzt werden kann. So manche Plattform lässt sich hierdurch überhaupt erst erschließen, da verschiedene Datenfelder obligatorisch zu befüllen sind, um überhaupt erst in die Bewerbung aufgenommen zu werden. Ist der Datenfeed erst einmal ordentlich angereichert und in die Systeme eingepflegt, können damit fast alle Kanäle am konversionsstarken Ende der Customer Journey erfolgreicher Umsatz generieren: Amazon, Google Shopping, Facebook und Affiliate.

Dieser Artikel erschien auch im Digital Publishing Report.

Bei 40 Grad im Schatten wird Deutschlands liebstes Hobby plötzlich unwichtig: Fernsehschauen. Schade eigentlich, denn pünktlich zu den Hundstagen wird das Verhältnis von TV-Geräten und Suchmaschinen neu justiert. Warum dies so ist und weshalb besonders bei der alten und jungen Zielgruppe Voice als Suchmaschine im Auge behalten werden sollte, erfahren Sie in SEO News für den Monat Juli.

TV und Search – Ungleiche Geschwister auf Schmusekurs

Im Hitzesommer 2019 trübt sich das wirtschaftliche Klima weltweit deutlich ein, betroffen ist insbesondere auch Exportweltmeister Deutschland. Viele Unternehmen sind durch diese Entwicklung dazu gezwungen, ihre Ausgaben in Werbung und Marketing zu überprüfen. Entlang digitaler Kanäle genießt man den Vorteil, dass sich Kosten und Ertrag (zumindest in der Theorie) in eine direkte Verbindung setzen lassen. Der Preis einer Conversion oder ROI und ROAS auf das eingesetzte Budget ist in der Regel gut plan- und kalkulierbar. Nicht so einfach ist dies jedoch bei TV-Kampagnen, deren hohe Reichweite weniger exakt ausgewertet werden kann.

Da liegt es im Interesse der Werbewirtschaft, dem Zusammenspiel beider Kanäle verstärkt Aufmerksamkeit zu widmen, um mögliche Synergieeffekte auszuloten. Die Frage, wie sich TV/Display und Search gegenseitig beeinflussen ist nicht neu; interessant ist aber, dass Search, organisch und bezahlt, immer häufiger als Bindeglied zwischen einem zuweilen diffusen TV-Impact und den echten Umsätzen eines Unternehmens verstanden wird.

Call-to-Action als Hebel zu höherer Nachfrage

Wie das New Yorker Branchenblatt „Digiday“ berichtet, gehen immer mehr US-amerikanische Firmen dazu über, ihre Attributionsmodelle dahingehend zu überprüfen, wie sich ihre TV-Präsenz in der organischen Suchnachfrage und der Performance ihrer bezahlten Search-Kampagnen niederschlägt. Eine höhere Nachfrage, insbesondere nach Markenbegriffen lässt sich nicht nur durch höhere Investitionen in TV und Display-Kampagnen stimulieren; auch ein direkter Search-Aufruf wie „Einfach XYZ googeln!“ oder „Suchen Sie XYZ“ kann das Suchvolumen über klassische Media-Kanäle deutlich steigern, so der Bericht.

Ein kreativer Ansatz, wie er in den USA oder UK seit Jahren genutzt wird, in Deutschland aber noch immer eine Ausnahmeerscheinung ist. Bei diesem Setup kann man Analytics-Daten aus Search heranziehen, um die crossmediale Kampagnenplanung entlang der Customer Journey zu optimieren. Um welchen Hebel klassische Reichweitenkampagnen die Awareness stimulieren können, lässt sich an Veränderungen im Suchvolumen messen – die Kosten für bezahlte Search-Conversions können wiederum zur Ermittlung des ROI/ROAS der TV-Kampagne herangezogen werden. Zugleich ermöglicht eine nachhaltige SEO-Arbeit das hinzugewonnene organische Suchvolumen gezielt auf konversionsstarke Landingpages zu leiten. Hierdurch kann die optimale User Experience von der Fernsehcouch bis zur Conversion sichergestellt werden. Wie die Agentur Mediaplus in einer gemeinsamen Studie mit SevenOne Media und Google festgestellt hat, können ähnliche Werbewirkungseffekte auch mit Hilfe von Googles Videosuchmaschine YouTube realisiert werden. Es ist also höchste Zeit, die lange gepflegte Konkurrenz der Marketinggeschwister TV und Search zu beenden, damit knappe Budgets in wirtschaftlich schwierigen Zeiten effektiver und effizienter eingesetzt werden können. Unter Geschwistern sollte man sich schließlich verstehen.

Wer spricht hier eigentlich mit Alexa?

Endlich ist auch in unserer latent übereuphorischen Branche der nervöse Hype um die Möglichkeiten und Segnungen der Sprachsuche einem nüchternen Realismus gewichen. An dieser Stelle haben wir in der Vergangenheit des Öfteren darauf hingewiesen, dass es sich bei Voice Search lediglich um eine Erweiterung der Mensch-Maschine-Schnittstelle für Suchsysteme handelt. Die inhaltlichen Auswirkungen in Bezug auf neue Formen der Interaktion würden aber die hohen Erwartungen wahrscheinlich nicht erfüllen können. Wie nun berichtet, war die Experteneinschätzung, dass im Jahr 2020 rund 50 Prozent aller Suchanfragen per Voice vermittelt werden, lediglich eine Fehlinterpretation von Daten aus der Volksrepublik China.

Natürlich steigen auch unabhängig von diesem kleinen Marktforschungs-Fail die Nutzungszahlen für Voice Search an. Dies ist vor allem der weiterhin inflationären Markteinführung dialogfähiger Endgeräte geschuldet. Die US-amerikanische Marketingagentur „Path“ hat in einer globalen Umfrage untersucht, wie unterschiedliche Zielgruppen auf verschiedenen Plattformen die neue Technologie nutzen. Die Ergebnisse der Untersuchung sind durchaus vielschichtig: So gaben rund 70 Prozent der Teilnehmer an, die Sprachsuche wöchentlich zu nutzen. Ein Viertel nutzt die Technologie sogar bis zu dreimal am Tag. Aufgeteilt in Altersgruppen sticht hervor, dass sich insbesondere Nutzer am unteren (13-18 Jahre) und oberen (65+ Jahre) Ende der Altersskala zu häufigem Spracheinsatz bekennen.

Dieser Text erschien zuerst bei internetworld.de.

Stellen Sie sich vor, Sie haben 550 Geschwister, Töchter und Söhne. Beste Freunde und Bekannte nehmen Sie noch dazu. Und jetzt wollen Sie alle an einen Frühstückstisch bekommen. Oder zum Kaffee zwischendurch. Oder generell zum regelmäßigen Austausch. Wie geht es der Schwester in der Schweiz eigentlich? Was wurde bei Tochter 137 letztens nochmal gefeiert?

Auf Fragen wie diese können Mitarbeiter von Großunternehmen zukünftig in wenigen Minuten antworten. Dank firmeneigenem InfoHub. Doch was muss eine solche Applikation leisten, um geschäftliche Mitteilungen termingerecht zur Verfügung zu stellen und zu verwalten?

Komprimierung aller Informationen in einer App

Das stundenlange Suchen in E-Mail-Postfächern, im Intranet oder auf Homepages hat ein Ende! Mal eben kurz eingeloggt, findet man alle Ankündigungen und Veränderungen des Konzerns gebündelt auf einer Plattform. Gut sortiert und mit einem Blick erfassbar.

Erhöht die Relevanz der Nachrichten: die Filterfunktion

Bei über 550 Familienmitgliedern und Joint-Venture-Partnern kommen zügig unzählige Informationen zusammen. Deshalb ist eine ausgeklügelte Filterfunktion, die eine personalisierte Darstellung der Benutzeroberfläche zulässt, absolut erforderlich. Idealerweise, ohne allgemeingültige, aber wichtige Mitteilungen aus dem Fokus zu verlieren.

Rechtzeitig unterrichtet: durch Pushbenachrichtigungen

Was wurde kürzlich nochmal gefeiert? Wenn diese Frage aufkommt ist es meistens schon zu spät. Eine kurze Info, wann ein Event stattfinden wird, ist hier von Vorteil. Deshalb müssen Pushnachrichten direkt von der App ausgesteuert werden können, sobald eine Nachricht verkündet wird. Somit sind alle sofort auf dem neuesten Stand und können – unter Umständen – Tochter 137 sogar live zum Jubiläum zuprosten. Damit auch wirklich kein Ereignis im permanenten Informationsfluss untergeht, hilft die zusätzliche Bookmark-Funktion.

Neue Möglichkeiten für Corporate Influencer

Manchmal gibt es Nachrichten, die Mitarbeiter gerne an ihre Freunde weiterleiten möchten. Dafür sollten Teilfunktionen für die bevorzugten Kanäle wie E-Mail, WhatsApp, LinkedIn, Facebook oder Twitter im Tool implementiert werden. Auf diese Weise ermöglicht man Mitarbeitern auch ganz einfach zum Corporate Influencern ihres Unternehmens zu werden. Bei vertraulichen Unternehmensinformationen hingegen, die den Kreis der Familie nicht verlassen dürfen, sollte die Teilen-Funktion selbstverständlich deaktiviert sein.

Mitteilungen Häppchenweise serviert

Der Clou am InfoHub und ein guter Grund, warum diese Form des Informationsaustausches so schnell von vielen Usern angenommen wird, ist die Art der Aufbereitung. Alle News werden wie auf dem Silbertablett präsentiert, die Inhalte sind sofort erfassbar: durch ausdrucksstarke Bilder, kurze Headlines und Teaser. Am besten sind die Artikel einfach mit der Ursprungsquelle verlinkt und/oder als PDF downloadbar.

InfoHub im Einsatz bei Lufthansa Group

Der „InfoHubSales“ des international agierenden Luftverkehrskonzerns, der im April 2018 online gegangen ist, wurde gemeinsam mit Plan.Net Connect – eine Tochter der Serviceplan Gruppe – extra für die Sales-Abteilung der Lufthansa Group Netzwerk Airlines entwickelt. Seit dem weltweiten Rollout Anfang 2019 erfreut sich die App unter den Lufthansa Group Vertriebsmitarbeitern schon jetzt großer Beliebtheit. Plan.Net Connect setzte bei der Weiterentwicklung des InfoHubSales auf die technologischen Features des CMS-Systems Contao. Regelmäßige Updates, eine hohe Funktionalität – auch und besonders beim Befüllen redaktioneller Inhalte –, leichte Bedienung und Steuerung, Möglichkeiten des Social Sharings, eine stabile Performance, die weltweite Verfügbarkeit: Das waren bei der Entscheidung für dieses System die wichtigsten Faktoren.Außerdem wird durch permanente Reportings das Userverhalten ständig dokumentiert, um den Grad der personalisierten Ausspielung weiter zu erhöhen.

Ein Blick in die Zukunft

Damit auch für kommende Generationen von Großkonzernen jede noch so wichtige Information erhalten bleibt, werden aus Kommunikationsplattformen von heute Wissensdatenbanken von morgen. Digitale Nachschlagewerke für Firmengeschichten, voller technischer Entwicklungen und Errungenschaften entstehen. So kann auch in 50 Jahren noch jeder nachlesen, was es bei Tochter 137 nochmal zu feiern gab.

Künstliche Intelligenz hat viele Facetten. Neben autonomem Fahren, Mediaplanung und anderen Anwendungsfeldern ist sie auch im Kontext von Voice ein wichtiger Innovationstreiber. Doch kann Voice überhaupt einen echten Mehrwert bieten und wenn ja, für wen?

Auch fünf Jahre nachdem Amazon sein erstes Echo-Gerät veröffentlicht hat, steht die Technologie Voice noch am Anfang. Die Flut neuer Geräte sowohl von Amazon, als auch von Google und die ständige Veröffentlichung neuer Funktionen und Verbesserungen zeigen, dass es noch viel zu tun gibt, bis Voice sein volles Potenzial entfaltet. Nichtsdestotrotz kann es auch jetzt schon in vielen Bereichen das Leben erleichtern, oder zumindest bequemer machen. Es ist zum Beispiel selbst für die Oma kein Hexenwerk mehr, über Sprache das Licht ein- und auszuschalten, die Heizung zu steuern, nach dem Wetter zu fragen oder die richtige Antwort auf eine Trivial Pursuit-Frage zu erhalten. Und in bestimmten Situationen macht Voice sogar mehr Sinn, zum Beispiel im Auto (zumindest solange wir es noch selbst fahren müssen), auf dem Fahrrad, für Menschen mit Behinderungen oder ältere Menschen, die sich mit anderen Schnittstellen nicht wohl fühlen. Voice ist leicht verständlich und aufgrund seiner Natürlichkeit für jeden gut zugänglich.

Voice kann die Persönlichkeit einer Marke erweitern

Marken kommunizieren mit ihren Kunden hauptsächlich über Kombinationen aus Texten und Bildern. Und natürlich ist jede Marke hier sehr individuell was Tonalität und Bildwelten angeht. Aber ein „echter“ Dialog konnte bis jetzt eigentlich nur mit Stellvertretern oder Markenbotschaftern stattfinden. Durch Voice ändert sich die Situation. Unternehmen müssen sich genau überlegen, wie sie sich als Marke nach außen darstellen, welche Antworten sie wie liefern wollen und können – und das möglichst authentisch.

Man sollte Voice also immer als eine Möglichkeit betrachten, die Persönlichkeit einer Marke zu erweitern und zu schärfen. Dabei hilft es, mit verschiedenen Ansätzen, Inhaltsformaten und Angeboten zu experimentieren, um die „Stimme“ Ihrer Marke zu finden.

In den letzten Jahren haben wir im Plan.Net Innovation Studio mit Kunden aus verschiedenen Bereichen zusammengearbeitet, um sie bei ihren ersten Schritten im Bereich Voice zu begleiten. Diese Branchen reichen von Finanzen bis Automotive, vom Einzelhandel bis zur Reisebranche und vieles mehr.

Die erste Frage, die man sich bei solchen Projekten stellen sollte ist: Welche Rolle soll meine Marke im Markt eigentlich einnehmen? Will ich einfach nur meine Produkte und Services bewerben, oder versuchen einen gesamten Themenbereich zu besetzen? Will ich nur informieren, oder meinen Kunden direkt die Möglichkeit geben etwas zu kaufen?

In jedem Fall sollte man Mehrwerte liefern, reine Selbstdarstellung kann man sich sparen.

Voice ist aus dem Berufsalltag nicht mehr wegzudenken

Voice ist hier, um zu bleiben. Wie das Internet wird es nicht wieder verschwinden. Deshalb ist es fundamental wichtig, dass man in allen Fachbereichen hinterfragt, inwieweit dieses Thema von Relevanz ist.

Nehmen wir zum Beispiel das Thema Search: Im Web ist es so, dass die ersten drei bis vier Suchergebnisse zu einem Keyword den Großteil der Nutzer abholen. Bei Voice ist eigentlich nur noch das erste Ergebnis relevant. Das führt zu einem noch größeren Wettbewerb und viele Anfragen beantworten die Plattformen mittlerweile komplett autark. Die eigenen Inhalte zu platzieren wird also immer schwieriger, zusätzlich sind die Plattformen noch sehr vorsichtig, was den Einsatz von Werbung angeht. Sie haben – zurecht – Angst, das Vertrauen der Nutzer zu verspielen. Aktuell gibt es daher eine Renaissance der Audio-Spots, die Audio-Streaming-Anbieter beispielsweise als Pre-Roll-Ads vor ihre Inhalte schalten. Ein gelernter Mechanismus, den YouTube seit Jahren verwendet.

Vor diesem Hintergrund ist es besonders wichtig, dass sich die Kollegen und Mitarbeiter gezielt mit Voice auseinandersetzen, dafür die notwendigen Freiräume eingeräumt bekommen und mit der Thematik experimentieren. Da es momentan noch relativ wenige Voice-Experten gibt, bietet dies für interessierte Kollegen die Möglichkeit, sich in dem Bereich fortzubilden und somit für das Unternehmen in einem innovativen Bereich einen Mehrwert zu generieren.

Dieser Artikel erschien zuerst bei Lead-digital.de.

Während uns die erste Hitzewelle des Sommers 2019 den Schweiß auf die Stirn treibt, kommt Google langsam aber sicher unter den Druck der US-Kartellwächter. In den SEO-News für den Monat Juni zeigen wir daher, ob sich die Suchmaschine wirklich ernste Sorgen vor einer Zerschlagung machen muss.

Google auf dem Weg zum Weltportal

Seit der Wahl von Donald Trump zum Präsidenten der Vereinigten Staaten wird jenseits des Atlantiks nicht mehr wirklich stringent regiert. Da also in Washington D.C. keine wichtigen Gesetze mehr verabschiedet werden, wollen die Politiker umso dringender herausfinden, wie man in diesen Schlamassel bloß hineingeraten ist. Aus diesem Grund werden vom Kongress in lockerer Reihenfolge die Bosse der großen Digitalriesen wie Amazon, Google, Facebook und Apple vorgeladen, um gleichzeitig Spurensuche und Schadensbegrenzung zu betreiben. Unter dem Damoklesschwert einer kartellrechtlichen Zerschlagung des Konzerns am Horizont musste im vergangenen Dezember auch Google-Chef Sundar Pichai die Frage beantworten, was seine Firma denn eigentlich mit ihrer sagenhaften Reichweite anfange. Genauer gesagt: Wie viele Nutzerzugriffe reicht Google im Sinne einer klassischen Suchmaschine an Drittseiten weiter und wie viel dieser Reichweite behält das Unternehmen zur Vermarktung und Monetarisierung auf den eigenen Webseiten und Apps der Alphabet-Holding?

Pichais Antwort war damals wenig hilfreich und beschäftigte sich statt mit konkreten Zahlen eher mit diffusen Einlassungen zu den Besonderheiten der User Journey in Search. Dabei ist die Suchmaschine aus Mountain View gerade dabei, eben diese User Journey gehörig auf den Kopf zu stellen: Auf der jüngst zu Ende gegangenen Suchmarketing Konferenz SMX Advanced in Seattle waren sich Beobachter beispielsweise einig, dass Google immer weniger ein Suchsystem ist, und sich vielmehr hin zu einem Portal entwickelt.

Clickstream-Daten bestätigen den Trend

Da trifft es sich gut, dass SEO-Urgestein Rand Fishkin diese Zahlenlücke gerade mit einem aktuellen Blogpost gefüllt hat. Aus den Clickstream-Daten der Analysefirma Jumpshot für den US-amerikanischen Markt hat er herausgearbeitet, dass rund die Hälfte aller rund 150 Milliarden US-Zugriffe auf Google im Jahr 2018 sogenannte „No-click-searches“ waren, also Endpunkte der User Journey, bei denen auf die Suchanfrage kein weiterer Klick hin zu einer Drittseite folgt. Google löst somit die Anfrage jedes zweiten Nutzers auf der eigenen Website und wird damit selbst zum Endpunkt der User Journey.

Neue Designlayouts und klickbare Features in den ehemals klar strukturierten Suchergebnissen befördern den Eindruck, dass Google je nach Intention der Nutzeranfrage, immer stärker die Funktion eines klassischen Webportals annimmt. Daneben leitet Google laut Jumpshot-Daten rund zwölf Prozent der Clicks auf eigene Drittseiten wie YouTube weiter. Unbekannt ist nach Angaben von Fishkin der Anteil an Suchanfragen, die auf einem Mobilgerät an eine Google-App wie Maps oder Gmail weitergeleitet und dort geöffnet werden. Damit bleibt ein signifikanter Anteil von noch immer mehr als 40 Prozent – über 60 Milliarden Klicks jährlich – der als organischer Traffic auf Drittseiten im Internet weitergeleitet wird.

Seine Trafficanalyse zeigt darüber hinaus, dass die Summe dieser Clicks über die vergangenen drei Jahre auch insgesamt relativ stabil geblieben ist. Jedoch sinkt der organische Traffic von mobilen Endgeräten im Vergleich zum Desktop deutlich. Grund hierfür ist die immer stärkere Bevorzugung bezahlter und lokaler Suchergebnisse auf dem kleinen Bildschirm. Für Seitenbetreiber sei dieser Rückgang des organischen Traffics aus der mobilen Suche nur noch nicht spürbar, da Googles Reichweite noch immer stark wachse, so Fishkin.

Google steht am Scheideweg

Fassen wir also zusammen: Google vermarktet einen Großteil seines Traffic-Wachstums auf den eigenen Webseiten und Apps. Dieser Verlust an potentiellen Besuchern für Drittseiten wird derzeit jedoch noch vom starken Gesamtwachstum Googles ausgeglichen. Ein Hauptgrund für diese Entwicklung ist, dass die Suchmaschine aus Mountain View sich bei bestimmten strukturierten Suchanfragen wie für Flüge, Hotels oder dem Kinoprogramm nicht mehr allzu sehr von seiner kommerziellen Konkurrenz, den Preisvergleichs- und Shoppingplattformen, unterscheidet.

Die Anhörungen vor dem US-Kongress und die nach Presseberichten eingeleiteten Untersuchungen des US-Justizministeriums kommen also zur rechten Zeit. Google muss sich entscheiden, ob es eine Suchmaschine oder ein allwissendes Universal-Portal sein will. Die Diversifikation seines Geschäftsmodells darf nicht auf Kosten der anderen Marktteilnehmer gehen.

Dieser Beitrag erschien zuerst bei LEAD-digital.de.

Brand-Manager, Konsumenten aber auch Marketing- und Werbeleiter hegen eigentlich dasselbe Ziel, nämlich miteinander zur richtigen Zeit, am richtigen Ort und mit der richtigen Botschaft in Kontakt zu treten. Das Problem hierbei ist, dass sie alle ganz unterschiedliche Herangehensweisen verfolgen und Unternehmen die dafür notwendigen Daten selten in Echtzeit auswerten.

Der Verbraucher, der auf der Suche nach bestimmten Produkten oder Dienstleistungen ist, erwartet eine möglichst personalisierte Behandlung – und das natürlich jederzeit, auf allen verfügbaren Geräten und über jeden möglichen Kanal. Die sogenannte Customer Journey folgt schon lange keinem geraden Pfad mehr. Denn für Kunden gibt es unendlich viele Möglichkeiten, um mit den verschiedenen Unternehmen in Kontakt zu treten. Sie können dabei entweder direkt auf die Marken zugehen oder indirekt, zum Beispiel über Performance Marketing-Kanäle wie Preisvergleiche oder Social Media-Plattformen. Die Folge: Durch die verschlungene Customer Journey entstehen immer mehr Kaufprozess-bezogene Daten. Marketer hingegen wollen den digitalen Kunden verstehen und erreichen, haben aber dabei natürlich stets den eigenen ROI im Hinterkopf. Sie verfolgen dementsprechend eine Strategie, die das meiste aus dem Marketingbudget rausholt. Doch dazu müssten sie erstmal ihren Weg durch den Datendschungel finden. Die immer größer werdende Menge an Daten macht es ihnen jedoch zunehmend schwer, die richtigen Informationen zur richtigen Zeit zu finden.

Die fetten Wachstumsjahre sind vorbei

Der größte Teil der ständig gesammelten Daten verbleibt meist ungenutzt in der virtuellen Schublade. Gerade im Marketing werden unendlich viele Nutzerdaten gesammelt, um darauf basierend eine möglichst passgenaue, persönliche Marketingkampagne für die Shop- oder Websitebesucher zu schneidern. Derzeit gehen jedoch viele Marketingabteilungen noch zu unstrategisch mit den Daten um, denn die wenigsten Daten werden analysiert und in Kontext gesetzt. Konkrete Optimierungsmaßnahmen und Anschlusshandlungen ergeben sich daraus bisher also leider nur selten. Bevor man – mehr oder weniger – planlos Daten anhäuft, sollte man sich also fragen:

  • Muss ich wirklich ständig neue Daten sammeln, um meine Marketingkampagnen erfolgreich zu führen?
  • Wo fange ich mit dem Sammeln der Daten an und wo höre ich wieder auf?
  • Wie können Daten eingesetzt werden, um bei der Entscheidungsfindung zu helfen?
  • Und welche Daten sind für eine erfolgreiche Kampagnen-Aussteuerung eigentlich notwendig?

Zunächst ist die vielleicht etwas ernüchternde Antwort auf alle diese Fragen: Das Datensammeln an sich wird wohl nie aufhören. Es geht viel mehr darum, die (vorhandenen) Daten besser zu nutzen! Dazu sollten sich der Marketer eine vernünftige Datenstrategie zulegen, denn die fetten Jahre des Onlinehandels sind vorbei! In den ersten Jahren konnte der Onlinemarkt zunächst ein schnelles Wachstum verbuchen. Dies war aber zumeist auto-generiert, weil der Markt sich neu auftat und sich das Käuferverhalten in Richtung Online verschob. Zwar steigen auch heute die Onlineumsätze weiter, aber wesentlich langsamer als noch zu Beginn. Denn der Nutzer ist bereits online und der Markt immer mehr gesättigt. Jetzt wird der Kuchen verteilt! Wer weiterhin im vorderen Bereich der Onlineplayer mitspielen möchte, muss nun also auf mehr als kreative Kampagnen setzen. Denn letztlich bedeutet die Sättigung des Marktes, dass aktuell alle Marktteilnehmer die gleiche Startposition haben. Mit der gleichen Ausgangslage kann daher vor allem eine clevere Datenstrategie einen erheblichen Vorsprung vor der Konkurrenz verschaffen.

Das Datensammeln an sich wird wohl nie aufhören. Es geht viel mehr darum, die (vorhandenen) Daten besser zu nutzen!

Abteilungsübergreifenden Datenaustausch ermöglichen

Die gute Nachricht? Der erste Schritt hin zu einer erfolgreichen Datenstrategie ist mit einer ersten Bestandsaufnahme der vorhandenen Daten bereits getan! Die bestehenden Kundendaten sind besonders wertvoll, denn sie liefern wichtige Informationen über Kaufverhalten, Einkaufs- beziehungsweise Besuchsfrequenz und Warenkörbe.

Bereits existierende Daten sind für Unternehmen die Basis für die spätere, individuelle Werbeansprache der Verbraucher. Wichtig ist dabei, bereits vorhandene Daten abteilungsübergreifend miteinander abzugleichen und Überschneidungen ausfindig zu machen. Häufig weiß leider die linke Hand nicht, was die rechte tut. Auf diese Weise entstehen in der Regel Datensilos, die verhindern, dass der Datensatz zum Datenschatz wird. Umso essenzieller ist es dementsprechend, dass alle Abteilungen – von IT über Vertrieb bis hin zu Marketing – miteinander kommunizieren und ihre Daten in einer gemeinsamen Lösung, der sogenannten Single Source of Truth, zusammenführen. Dafür muss der Stellenwert der Daten über alle Abteilungsgrenzen hinweg klar kommuniziert werden. Idealerweise sollte jedes Unternehmen seinen eigenen Datenmanager haben, der als Schnittstelle zwischen den einzelnen Abteilungen fungiert. Dieser muss verstehen, wer die Zielgruppe des Marketings und des Vertriebs ist, um dementsprechend die richtigen Daten zu sammeln, aufzubereiten und zu verdichten.

Der Datenmanager kümmert sich darüber hinaus um das richtige Format für die Datenspeicherung, um sie anschließend über die Single Source of Truth verfügbar zu machen. Insbesondere bei großen Händlern und Konzernen entstehen häufig Produktsilos. Der Datenmanager muss sich um eine Verknüpfung der Daten kümmern, um die Auslieferung von produktübergreifenden Kampagnen möglich zu machen.

Der Fokus verändert sich: Weg vom Kaufabschluss – hin zu Kundenbedürfnissen

Eine sehr wichtige strukturelle Veränderung des Marktes ist die Verlagerung des Fokus von der Transaktions- hin zur Customer Lifetime-Perspektive. Dies bedeutet, dass nicht mehr der Kaufabschluss im Mittelpunkt steht, sondern der Kunde selbst. Es wird also zunehmend wichtig herauszufinden, wie viel ein einzelner Kunde Wert ist, wenn ich ihn gezielt ansprechen kann. Der Verbraucher, der auf der Suche nach bestimmten Produkten oder Dienstleistungen ist, erwartet eine personalisierte Ansprache und entsprechende Angebote. Der informierte Kunde recherchiert und shoppt dabei überall und jederzeit und hinterlässt so immer mehr Kaufprozess-bezogene Daten. Abseits des reinen Transaktionsfokus, der auch die Datenauswertung und Ansprache nur auf den Kauf selber ausrichtet, berücksichtigt die Customer Lifetime-Perspektive den langfristigen Wert des Kunden. Sie will einen zufriedenen Kunden hinterlassen, der wiederkommt, der einen Service weiter empfiehlt, der nach Abbruch eines Kaufes vielleicht dennoch in drei bis vier Monaten zum Käufer wird.

Daraus ergeben sich komplett neue Herangehensweisen und Fragen, die sich Marketer stellen müssen:

  • Wie denkt der Kunde?
  • Was interessiert ihn wirklich?

Die wichtigste Frage ist derzeit jedoch:

  • Wie stelle ich sicher, den Kunden über alle Kanäle zu erreichen?

Denn dieser bewegt sich von Kanal zu Kanal, geht also mal online und informiert sich dort über ein neues Produkt, fragt den Verkäufer am POS oder ruft Daten über sein Smartphone oder seinen Desktop-PC ab.

Marketingmanager müssen all diese Daten von den verschiedenen Kontaktpunkten zusammenbringen und einem Kunden zuordnen können. Denn letztlich hegen Marken, Konsumenten aber auch Marketing- und Werbeleiter eigentlich dasselbe Ziel, nämlich miteinander zur richtigen Zeit, am richtigen Ort und mit der richtigen Botschaft in Kontakt zu treten. Das Ziel des Unternehmens sollte sein, den Kunden regelmäßig mit für ihn passenden Inhalten anzusprechen und so eine langfristige Bindung an die Marke oder das Unternehmen zu erzielen. Denn ohne diese Bindung sind keine langfristigen, sondern weiterhin nur kurzfristige, von Aktionismus geprägte, Ziele realisierbar.

Durch die verschlungene Customer Journey entstehen immer mehr Kaufprozess-bezogene Daten, die oft unausgewertet bleiben. (Quelle: Tradedoubler)

BI-Lösungen fördern schnelle Entscheidungen im Marketing

Um den Kunden individuell passende Angebote machen zu können, ist eine Harmonisierung der verfügbaren Daten unabdingbar. Der Wert, der in den Daten steckt, muss ermittelt und ausgewertet werden. Angesichts der manuell nicht handhabbaren Datenberge kommen Unternehmen bei ihrer Marketinginfrastruktur kaum um eine entsprechende Business Intelligence (BI)-Lösung herum. Schließlich geht es nicht nur um eine Automatisierung der Marketingprozesse, sondern um die richtige Interpretation der Daten. Denn wenn das Marketingmanagement nur Teileinsichten erhält, muss es einige Entscheidungen „aus dem Bauch heraus“ treffen, da der Gesamtüberblick fehlt. So riskieren Marketingentscheider, falsche Entschlüsse zu treffen. Oder noch schlimmer: Die Datenberge überfordern sie und sie treffen überhaupt keine Entscheidung.

Marketingmanager benötigen ein Tool, das die Verarbeitung großer Datenmengen ermöglicht und die für Geschäftsentscheidungen erforderlichen Informationen in schnell zu erfassenden Grafiken und Diagrammen visualisiert. (Quelle: Tradedoubler)

Eine weitere wichtige Voraussetzung auf der Infrastrukturseite ist eine zentrale Datenhaltung, also die Verknüpfung und Zusammenfassung der Kunden- und Kampagnendaten in der Single Source of Truth. So laufen die Daten aller Marketingaktivitäten, sei es Suchmaschinenoptimierung, Affiliate- und Display-Marketing oder Social Media, zentral zusammen. Das Marketingteam bekommt die ausgewerteten Daten idealerweise in Echtzeit über die entsprechende BI-Lösung angezeigt und leitet basierend darauf Optimierungspotenziale ab. Die Customer Journey muss dabei stets im Blick behalten werden. Nur so kann die Verschiebung hin zum Customer Lifetime Value funktionieren. Schon heute sehen wir die Entwicklung, dass vorausschauende Unternehmen viel Know-how intern bündeln, hochspezialisiert sind und stark datengetrieben beziehungsweise IT-unterstützt arbeiten.

Die Customer Journey muss stets im Blick behalten werden. Nur so kann die Verschiebung hin zum Customer Lifetime Value funktionieren.

Big Data wird zu Smart Data

Den Firmen steht heutzutage also eine unüberschaubare Menge an Daten zur Verfügung. Nur mithilfe geeigneter Software ist es ihnen noch möglich, das komplexe Online-Nutzerverhalten über eine Vielzahl an Kanälen und Endgeräten komplett nachzuvollziehen. Die gewonnenen Daten werden so anschlussfähig gemacht und Marketer erhalten Einblicke dahingehend, inwiefern einzelne Plattformen, Kanäle, Geschäftsmodelle und Publisher die Kaufentscheidung beeinflusst haben. Nur mithilfe dieser Informationen können sie alle digitalen Marketingmaßnahmen optimieren und personalisierte Werbung zur richtigen Zeit, am richtigen Ort, für die richtige Person, auf dem passenden Gerät ausspielen. Alles in allem gilt: Ohne smarte Daten, keine erfolgreichen Entscheidungen im Onlinemarketing.

Ohne smarte Daten, keine erfolgreichen Entscheidungen im Online Marketing.

In fünf Schritten zu besseren Entscheidungen

Mit diesen fünf Schritten behalten Online Marketingmanager den Überblick über ihre Daten:

1. Brechen Sie Ihre internen Abteilungs- und Kanalsilos auf. Viel zu häufig wird der direkte Erfolg nur im eigenen Silo gesucht, anstatt sich auf den Kunden als Ziel zu konzentrieren. Akzeptieren Sie die kanalübergreifende User Journey des Kunden.

2. Wenn Sie noch einen Schritt weiter gehen können: Gründen Sie ein dediziertes BI-Team, das die Daten untersucht und einordnet. Für bestmögliche Ergebnisse sollte es aus einer ausgewogenen Mischung von Marketing-, IT-, Datenmanagement- und Vertriebsmitarbeitern bestehen.

3. Es muss eine klare Zielsetzung geben, auf der die Datenstrategie basiert und entsprechend ausgerichtet wird. Das bedeutet für das BI-Team, nur Daten abzufragen, die einem konkreten Verwendungszweck dienen. Eine strukturierte Vorgehensweise mit der Zielsetzung im Hinterkopf verhindert das reine Ansammeln von Daten.

4. Es sollten so wenig verschiedene Softwarelösungen wie möglich zum Einsatz kommen. Je mehr einzelne Lösungen genutzt werden, umso größer das Datenchaos.

5. Achten Sie darauf, ein Business Intelligenz-Tool zu wählen, dass ein einheitliches Reporting und systematische Analysen bietet. Das ist der Schlüssel für eine erfolgreiche Datenstrategie, denn nur so werden die Daten lesbar und anschlussfähig und können Sie darin unterstützen, die richtige Entscheidung zu treffen.

 

Dieser Beitrag erschien zuerst bei dpr.

SEO News

Kurz vor den Wahlen zum Europäischen Parlament wird viel über die Zunahme von weltweiten Konflikten und Konfrontationen diskutiert. Auch das Internet hat eine Geschichte von großen Auseinandersetzungen. Ob zwischen Amazon und Google nun der nächste Krieg der Plattformen droht, besprechen wir in den SEO-News für den Monat Mai.

Sprachassistenten: Der neue Wettkampf der Marktschreier

Der Wettkampf der intelligenten Assistenten ist in vollem Gange. Nachdem sich die erste Aufregung über die Möglichkeiten der neuen Sprachtechnologie gelegt hat, wird der Wert der neuen Begleiter nicht mehr länger am Presserummel gemessen. Stattdessen müssen Alexa, Siri und der Google Assistant nun ihre Wirtschaftlichkeit im harten Wettbewerb unter Beweis stellen. Die Ausgangssituation könnte dabei unterschiedlicher kaum sein: Stehen wir nach dem Ende der der Browser- und Konsolenkriege erneut kurz vor einem Kampf der Plattformen?

Wer mit seiner Marktmacht die Standards der Zukunft setzen wird, ist noch lange nicht ausgemacht. In Sachen Hardware hat augenscheinlich Amazon die Nase vorne. Obwohl sich beide Unternehmen nicht gerne in die Karten schauen lassen, hat der Online-Versandriese Zahlen bestätigt, wonach Amazon bis Ende 2018 rund 100 Millionen Geräte mit dem Sprachassistenten Alexa verkauft hat – vor allem intelligente Lautsprecher, wie den beliebten „Echo“ in unzähligen Varianten. Zum selben Zeitpunkt kam Google laut einer Studie der Beratungsgesellschaft RBC auf rund 50 Millionen verkaufte Lautsprecher weltweit.

Nicht Quantität, sondern der Mehrwert ist entscheidend

Die Anzahl von aktivierten Geräteeinheiten zeigt allerdings nur die Hälfte der Wahrheit: Anlässlich seiner Entwicklerkonferenz „Google IO“ gab das Unternehmen aus Mountain View kürzlich bekannt, dass man zwar in Sachen Smart Speaker hinter dem Rivalen Amazon zurückliege, die Software des hauseigenen Google-Assistenten im Gegensatz dazu jedoch bereits auf mehr als 1 Milliarde Geräten verfügbar ist. Hierzu zählen in erster Linie Smartphones, auf denen der Google Assistant als App eingesetzt werden kann; auf Android-Handys ist die Funktion beispielsweise bereits vorinstalliert. Zwar versteckt sich auch Alexa immer häufiger in Mikrowellen, Toiletten oder Synthesizern, allerdings muss dabei die Frage erlaubt sein, welchen Mehrwert der als Einkaufs- und Unterhaltungsmaschine konzipierte Sprachassistent hier zu bieten hat.

Google hat da mit Blick auf die Nutzungsszenarien eine deutlich bessere Ausgangslage. Eingebettet in eine umfassende Palette an Diensten und Funktionen von Email über Shopping, Navigation und den Terminkalender kann der Suchmaschinenriese ein ganz anderes Portfolio von Dienstleistungen anbieten. Auf seinem Weg zur Etablierung einer umfassenden und allgegenwärtigen Orientierungs-, Lösungs- und Komfortmaschine ist der Assistant für Google ein entscheidendes Instrument.

Google bläst zum Angriff – doch zieht nicht in den Krieg

So lässt sich auch die Ankündigung nachvollziehen, dass die Darstellung von Suchergebnissen im Assistant nun sukzessive dem Erscheinungsbild der mobilen Suchergebnisseiten (SERPs) angepasst werden soll. Dies hat zur Folge, dass sich die semantische Markierung und Strukturierung von Inhalten ebenfalls im Kontext des Google Assistant auszahlen wird. Darüber hinaus werden auch nicht-strukturierte Informationsfragmente ab sofort in Formaten ähnlich den bekannten Rich Snippets (kleine Auszüge von Webseiteninhalten auf den Suchergebnisseiten), den Knowledge Graphs oder direkten Antworten dargestellt. Diese Beobachtung scheint auch die Theorie der hier bereits thematisierten „Fraggles“ zu bestätigen, laut der Googles Künstliche Intelligenz  in Zukunft vermehrt kleine Informationshäppchen ohne Verweis auf eine URL frei kombiniert und zu einem individuellen Suchergebnis zusammenstellt. Auch in Sachen Monetarisierung geht Google in die Offensive und will seine Anzeigenkampagnen ab sofort auch auf Android Geräten innerhalb des Assistant aussteuern.

Die Entwicklung der Sprachassistenten läuft also nicht auf eine direkte Konfrontation hinaus, ein neuer Plattformkrieg wird uns wohl erspart bleiben. Die Frage, welcher Anbieter mehr Anwendungen von Dritten auf seiner Plattform vereinen kann, steht dabei nicht mehr so Vordergrund, wie es noch beim mobilen Betriebssystem der Fall war. Vielmehr werden wir Nutzer die Frage beantworten, ob Sprachsuche in Kombination mit künstlicher Intelligenz individuelle Lösungen für eine Vielzahl eng gefasster Nutzungsszenarien wie Amazons Einkaufsservice und Musikdienst hervorbringen wird, oder ob sich die große Google-Lösung einer umfassenden technischen Infrastruktur zu Unterstützung menschlicher Existenz in allen Lebenslagen durchsetzen wird.

Dieser Artikel erschien zuerst bei Internet World Business.

Wir schreiben das Jahr 2019. Das Thema Werbung im digitalen Raum hat sich seinen Platz in der Kommunikationswelt erobert und baut ihn immer weiter aus. Dies basiert auf den sich verändernden Mediennutzungsgewohnheiten der jüngeren und zunehmend auch älteren Nutzer, dem breiten Potential relevanter Werbeformen und nicht zuletzt auch den immer ausgefeilteren, datenbasierten Möglichkeiten der Kommunikationssteuerung.

Dabei ist die Kombination von Nutzungssituation, Zielgruppenprofil und bisheriger Historie der werblichen Kontakte der Schlüssel für die Optimierung von Art, Inhalt und Häufigkeit des kommunikativen Kontakts. Grundlage dafür ist eine einheitliche Datenbasis, die eine Steuerung aller relevanten Touchpoints zulässt. Klingt nach einer exzellenten Ausgangposition für die großen Amis (Google, Facebook, Amazon: GAF) und das ist sie auch. Sie erfüllen fast alle Voraussetzungen, jeweils in ihrem eigenen (Daten-) Universum.

Und der „Rest der Welt“? Hat in Deutschland und Europa das Problem erkannt und beginnt nahezu zeitgleich mit zwei großen Playern, Verimi und NetID, zu handeln. Während Verimi sich aber vor allem außerhalb des Themas Kommunikationssteuerung betätigt, will NetID genau dafür die Grundlage liefern. Die Chancen für einen Erfolg sind gegeben. Wenn sich der „Rest des Marktes“ datentechnisch über NetID vernetzbar macht, bietet das ein mit den GAFs vergleichbares Reichweitenpotential. Wichtig ist dabei, dass NetID nur die technologische Grundlage liefert, die differenzierenden Angebote bleiben die gemeinsame Aufgabe der darüber vernetzten Plattformen.

Und bei geschickter Formulierung von Angeboten für den Werbemarkt ist auch ein echter Wettbewerbsvorteil drin. Erforderlich sind hohe Reichweiten. Das ist möglich, da die teilnehmenden Player sie heute schon haben – nur nutzbar machen durch Registrierung ist noch dringend erforderlich. Zweiter Erfolgsfaktor: Ein relevanter Teil hochwertiger, auch redaktioneller Umfelder mit impactstarken und effizienten Werbeformen ist dort im Angebot. Richtig spannend wird es dann bei Erfolgsfaktor Nummer drei, dem transparenten und rechtskonformen Zugangs der Kunden zu Tracking- und Optimierungsdaten. Hier schotten sich die GAF bisher weitgehend ab und verhindern die direkte und integrierte Erfolgsmessung durch Kunden und Agenturen. Die Beibehaltung dieser Offenheit kann der zentrale Wettbewerbsvorteil des „Rests der Welt“ sein, denn damit ist die Steuerungsmöglichkeit und der Erfolgsnachweis jedes eingesetzten Werbeeuros mit deutlich höherer Transparenz möglich als in den walled gardens. Das gilt nicht nur für die reine Leistungsmessung, sondern auch für qualitative Faktoren wie AdFrauf oder Visibility.

Das relevante Angebot für den Werbemarkt entsteht aus diesen drei Erfolgsfaktoren. Problematisch ist die konkret einsetzbare Reichweite, hier hat NetID noch erheblichen Aktivierungsbedarf bei den Nutzern. Der Rest ist schnell lösbar, wenn alle Beteiligten das Interesse des Marktes über ihre Partikularinteressen stellen.

Dann haben wir zwar immer noch ein (Daten-) Oligopol von dann vier großen Datenpools, aber der intensivierte Wettbewerb wird mehr Auswahl schaffen –  und das ist gut so.

Dieser Artikel erschien zuerst auf adzine.de.