Worum geht es?

Der EUGH hat ein richtungsweisendes Urteil hinsichtlich der Zustimmung der User zum Setzen von Cookies gefällt. Im Kern ging es nur um einen Wettanbieter und eine unlautere Praxis im Jahre 2013. Die Konsequenzen beziehen sich jetzt aber auf die Zukunft und ziehen weitere Kreise, als man das bei einem so eher unscheinbaren Vorgang erwarten würde.

Zusammengefasst und in finaler Konsequenz lässt sich aus dem Urteil ableiten, dass User aktiv der Speicherung sogenannter Cookies zustimmen müssen. Die gängige Praxis in welcher ein unterlassener Widerspruch bereits als Einwilligung gilt, ist somit hinfällig.

Was bedeutet dies mittelbar bzw. unmittelbar für Unternehmen?

Das EUGH-Urteil ändert zunächst kein geltendes nationales Recht. Es wird aber wahrscheinlicher, dass der deutsche Gesetzgeber die aktuelle ePrivacy-Richtlinie in deutsches Recht umsetzt und es somit zu einer gesetzlichen Consentpflicht für Cookies kommen wird. Dies betrifft alle Cookies, außer die, die technisch zwingend erforderlich sind. Eine Unterscheidung zwischen First- und Third Party Cookies gibt es dabei nicht, es geht schlicht um eine Zustimmung zum Zugriff auf die jeweiligen Endgeräte. Ob und wann diese Gesetzesänderung kommen wird ist offen.

Klagen von Nutzern gegen das Setzen von Cookies ohne Consent haben nach dem EuGH-Urteil eine hohe Aussicht auf Erfolg auch vor deutschen Gerichten. Klagen, auch in der Form von Musterklagen durch Verbraucherverbände, werden demnach mit an Sicherheit grenzender Wahrscheinlichkeit in naher Zukunft folgen. Nach erfolgter Rechtsprechung dürfte sehr unmittelbar Handlungsbedarf bestehen, ein Consent-Verfahren einzurichten. Es ist somit durchaus ratsam, sich sehr zeitnah mit den beauftragten Datenschützern im Unternehmen auszutauschen und zu überprüfen, wie in der Cookie-Policy künftig verfahren wird.

Was bedeutet eine Anwendung des EUGH-Urteils für den Werbemarkt in Deutschland?

Bei einer entsprechenden Übernahme der Rechtsauslegung auf nationaler Ebene, ergeben sich folgende Konsequenzen:

Die Möglichkeiten zur Nutzung von Cookies ist bereits durch novellierte Einstellungen bei großen Browsern (insbesondere Firefox und Safari) eingeschränkt. Dies gilt sowohl hinsichtlich der Adressierung von Nutzern als auch im Reporten bzw. in der Zuweisung von Kampagnenerfolgen (Conversions).

Es ist zu erwarten, dass die Nutzung von 3rd-Party Daten (und in reduzierter Form von 1st-Party Daten) aufgrund sinkender Verfügbarkeiten sukzessive zurückgehen wird. Dadurch werden datengestützter programmatische Ansätze deutlich erschwert.

Datengestützte Angebote in Verbindung mit Login-Prozessen wie z.B. bei Facebook werden an Bedeutung gewinnen, da sich diese eine Erlaubnis über eine Einverständniserklärung im Rahmen der AGBs einholen können.

Ebenso wird der Druck steigen, sich in sogenannten LogIn-Allianzen zu organisieren wie beispielsweise die Initiativen NetID oder Verimi. Inwieweit diese wiederum dem gesetzlichen Rahmen bei einer übergreifenden Cookie-Nutzung erfüllen, kann jedoch noch nicht 100-prozentig gesagt werden.

Erarbeitet und verabschiedet ist ein Standard (TCF 2.0) zur Einholung des Consents seitens des IAB Europe. Dies wird zumindest den Zustimmungsprozess vereinheitlichen und damit auch vereinfachen. Das TCF 2.0 wird für alle Verbandsmitglieder in Europa ab Ende Februar 2020 verpflichtend. Manche Publisher werden dieses bereits ab Anfang 2020 einsetzen.

Targeting-Formen die nicht auf Nutzerprofilen beruhen, werde an Bedeutung gewinnen. Hierzu zählt zum Beispiel kontextuelles Targeting. Dieses bietet sich vor allem an, wenn Produkte oder Services beworben werden, die sich über ein konkretes Thema definieren lassen. Wo dies nicht möglich ist, stößt die Methode jedoch ganz schnell an ihre Grenzen.

Fazit

Trotz aller Bemühungen und Initiativen werden sich die Rahmenbedingungen für datengestützte Kampagnen verschlechtern. Mit diesem Umstand muss sich der Markt anfreunden. Man darf getrost weiterhin davon ausgehen, dass die Zukunft der Mediaplanung in einer programmatischen bzw. automatisierten Abwicklung erfolgen wird, jedoch bedeutet die Neuregelung einen signifikanten Rückschlag im Entwicklungsprozess.

Ist die Entscheidung für einen oder mehrere Marktplätze gefallen und das ideale Verkaufsmodell gefunden, rückt die inhaltliche Optimierung des eigenen Auftritts in den Mittelpunkt. Die Darstellung und Präsentation der Produkte auf den selektierten Plattformen muss man als Schaufenster zum potentiellen Kunden verstehen, mit dem man in direkter Konkurrenz zum Wettbewerb steht. Denn die Kaufentscheidung für ein alternatives Angebot ist auf den Marktplätzen stets nur einen einzigen Klick entfernt.

Diese Disziplin wird häufig mit dem Begriff Marketplace Optimization (MPO) bezeichnet und ist aus drei Gründen von besonderer Relevanz und entscheidend für nachhaltigen Erfolg:

  1. Ansprechende und überzeugende Präsentation der Marke und Produkte

Reduzierte, qualitativ unzureichende sowie lieblos gestaltete Produktpräsentationen können das mühsam und kapitalintensiv aufgebaute Markenimage schnell wieder ruinieren. Nutzen Sie die Ihnen zur Verfügung gestellten Möglichkeiten, um Ihre Produkte optimal zu präsentieren. Verlängern Sie Markenerlebnisse konsequent über alle Touchpoints bis an den digitalen Point-of-Sale.

Mit hochwertigen Bildern, Videos und ansprechendem Content sollten Zweck, Nutzen und Abgrenzung des Produkts zum Wettbewerb eindeutig beschrieben werden. Darüber hinaus können auf vielen Marktplätzen noch weitere Bestandteile des Listings genutzt werden, um vertiefende Informationen zu geben. Dies können werbliche Kampagnenelemente (wie z.B. Testimonials) oder auch Produktvergleiche zur Entscheidungsfindung sein. Für eine bessere User Experience im Rahmen der vom Marktplatz vorgegebenen Möglichkeiten bietet es sich an, unterschiedliche Varianten und Produktportfolios in speziellen In-Store Bereichen individuell zu präsentieren.

  1. Verbesserung der Sichtbarkeit der gelisteten Produkte und Steigerung des organischen Traffics

Ob eine Suchanfrage für ein bestimmtes Produkt als relevant eingestuft wird oder nicht entscheidet der jeweilige Algorithmus des Marktplatzes anhand verschiedener Kriterien. Neben der korrekten Kategoriezuordnung spielen der Content, und die hier verwendeten Schlüsselwörter der Produkt-Detailseite eine besonders wichtige Rolle.

Basis einer jeden Optimierung sollte daher eine gründliche und umfassende Keyword-Recherche sein. Die so ermittelten, relevantesten Suchbegriffe müssen dann an geeigneter Stelle in den Content eingebunden werden. Bei Amazon sind dies beispielweise indexierbare Bereiche, wie der Produkttitel oder die Beschreibung von Features. Auch im Backend können wichtige Schlüsselwörter häufig direkt hinterlegt werden. Dadurch werden sie vom Algorithmus indexiert und das Produkt bei entsprechenden Suchanfragen als relevantes Suchergebnis angezeigt.

Mit dem Wachstum digitaler Marktplätze steigt auch die Konkurrenz der Plattformen untereinander. In der Konsequenz werden die technische Infrastruktur und User Experience laufend optimiert und angepasst. Von diesen Änderungen sind Produktdetailseiten oder Markenshops direkt betroffen. Für den Händler ist es daher von großer Bedeutung, die Darstellung seiner Produkte laufen zu beobachten, um seine Inhalte schnell an Plattform-Updates anzupassen oder ergänzen zu können.

  1. Erhöhung der Performance

Kern des Geschäftsmodells eines Marktplatzes ist es, Produkte zu verkaufen. Daher werden Angebote mit vergleichsweise hohem Umsatz als besonders relevant eingestuft. In der Konsequenz erhalten diese Produkte eine hohe Sichtbarkeit auf der Plattform und in den Suchergebnissen der Nutzer. Doch nicht nur absolute Verkaufszahlen machen an diesem Punkt einen Unterschied. Auch eine hohe Click-Through-Rate von Einblendungen oder Suchtreffern auf Produktdetailseiten und weiterführend die Conversion-Rate von Detailseitenbesuchen in Käufe sind entscheidende Messgrößen.

Um beide Messgrößen positiv zu gestalten, müssen neben Produktpräsentation und Sichtbarkeit noch eine Reihe weiterer Faktoren berücksichtigt werden. Die generelle Verfügbarkeit des Produkts und eine schnelle, kostenfreien Lieferung sind hierbei ebenso von Bedeutung, wie ein attraktiver und konsistenter Preis. Wichtige psychologische Faktoren sind auch eine überdurchschnittliche Produktbewertung und eine hohe Anzahl aussagekräftiger Rezensionen. Die öffentliche Interaktion mit dem Kunden über Produktbewertungen und FAQ-Bereiche stärkt darüber hinaus das Markenvertrauen und grenzt das eigene Angebot positiv vom Wettbewerb ab.

Was aber tun, wenn trotz eines optimierten Marktplatzauftritts der organische Traffic gering ist und die Verkaufszahlen zu wünschen übriglassen? Für diesen Fall bieten alle großen Marktplätze mittlerweile ein umfangreiches Arsenal an werblichen Tools, um Kommunikationsziele entlang der gesamten Customer Decision Journey erreichen zu können. Ein Überblick dieser Möglichkeiten und Tipps zur optimalen Nutzung des werblichen Inventars auf digitalen Marktplätzen, geben wir im vierten und letzten Teil dieser Serie.

Dieser Artikel ist Teil einer vierteiligen Serie bei etailment.de. Hiuer geht’s zu den Ausgaben EinsZwei und Vier.

Memes gehören zum Internet wie die Food-Fotografie zu Instagram. Success Kid, Bad Luck Brian, That’d be great oder Grumpy Cat zählen zu den bekanntesten Memes und haben bereits unzählige Nutzer zum Lachen gebracht. Auf den ersten Blick erscheinen Memes als triviale Ausprägung moderner Internetkultur. Auf den zweiten Blick sind viele Memes jedoch höchst kreativ, greifen gesellschaftliche Ereignisse auf oder transportieren politische Meinungen. Und auch im Online Marketing wird es Zeit, Memes ernst zu nehmen. Welche Formen es von Memes gibt und wie man sie für kommunikative Zwecke nutzen kann, erfahrt ihr hier.

Memes sind aus sozialen Medien nicht mehr wegzudenken

Meine Oma und ältere Generationen zucken bei der Frage, was Memes eigentlich sind, vermutlich ratlos die Schultern. Die Bezeichnung Meme ist eine Ableitung des griechischen Wortes „mimema“, was „etwas Nachgeahmtes“ bedeutet. Memes sind Fotos, Videos, GIFs oder Social Posts, deren Inhalt, Form oder Aussage auf kreative Weise imitiert beziehungsweise modifiziert wird. Anschließend werden Memes über Kanäle wie Instagram und Twitter oder speziellen Meme Websites und Blogs verbreitet.

39% der deutschen Internetnutzer wissen, was Memes sind und mehr als jeder Dritte hat solche Bilder und Videos schon einmal öffentlich geteilt. Unter den 16- bis 29-jährigen Onlinern sind Memes besonders beliebt. 43% der jungen Nutzer teilen sie regelmäßig und 37% bezeichnen Memes sogar als Kunst (Bitkom Research, 2019).

Meme-Marketing: ein kreatives Content-Format für Marken

Memes werden nicht nur von Millennials und GenZ’s kreiert – auch mehr und mehr Kunden bzw. Unternehmen verwenden Memes, um junge Zielgruppen zu erreichen und ein humorvolles Markenimage zu vermitteln. Dabei können Marken zwei Strategien verfolgen: Entweder sie erstellen neue, eigene Memes oder sie springen auf den Hype um ein bereits existierendes Meme auf.

Die Beautymarke Glossier integriert neben Produktfotos auch regelmäßig selbst erstellte Memes in ihrem Instagram-Feed und vereint somit mühelos das „Internet Ugly“ mit moderner Instagram-Ästhetik.

Wie Marken bereits existierende Memes für sich adaptieren und modifizieren können, lässt sich gut am aktuellen Beispiel der Area 51 Memes verdeutlichen. Zum Hintergrund: 2 Millionen Nutzer hatten sich zu einem Facebook-Event am 20. September 2019 angemeldet, dass zum Sturm der Area 51 in Nevada aufrief. Verschwörungstheorien zufolge werden auf dem Hochsicherheitsgelände von der amerikanischen Regierung Aliens versteckt. Aus dieser Veranstaltung sind tausende Memes entstanden und auch viele Marken haben Kreativität und Humor bewiesen und diesen Hype aufgegriffen.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Egal ob selbst erstellt oder adoptiert, wenn Marken-Memes gut gemacht sind, können sie zu hoher Aufmerksamkeit und starkem Engagement führen. In Zeiten eines unendlichen Content-Angebots, aber einer begrenzten Aufnahmefähigkeit, sind Memes ein geeignetes Format um aus der Masse herauszustechen und die Aufmerksamkeit der Konsumenten zu gewinnen.

Meme-Accounts und Memers als neue Content-Produzenten

Ein Unternehmen hat sich also dazu entschieden, Memes in seine Marketingstrategie zu integrieren und seine Agentur mit der Umsetzung beauftragt. Aber wo finden nun die Agenturkollegen geeignete Memes, die sie für die Marketingaktivitäten ihres Kunden verwenden können? Websites wie reddit, me.me, cheezburger oder knowyourmeme bieten ganze Meme-Sammlungen. Knowyourmeme ist dabei besonders hilfreich, weil zusätzlich die Bedeutung und der Ursprung der Memes erklärt wird und einige Meme-Variationen gezeigt werden.

Darüber hinaus existieren zahlreiche Meme-Accounts auf Instagram, die beachtliche Reichweiten mit Millionen an Followern besitzen. Zu den größten Accounts zählen @epicfunnypage (16,8 Mio. Follower) @fuckjerry (14,4 Mio. Follower) und @sarcasm_only (14 Mio. Follower). Diese Accounts sind größer als so mancher Account von Beauty-, Fashion- oder Lifestyle Influencern. Deshalb ist es an der Zeit, die Meme-Community ernst zu nehmen und Memers und die Betreiber von Meme-Accounts als relevante Content-Produzenten oder Kuratoren anzusehen. Sie kennen ihre Community und den Humor ihrer jungen Follower am besten, weshalb Agenturen und Marken ihre Expertise nutzen und zukünftig öfter mit ihnen kooperieren sollten.

Dieser Artikel erschien zuerst bei lead-digital.de.

Melancholie kann ein schönes Gefühl sein, wenn der Sommer zu Ende geht und das letzte Jucken des Sonnenbrands noch auf der Haut zu spüren ist. Doch der Suchmaschinenoptimierung sind solche Gefühle fremd, denn unsere Zeit hat gerade erst begonnen. Warum das so ist, lesen Sie in den SEO-News für den Monat September.

SEO atmet den Geist der Freiheit

Das bestechend Schöne am Gewerbe der Suchmaschinenoptimierung ist ihr großer Grad der Freiheit und Unabhängigkeit. Es fließt kein Geld an multinationale Konzerne und in das Wohlverhalten der SEO-Branche investieren Google, Microsoft und Co. nicht viel mehr als ein wenig günstige Schreibware aus Fernost. Wir können daher mit Stolz und erhobenen Hauptes sagen, dass in unserer Disziplin statt dem dicksten Budget, der kreativere Geist über Erfolg und Misserfolg entscheidet.

Das bedeutet jedoch nicht, dass wir ohne Makel sind: Im Wettbewerb um Sichtbarkeit und Conversions hat die Suchmaschinenoptimierung im Verlauf der letzten 20 Jahre auch eine Schneise der Verwüstung hinterlassen. Blogs, Nutzerforen, Lesezeichen-Sammlungen, Infografiken – wann immer sich eine Gelegenheit bot, ein sinnvolles Feature durch Überzüchtung und Übertreibung für unsere eigenen Zwecke zu missbrauchen, so haben wir es meistens auch getan. Für die Mehrheit der betroffenen Inhalte und Formate bedeutete dies in der Regel das Aus. An die hässlichen und mit Keywords vollgestopften Spamseiten zum Thema „Günstige Autoversicherung“ aus der Mitte des letzten Jahrzehnts erinnert sich wirklich niemand gerne.

Aber jedem Ende wohnt auch immer ein Anfang inne. Eine kollektive Leistung unserer Branche, die man nicht hoch genug bewerten kann, ist ihre evolutionäre Professionalisierung. Spam und Blackhat wurden konsequent marginalisiert und manchmal verwundert es den Betrachter, wie ein relativ kleiner, über den Erdball verstreuter Haufen von Enthusiasten sich eines Problems angenommen hat, von dem damals nur die wenigsten ahnten, dass es überhaupt mal eines werden könnte. Von nerdigen Einzelkämpfern, die sich in lockeren Netzwerken organisierten, hat sich unsere Disziplin in ein veritables Agenturbusiness entwickelt. Heutzutage sind Suchmaschinenoptimierer auch in den Inhouse-Etagen der allermeisten Unternehmen mit digitalem Geschäft fest etabliert.

Große Aufregung um NOFOLLOW

Was sich all die Jahre aber kaum geändert hat, ist die fabelhafte Angewohnheit der SEO-Branche, sich mit einer solchen Verve in Grundsatzdiskussionen und Grabenkämpfe zu werfen, als ob es kein Morgen gäbe. Ein aktuelles Beispiel ist die Diskussion über NOFOLLOW-Links. Um kurz die Allgemeinheit abzuholen: NOFOLLOW ist eine HTML-Auszeichnung, mit deren Hilfe man Links markieren kann, um das Crawling einer Website durch Suchmaschinen zu steuern sowie relevante Inhalte von werblichen Angeboten abzugrenzen. Eine Methode die mit 15 Jahren fast so alt wie Suchmaschinen selbst ist.

Als Google Anfang dieses Monates auf seinem Webmaster-Blog einen Artikel veröffentlichte, in dem eine Neuausrichtung des Konzepts von NOFOLLOW angekündigt wurde, war die Aufregung natürlich groß. Ab März 2020 werden zwei neue Linkattribute aktiviert, mit deren Hilfe gesponserte und von Nutzern erstellte Inhalte gesondert ausgewiesen werden können. Eine sinnvolle Erweiterung des bestehenden Konzepts, insbesondere hilfreich für große Marktplätze und Shops mit unterschiedlichsten Formen von Inhalten.

Und prompt springt die kollektive SEO-Branche auf die frisch durchs Dorf getriebene Sau: Zwischen der Absicht, das beste Ergebnis für den Kunden zu liefern und der Angst, eine wichtige Innovation oder einen ultimativen Trend zu verpassen, werden in Windeseile Nachrichten verbreitet, die unmittelbaren Handlungsdruck suggerieren, alptraumhafte Szenarien für die Zukunft prophezeien oder einfach zum Abwarten raten. Wie so oft, konnten erst die Google-Verbindungoffiziere Gary Illyes und Danny Sullivan für ein wenig Ruhe im SEO-Karton sorgen.

SEO – ein kollaboratives Modell mit Zukunft

Dieser Vorgang ist aber ein schönes Beispiel dafür, wie sich die Suchmaschinenoptimierung ihren Pioniergeist trotz größerer Budgets und gestiegener Verantwortung erhalten hat. Man diskutiert und experimentiert leidenschaftlich über Ländergrenzen hinweg, auch auf die Gefahr hin, dass es manchmal ganz schön anstrengend sein kann. Das Ergebnis dieser 20-jährigen Leidenschaft ist unter dem Strich ein deutliches Plus an Qualität und Nutzerfreundlichkeit digitaler Produkte.

So wäre beispielsweise der Übergang zum mobilen Internet ohne SEO als Katalysator zwischen Industriestandards und Anwendern weit weniger zügig und reibungslos über die Bühne gegangen. Der oftmals noch heute belächelte Kanal der „organischen“ Reichweite hat von seiner Bedeutung für Informationsfindung und E-Commerce nichts eingebüßt. Und daher werden auch in Zukunft die Spezialisten von zentraler Bedeutung sein,  die zwischen geschlossenen Systemen und hochglänzenden „User Journeys“ auf dem breiten Fluss der menschlichen Intentionen und Bedürfnisse sicher navigieren können.

Dieser Beitrag erschien zuerst bei Internet World Business.

Um die Herausforderungen der fortschreitenden digitalen Transformation zu meistern, haben viele , Medien und Agenturen aus der Marketing- und Kommunikationsbranche in den letzten Jahren stark in datenbasierte Technologien und Infrastrukturen investiert. Allerdings gelingt es häufig nicht, diese „PS auch auf die Straße zu bringen“ und einen relevanten Wettbewerbsvorteil daraus zu ziehen – auch, weil häufig HiPPOs auf ihr Bauchgefühl vertrauen.

Der digitale Wandel in den Organisationen ist eben nicht nur technischer, sondern insbesondere kultureller Art. Und hier hemmen, laut einer Capgemini-Umfrage, firmenkulturelle Probleme die digitale Transformation weitaus stärker, als etwa veraltete IT-Systeme oder mangelnde Ressourcen.

Bei Plan.Net NEO beschäftigen wir uns intensiv mit der Etablierung eines konsequent datengetriebenen Leistungsangebots, der Integration von Media und Content auf Basis von Daten. Diese Daten und die aus ihnen gewonnenen Insights sollen dabei sowohl den Kreativen, als auch den Mediaexperten aus unserer Mannschaft als „Treibstoff“ für die Entwicklung von relevanten Inhalten und deren wirksamer medialer Aktivierung dienen.

Im Zuge dieses tiefgreifenden Change-Prozesses haben wir vieles gelernt, vor allem auch im Hinblick auf die erfolgskritische Bedeutung der unternehmenskulturellen Aspekte auf dem Weg zu einer datenfokussierten Agentur. Aus den Key Learnings lassen sich zusammenfassend fünf Praxistipps für Agenturen bilden, die auch allgemein gültig angewendet werden können

  1. Daten-Skills entwickeln und fördern

Eine gelebte Datenkultur beginnt mit „Empowerment“ und der Demokratisierung der Daten. Es gilt die Mitarbeiterschaft in der Breite technologiegestützt zu befähigen, im „Self Service“ Daten zu analysieren und datenbasierte Entscheidungen treffen zu können.

Denn nicht der Mangel an Daten ist oftmals die Herausforderung, mit der Unternehmen konfrontiert sind, sondern der Weg von den Daten zur Entscheidung. Konzentrieren sich die Datenbestände in einer Organisation in den Händen einiger weniger Experten, liegt das Potenzial dieser Daten für den kommerziellen Erfolg des Unternehmens weitestgehend brach. Um stattdessen als Organisation den vollen Nutzen aus Daten zu ziehen, muss jeder Mitarbeiter die Möglichkeit haben, auf die Daten zuzugreifen und sie täglich in die eigenen Entscheidungen einzubeziehen.

Das bedeutet allerdings nicht, dass jeder Mitarbeiter ein Data Scientist werden soll (und kann). Jeder sollte jedoch analytische Grundkenntnisse entweder bereits besitzen oder sie durch Qualifikationsmaßnahmen erlangen können, um in der Lage zu sein, datenbasierte Sachverhalte zu bewerten und Daten für Entscheidungen nutzen zu können.

  1. Technologie muss sich den Anwendern anpassen und nicht umgekehrt

Eine wichtige Rolle für die Umsetzung des datenbasierten Arbeitsalltags kommt den dafür eingesetzten Technologien und Tools zu. Soll deren Nutzung nicht ausschließlich den Datenspezialisten vorbehalten bleiben, sind für eine breite Akzeptanz bei den Anwendern und ihre Wahrnehmung von Brauchbarkeit sowie Nutzwert in der Praxis vor allem folgende Eigenschaften erfolgsentscheidend:

  • Convenience und intuitive Nutzung

Je einfacher und intuitiver der Umgang mit Daten für die Nutzer gestaltet wird, desto eher werden sie deren Wert für die Qualität ihrer tagtäglichen Arbeit realisieren und rasch nicht mehr missen wollen.

  • Intelligente Datenvisualisierungen

Dashboards oder andere graphische Darstellungsformate helfen die zentralen Aussagen der Daten schnell auf einen Blick zu . Ebenso stellen sie sicher, dass alle involviertenn Personen das gleiche Bild sehen. Diese Komplexitätsreduktion ist eine wichtige Voraussetzung für effizientes Arbeiten jedes Einzelnen und effektive Kollaboration im Team.

  • Dynamische Dateninteraktionsmöglichkeiten

Entscheidungsprozesse verlaufen selten linear. Datenanalyse-Plattformen sollten es daher so einfach wie möglich machen, Daten flexibel zu erkunden, Hypothesen zu testen und Szenarien auszuprobieren.

Ein anschauliches Beispiel für durch Technologie ermöglichtes Daten-„Empowerment“ ist das in unserer Schwesteragentur Plan.Net Business Intelligence entwickelte Tool „Brand Investor“, das bei uns seit einiger Zeit im Einsatz ist.

Das Tool ermöglicht unseren Beratern und Planern die Bestimmung des wirkungsoptimalen Kommunikationsplans für die Marken unserer . Dies nimmt jedoch nicht die bisher entstanden umfangreichen Kapazitäten von Daten- und BI-Spezialisten in Anspruch. Der Brand Investor macht mittels künstlicher Intelligenz das Wissen aus über 2.000 kalkulierten Mediaplänen und mehr als 200 durchgeführten Marketing Mix Modellings auf Knopfdruck nutzbar. Mit Hilfe einer interaktiven, visualisierungsorientierten Benutzeroberfläche können die Anwender zu ihrer datenbasierten Entscheidungsfindung in wesentlich kürzerer Zeit als zuvor im Do-It-Yourself-Modus die Budgetallokation für verschiedenste Planszenarien optimieren und deren Wirkung prognostizieren.

  1. Kritische Neugier im Umgang mit Daten fördern

Eine grundsätzliche Neugier ist zentraler Motor für Innovation und Wachstum. Sie bildet auch eine wesentliche Grundlage für eine Analysekultur. Denn hier geht es um die aktive Suche nach neuen Ansätzen, den Drang zum Ausprobieren und Experimentieren. Vor allem, wenn dies auf der Basis von Daten erfolgt, muss das kulturelle Rahmenwerk gewährleisten, dass das kritische Denken dabei nicht zu kurz kommt.

Eine „Data First“-Unternehmenskultur darf nämlich keinesfalls bedeuten, dass man Kennzahlen blind folgt und nur auf der Grundlage von nackten Zahlen ohne weiteren Kontext zu entscheiden. Vielmehr sollte sie zur kritischen Interpretationsfähigkeit im Umgang mit Daten motivieren, sodass die Organisation ihre Entscheidungen nicht nur auf verlässlichen Daten stützt, sondern im Hinblick auf das Thema Datenqualität auch weiß, wann es besser ist, dies nicht zu tun.

  1. Datenkultur von oben vorleben

Letztendlich wenig überraschend ist die Erkenntnis, dass eine erfolgreiche Etablierung einer datenorientierten Unternehmenskultur an der Spitze der Organisation beginnt. Allerdings sollte man sich das als Führungskraft immer wieder in Erinnerung rufen, da die Realität leider zeigt, dass dies im hektischen Alltag doch allzu häufig in Vergessenheit gerät.

Das Führungsteam muss eine klare Vision vorgeben, um Daten in die DNA des Unternehmens zu schreiben. Es gilt jedoch, diese nicht nur zu konzipieren und fleißig zu kommunizieren, sondern diese auch tagtäglich selbst vorleben. Das Buzzword lautet hier „walk the talk“, also den eigenen Worten auch Taten folgen zu lassen. Wenn die Führungskräfte mit gutem Beispiel vorangehen, werden die anderen Manager und Mitarbeiter der Organisation ihr Verhalten recht bald – bewusst oder unbewusst – entsprechend anpassen.

Der Kulturwandel funktioniert aber auch zweigleisig, also sowohl Top-Down als auch Bottom-Up. Das gibt Führungskräften eine Rolle als Vorbild, aber auch als gezielte Förderer geeigneter und engagierter Mitarbeiter, die dann als Multiplikatoren bzw. sogenannte Change-Agenten in ihren jeweiligen Teams fungieren.

  1. Dem Bauchgefühl entsagen

Eng verknüpft mit dem voranstehenden Punkt ist die Empfehlung, alles daran zu setzen, organisationsweit Bauchgefühl konsequent und nachhaltig durch Entscheidungen zu ersetzen, die auf Daten und Fakten beruhen.

Denn viele Teams in Unternehmen werden immer noch von HiPPOs geführt. HiPPO steht hierbei für „Highest Paid Person’s Opinion“. Damit ist gemeint, dass Entscheidungen oft von den höchstbezahlten Mitarbeitern des Teams getroffen werden, die unter Umständen weit entfernt von der eigentlichen Frage-/Problemstellung sind. Das ist insbesondere problematisch, wenn diese HiPPOs auf Grundlage ihres auf subjektiver Erfahrung und intuitiven Bauchgefühls , statt von ihren Teams datengestützte Analysen und Empfehlungen für eine objektive Entscheidungsfindung einzufordern.

Wenn Daten wirklich eine zentrale Rolle für die Organisationskultur spielen sollen, muss der Anspruch lauten, auch alle Entscheidungen im Unternehmensalltag auf deren Basis zu treffen. Ohne Ausnahmen.

Dass digitales Marketing nur im Teamwork erfolgreich sein kann, merkt man immer dann, wenn die Hälfte der Kollegen im Sommerurlaub ist. Daher beschäftigen wir uns in der Ferienausgabe der SEO News für den August mit den besten Kolleginnen und Kollegen der Welt.

Die Musik spielt im Maschinenraum

Abseits der glänzenden Kampagnen, großen Budgets und strahlenden Büros der Werbung liegt eine Welt, ohne deren Einsatz und Expertise die Lichter nur halb so hell strahlen würden, die Reichweite nur halb so groß wäre und viele vollmundige Versprechungen lediglich leere Worte blieben. Während die Kombination von kreativer Idee und empirischer Analyse als Zukunftspfad des digitalen Wandels im Marketing gelten darf, bleibt dessen erfolgreicher Ausbau in vielen Bereichen bislang nicht mehr als eine Wette auf die Fähigkeiten des Maschinenraums: die Entwicklungsabteilung (auf Neudeutsch: „R&D“). Aber es muss nicht immer gleich die Welt neu erfunden werden.

Auch jenseits disruptiver Umwälzungen sind interne und externe Entwickler, Datenbankexperten und Softwarearchitekten für den Bau und Betrieb unserer digitalen Marktplätze, Netzwerke und Serviceplattformen verantwortlich. In ihren Händen liegt der Schlüssel zu ausgezeichneter Performance und der zielgerichteten Verknüpfung aktueller Inhalte mit einer alltagstauglichen User Experience. Auch die fehlerfreie Datensammlung und nicht zuletzt eine rechtssichere Geschäftstransaktion kann von ihnen gewährleistet werden. Nicht zufällig sind all diese Punkte über die vergangenen Jahre in den Fokus der Suchmaschinenoptimierung gerückt.

Der Search Engine Optimizer – ein digitaler Hausmeister

Etwas ironisch könnte man sagen, dass der Suchmaschinenoptimierer (oder um im Englischen zu bleiben: der SEO) ja gemeinhin hausmeisterliche Aufgaben für die Googles, Bings und Baidus dieser Welt übernimmt. Er kümmert sich um den barrierefreien Zugang und sorgt mit klugen Markierungen für die notwendige Orientierung der Suchmaschinen innerhalb seiner digitalen Immobilien. Stehen Sanierung oder gar Umbau an, so stellt der SEO sicher, dass Belastungen und Kosten für Nutzer und Eigentümer bestmöglich vermieden werden. Bei diesem Job kommt man zwangsläufig auch im Maschinenraum vorbei und sucht das konstruktive Verhältnis zu den Kollegen an den Reglern.

Rachel Costello, Technical SEO beim US-amerikanischen Technologieanbieter Deep Crawl hat nun in einem Beitrag für das Magazin Searchenginejournal den Entwicklern fehlendes Verständnis für die Implikationen ihres Handelns vorgeworfen. Viele Techniker wären sich der möglichen Folgen für Volumen und Qualität der organischen Reichweite nicht bewusst, wenn „auch nur eine Zeile Code verändert oder entfernt werde“, so Costello. Weniger dramatisch wirbt auch Googles Webmaster-Verbindungsoffizier John Müller für mehr Verständnis auf beiden Seiten: „Ich würde mir von mehr SEOs wünschen, dass sie mit Entwicklern zusammenarbeiten“, antwortete der Schweizer schon Ende letzten Jahres auf die Frage, welche Themen für die Search-Branche 2019 im Fokus stehen sollten. Die Erfahrung zeigt leider, dass es mit dem Verständnis für die Arbeit des jeweils anderen tatsächlich nicht gut bestellt ist.

Gegenseitiges Unverständnis führt zu Geld- und Zeitverschwendung

Es fehlt nicht nur am Wissen um Fähigkeiten und Aufgaben. Viel schwerer wiegt, dass sich Marketing und R&D nur selten darüber austauschen, wie gemeinsame Prioritäten organisiert und gemanaged werden könnten. Da SEO-relevante Änderungen oft nicht unmittelbar kritisch für den Betrieb einer Webseite sind, kann sich die Kommunikation bis zu ihrer Umsetzung über Wochen und Monate ziehen, insbesondere bei großen, internationalen Plattformen. Die Folge von fehlendem Verständnis und mangelnder Kommunikation sind Geld- und Zeitverschwendung in einem Geschäftsfeld, dem es in der Regel nicht schnell genug gehen kann, sich Agilität und Effizienz auf die Fahnen zu schreiben. Richtig ist aber auch, dass der Maschinenraum als technologischer Flaschenhals im Unternehmen den Druck von vielen Seiten zu spüren bekommt und sein Betrieb durch standardisierte Prozesse geprägt ist.

Ebenso kann es kein Vorteil sein, wenn der überwiegende Teil der SEOs in Unternehmen und Agenturen aus der „Content-Ecke“ kommt und oftmals wenig Muße aufbringt, dem unablässigen technologischen Wandel des Webs zu folgen.

Die Leidtragenden sind die Nutzer

Der Leidtragende sitzt dann allerdings letztendlich weder am Entwicklertisch noch im Marketingbüro. Es ist stattdessen der Nutzer, der sich über langsame Seiten, umständliche Userführung oder zweifelhaft lustige 404-Fehlerseiten ärgern muss. Es ist daher die Aufgabe der Suchmaschinenoptimierung, ihr Hausmeisterdasein hinter sich zu lassen und den aktiven Schulterschluss mit Entwicklern und technischen Dienstleistern zu suchen. Dazu gehört in erster Linie, sich Prozesse und Prioritäten der Technikabteilung zu eigen zu machen sowie Zielsetzungen und Abhängigkeiten der SEO-Arbeit verständlich zu formulieren. Unsere Erfahrung hat gezeigt, dass man sich als Agenturdienstleister und Toolanbieter flexibel zeigen und seine SEO-Roadmap auf das Umsetzbare beschränken sollte. Es gilt nicht, ein Maximum an Maßnahmen auf den Weg zu bringen, sondern das Passende und Machbare gemeinsam zu identifizieren und zu priorisieren.

Genau in dieser Schnittstellenfunktion zwischen Marketing und Entwicklerteams liegt die Herausforderung für zeitgemäße, erfolgreiche SEO-Arbeit. Achtsamkeit für die Chancen und Zwänge des Kunden und der aktive Austausch von Wissen mit dem Maschinenraum sind die Eckpfeiler zur Etablierung einer aktiven Governance mit dem Ziel einer effizienten und profitablen Aktivierung des Kanals Search.

Denn: Sind R&D und SEOs erst einmal mit einander im Gespräch  und beginnen voneinander zu lernen, ist die Erkenntnis, dass man lediglich unterschiedliche Seiten derselben Medaille bearbeitet, nicht mehr weit.

Um es gleich vorweg zu nehmen – die eine, universell richtige Strategie auf Amazon zu verkaufen gibt es nicht. Die Wahl des richtigen Verkaufsmodells ist jedoch ein erfolgskritischer Faktor in jeder ganzheitlich geplanten Distributionsstrategie. Eine intensive Auseinandersetzung mit allen zur Verfügung stehenden Optionen, ist daher unbedingt zu empfehlen.

Rückblick: 1995 als Online-Buchhändler gestartet, erkannte Amazon-Gründer Jeff Bezos sehr schnell, dass er sein Ziel, Amazon zum „größten Online-Kaufhaus der Welt“ zu machen, allein über das Retail-Geschäft mit Vendoren nur schwer werde erreichen können. So öffnete sich das Unternehmen aus Seattle bereits Ende der 90er Jahre für Dritthändler – auch Seller genannt – die seitdem gegen Abgabe einer Verkaufsgebühr in eigenem Namen auf der Plattform verkaufen können.

Seitdem entwickelt sich das Marktplatzgeschäft von Amazon äußerst dynamisch und hat den eigenen Retail-Handel bereits im Jahr 2015 an Umsatz übertroffen. Laut einem Anfang des Jahres veröffentlichtem Brief von Jeff Bezos an seine Aktionäre, hat der Marktplatz 2018 rund 58% der gesamten Warenverkäufe auf der Plattform erzielt. Dieser Umstand war Bezos den trockenen aber treffenden Kommentar wert: „Die Drittanbieter-Händler treten uns in den Hintern. Kräftig.“

Amazon fokussiert sich zunehmend auf das Marktplatzgeschäft

Ungewollt ist diese Entwicklung aber nicht – sie ist eher strategisches Kalkül. Nutzte Amazon in der Vergangenheit seine direkten Lieferantenbeziehungen um schnelles Wachstum und Marktmacht zu gewinnen, findet seit einiger Zeit eine spürbare Fokussierung auf das für Amazon profitablere und risikoärmere Marktplatzgeschäft statt. So hat zum einen eine Angleichung der Tools stattgefunden, mit denen Seller und Vendoren ihre Produkte darstellen und bewerben können (z.B. Sponsored Ads, A+ Content und Brand Stores).

Zum anderen wurden Support und persönliche Betreuung von Vendoren beispielsweise durch Vendor- und InStock-Manager deutlich zurückgeschraubt. Nicht zuletzt sorgte Anfang des Jahres eine Meldung für Aufsehen, nach der Amazon unangekündigt und ohne weitere Begründung Bestellungen bei mehreren Tausend, überwiegend kleineren Vendoren, gestoppt habe, um diese in das Seller-Programm zu drängen. Dies wäre eine sehr aggressive Methode zur Verlagerung des Retail- zugunsten des Marktplatzgeschäftes.

Die Modelle unterscheiden sich weiterhin fundamental

Trotz Angleichungen in einigen Bereichen, unterscheiden sich beide Modelle aber nach wie vor fundamental voneinander. Fällt die Entscheidung für das Vendor-Modell, bedarf es zunächst einer entsprechenden Einladung von Amazon. Ist diese Hürde genommen, sind ausschlaggebende Faktoren einerseits vertriebspolitische Gründe, zum Beispiel, wenn eine Konkurrenzsituation mit anderen Händlern, die im Zweifel ebenfalls Kunden sind, vermieden werden soll.

Daneben sind auch das zumindest theoretisch höhere Absatzpotential, das hohe Vertrauen der Kunden in die Marke Amazon sowie der Zugriff auf die noch verbleibenden exklusiven Marketingprogramme (z.B. Amazon VINE zur Generierung von Produktrezensionen) Argumente für den Vendor-Status. Im Gegenzug verlieren Vendoren preispolitische Einflussmöglichkeiten, müssen sich jährlich in zum Teil harte und langwierige Konditionenverhandlungen mit Amazon begeben und weitestgehend auf Endkundenkontakt verzichten.

Seller hingegen schätzen die größere Flexibilität hinsichtlich der Preisgestaltung und Lagerbestandsplanung sowie die deutlich umfangreicheren, kostenlos zur Verfügung gestellten Daten und Insights in Bezug auf Bestellungen, Keywords und Warenkorbstatistiken. Als nachteilig werden hingegen vor allem der höhere Aufwand bei Fulfillment oder Kundensupport wahrgenommen.

Ein hybrider Ansatz könnte ebenfalls eine gute Lösung sein

Wer über genügend Ressourcen, Know-how und die entsprechende technologische Infrastruktur verfügt um beide Modelle umzusetzen, für den könnte ein hybrider Ansatz eine weitere Option darstellen. Dieser vereint die Vorteile von Vendor- bzw. Seller-Dasein und erfreut sich daher zunehmender Beliebtheit. Die höhere Flexibilität bei der Festlegung der Verkaufspreise, die Sicherstellung der Verfügbarkeit auch unrentabler „CRaP-Produkte“ (Can´t Realize any Profit) sowie der Zugang zu spezifischen Analysedaten in Seller Central, können für (Teil-) Segmente eines Herstellers oder Händlers ausschlaggebende Argumente für die Wahl eines Hybrid-Modells sein. Richtig gemanaged, kann dieses Modell die erhöhten Aufwände und eventuell auftretende Kannibalisierungseffekte beider Kanäle mehr als aufwiegen.

Dieser Beitrag ist Teil einer vierteiligen Serie bei etailment.de. Hier geht’s zu den Teilen Eins, Drei und Vier.

Auf 53,3 Milliarden Euro ist der deutsche Onlinehandel im Jahr 2018 laut dem Institut für Handelsforschung gewachsen. Dies entspricht einer Steigerung gegenüber dem Vorjahr von über 4,4 Milliarden Euro bzw. 9,1 Prozent.  Rund die Hälfte dieses Wachstums wurde hierbei alleine durch den Marktplatz von Amazon getrieben, der in 2018 in DE über 100.000 neue Händler und Hersteller für sich gewinnen konnte, bemerkenswerterweise davon ca. 40 Prozent aus der Volksrepublik China.

Die Gründe für diese rasante Entwicklung sind schnell identifiziert: Zum einen nutzen immer mehr Konsumenten das Internet zum Einkaufen und starten immer öfter ihre Produktsuche direkt bei Amazon. Noch vor wenigen Jahren war diese Torwächterfunktion im E-Commerce der Suchmaschine Google vorbehalten. Zudem hat es Amazon geschafft mit Prime ein äußerst attraktives Kundenbindungsprogramm zu etablieren. Dessen rund 100 Millionen weltweite Mitglieder profitieren gegen Gebühr von kostenloser und schneller Lieferung, medialen Angeboten wie Prime Video oder Prime Music, exklusiven Rabattaktionen (z.B. Prime Day) und Spezialshops (z.B. Amazon Fresh). Dadurch ist die Plattform so tief im Relevant -Set der Kunden verankert, dass sie im Schnitt doppelt so häufig bei Amazon bestellen wie Nicht-Mitglieder. Als Zielgruppe zur Neukundengewinnung für andere Webshops sind diese Kunden praktisch nicht mehr erreichbar.

Neben der hohen Reichweite und einer besonders treuen Kundschaft bieten die digitalen Marktplätze von Amazon, OTTO & Co. noch einen weiteren, entscheidenden Vorteil. Ihre technische und logistische Infrastruktur kann von allen Anbietern genutzt werden, ohne selbst in finanzielle Vorleistung gehen zu müssen. So wird die Instandhaltung der Plattformen, Transaktionsabwicklung sowie Marketingaktionen z.B. zum Cyber Monday vom Betreiber übernommen und das Serviceangebot kann optional bis zur gesamten Logistik inklusive Lagerung und Retourenhandling erweitert werden, wie zum Beispiel bei Amazons Fulfillment-Programm FBA.

Zahlen des Kölner Marktforschungsinstituts IFH zeigen, dass Anbieter, die ihre Produkte 2017 über Amazon vertrieben haben, ein Umsatzplus von mehr als 20 Prozent gegenüber dem Vorjahr verzeichnen konnten, doppelt so hoch wie das Gesamtwachstum des Onlinehandels im gleichen Zeitraum. Die Abwicklung von Versand, Abrechnung und Gewährleistung über den Marktplatz, erleichtert kleineren Händlern und Herstellern darüber hinaus den Einstieg in internationale Märkte. Die Bekanntheit und das Vertrauen der Kunden in das globale Markenversprechen von Amazon oder eBay kann also jeder Anbieter zu seinem eigenen Vorteil nutzen.

Jedoch muss man neben all den genannten Anreizen und Vorzügen, welche die großen Plattformen zweifelsohne bieten, auch Risiken und mögliche Gefahren bei der Entwicklung einer geeigneten Marktplatzstrategie berücksichtigen.

Hersteller und Händler mit austauschbaren Produkten, ohne starke eigene Markenidentität oder signifikanten Preisvorteil sollten den Wettbewerb auf den Marktplätzen nicht unterschätzen. Kann im eigenen Online-Shop das Sortiment in aller Breite und Tiefe exklusiv präsentiert werden, konkurriert man auf Amazon und Co. mit zahlreichen Anbietern um die Aufmerksamkeit der Kunden und Sichtbarkeit der eigenen Produkte. Durch eine Reihe effektiver Marketing-Tools lassen sich zwar entsprechende Platzierungen auf den ersten Suchergebnisseiten einkaufen, um aber auch langfristig eine organische Top-Platzierung zu erzielen sind je nach Kategorie erhebliche Investments in werbliche Maßnahmen sowie die Pflege und Optimierung des Produktkatalogs notwendig, die eine kalkulierte Marge schnell auffressen können.

Ein weiterer Nachteil, insbesondere in der Customer-Lifetime-Value Betrachtung, ist die fehlende oder stark eingeschränkte Möglichkeit mit Kunden in direkten Kontakt zu treten, diese über Aktionen oder Neuprodukterscheinungen zu informieren und eine nachhaltige CRM Strategie zu etablieren.

Last but not least besteht die Gefahr einer zu starken Abhängigkeit vom Marktplatz und dem drohenden Kontrollverlust über die eigene Marke. Unvorhersehbare Gebührenerhöhungen, Änderungen in den allgemeinen Guidelines und Geschäftsbedingungen sowie der Vormarsch zahlreicher Amazon Eigenmarken wie „Basics“, „Essentials“ oder „Find“ können das Engagement auf Markplätzen über Nacht unrentabel machen. Schlechte Geschäftspraktiken oder negative Black Hat Taktiken der Konkurrenz können im schlimmsten Fall sogar zu einer sofortigen Sperrung des eigenen Accounts führen.

Es empfiehlt sich daher die intensive Prüfung weiterer Vertriebskanäle zur Diversifizierung. Neben der Analyse von Nischen-Marktplätze wie z.B. hood.de, yatego.com, avocadostore.de oder selekt.com, sollte auch die Erstellung eines eigenen Online-Shops in Betracht gezogen werden. Dieser hat insbesondere dann große Aussicht auf Erfolg, wenn er sich signifikant und für den Kunden leicht ersichtlich von den Angeboten der Marktplätze unterscheidet. Man erreicht dies beispielsweise durch eine besonders attraktive Preisstruktur, ein unverwechselbares Produktsortiment oder auch durch eine außergewöhnlich gute User Experience. Der Einsatz von Augmented Reality oder Chat Bots für besonders erklärungsbedürftige Produkte oder Services kann einen echten Mehrwert bringen und so Zielgruppen auch abseits der großen Marktplätze für neue Shopping-Kanäle erschließen.

Eine pauschale Empfehlung hinsichtlich der Entwicklung und Etablierung einer geeigneten E-Commerce- und Marktplatzstrategie lässt sich nicht treffen und muss individuell vorgenommen werden. Generell lässt sich aber festhalten: Aufgrund der hohen Reichweite und des enormen Potentials führt kaum ein Weg an den großen Marktplätzen vorbei. Da die Plattformen aber aufgrund ihrer Marktmacht die Beziehung meist einseitig diktieren, sollte eine zu große Abhängigkeit und Konzentration auf einen Marktplatz vermieden und alternative Standbeine aufgebaut werden.

Dieser Artikel ist Teil einer vierteiligen Serie bei etailment.de. Hier geht’s zu Teil Zwei, Drei und Vier.

Im Herzen eines jeden Shops steht ein Produkt, das auch verkauft werden will. Insbesondere im digitalen Marketing werden die eigene Marke, ganze Kategorien, aber auch einzelne Produkte beworben. Doch diese Produkte sind selten exklusiv im eigenen Shop vertreten, denn auch die Konkurrenz listet entsprechende Angebote. Auf Plattformen wie Amazon, Facebook, Google Shopping, Payback, Criteo oder Idealo werden Produktmerkmale wie Preis oder Farbe miteinander verglichen und auf unterschiedliche Weise wie z.B. Retargeting oder Preisvergleich mit zusätzlicher Reichweite versehen. Das schafft einen Mehrwert für den Endkunden, wird doch das Angebot transparenter und die Auswahl auf den Shopping-Plattformen größer. Doch wie speisen sich die Produktmerkmale eigentlich in diese Plattformen? Die Antwort liegt im Produktdatenfeed.

Der Produktdatenfeed ist damit das Filet und Herzstück, um Produkte bestmöglich zu platzieren und durch höhere Aufmerksamkeit mehr Umsatz zu generieren. Fehlen Produktmerkmale wie zum Beispiel die Farbe, Größe oder der Preis, kommt es oftmals gar nicht erst zu einer Listung – und damit zu Umsatzverlust. Noch heikler wird es, wenn Grundpreise (also Preis pro Liter/Gramm/Meter) auf Shopping-Plattformen wie z.B. Google Shopping nicht im Feed zur Verfügung stehen: Es droht die Abmahnung durch den Wettbewerb. Dabei ist die Lösung eigentlich ganz einfach, denn ein Grundpreis kann zumeist recht leicht automatisiert errechnet und im Datensatz angereichert und markiert werden. Ist der Grundpreis für Google dann im Feed vorhanden, wird er auch ausgespielt und die Anzeige rechtlich konform ausgeliefert.

Datensätze wie Bestände oder Produktfarbe lassen sich häufig aus der eigenen Webseite auslesen, in Datenbanken schreiben und im Datenfeed wieder zur Verfügung stellen. Sucht der Käufer dann auf den einschlägigen Plattformen nach einem „roten Kleid“, so wird das auf der Plattform dann eben auch ausgespielt und steht im Angebot und Wettbewerb zu allen roten Kleidern in einer bestimmten Größe. Und häufig liefern sogenannte „Crawls“, also das automatisierte Absuchen und Abspeichern von bestimmten Informationsbereichen auf Webseiten weit mehr nützliche Informationen, als sie fürs Marketing notwendig wären. Preisfehler lassen sich in weiteren Listen erfassen, die der Korrektur auf der eigenen Webseite dienen. Und diese Daten kommen nicht nur aus der eigenen Webseite: Auch andere Seiten, Masterfeeds oder externe Datenpools lassen sich über API-Schnittstellen anzapfen und reichern die zum Produkt gehörenden Informationen an. Bestandsinformationen können in Echtzeit nicht mehr vorhandene Produkte aus der Bewerbung nehmen oder sogar dem Einkauf wertvolle Informationen zur aktuellen Nachfrage liefern.

Gut angereicherte Datensfeeds führen zu Umsatz

Auch die Affiliate-Netzwerke klagen über fehlende Produktinformationen ihrer Kunden für ihre Publisher. Ein gut angereicherter Datenfeed würde über die Netzwerke direkt auf mehreren Shopping-Plattformen verteilt und somit den Umsatz skaliert nach oben treiben. Skaliert deswegen, weil die Anreicherung um die begehrten Produktinformationen einmalig im Feed initiiert wird und danach auf allen Plattformen wertschöpfend eingesetzt werden kann. So manche Plattform lässt sich hierdurch überhaupt erst erschließen, da verschiedene Datenfelder obligatorisch zu befüllen sind, um überhaupt erst in die Bewerbung aufgenommen zu werden. Ist der Datenfeed erst einmal ordentlich angereichert und in die Systeme eingepflegt, können damit fast alle Kanäle am konversionsstarken Ende der Customer Journey erfolgreicher Umsatz generieren: Amazon, Google Shopping, Facebook und Affiliate.

Dieser Artikel erschien auch im Digital Publishing Report.

Bei 40 Grad im Schatten wird Deutschlands liebstes Hobby plötzlich unwichtig: Fernsehschauen. Schade eigentlich, denn pünktlich zu den Hundstagen wird das Verhältnis von TV-Geräten und Suchmaschinen neu justiert. Warum dies so ist und weshalb besonders bei der alten und jungen Zielgruppe Voice als Suchmaschine im Auge behalten werden sollte, erfahren Sie in SEO News für den Monat Juli.

TV und Search – Ungleiche Geschwister auf Schmusekurs

Im Hitzesommer 2019 trübt sich das wirtschaftliche Klima weltweit deutlich ein, betroffen ist insbesondere auch Exportweltmeister Deutschland. Viele Unternehmen sind durch diese Entwicklung dazu gezwungen, ihre Ausgaben in Werbung und Marketing zu überprüfen. Entlang digitaler Kanäle genießt man den Vorteil, dass sich Kosten und Ertrag (zumindest in der Theorie) in eine direkte Verbindung setzen lassen. Der Preis einer Conversion oder ROI und ROAS auf das eingesetzte Budget ist in der Regel gut plan- und kalkulierbar. Nicht so einfach ist dies jedoch bei TV-Kampagnen, deren hohe Reichweite weniger exakt ausgewertet werden kann.

Da liegt es im Interesse der Werbewirtschaft, dem Zusammenspiel beider Kanäle verstärkt Aufmerksamkeit zu widmen, um mögliche Synergieeffekte auszuloten. Die Frage, wie sich TV/Display und Search gegenseitig beeinflussen ist nicht neu; interessant ist aber, dass Search, organisch und bezahlt, immer häufiger als Bindeglied zwischen einem zuweilen diffusen TV-Impact und den echten Umsätzen eines Unternehmens verstanden wird.

Call-to-Action als Hebel zu höherer Nachfrage

Wie das New Yorker Branchenblatt „Digiday“ berichtet, gehen immer mehr US-amerikanische Firmen dazu über, ihre Attributionsmodelle dahingehend zu überprüfen, wie sich ihre TV-Präsenz in der organischen Suchnachfrage und der Performance ihrer bezahlten Search-Kampagnen niederschlägt. Eine höhere Nachfrage, insbesondere nach Markenbegriffen lässt sich nicht nur durch höhere Investitionen in TV und Display-Kampagnen stimulieren; auch ein direkter Search-Aufruf wie „Einfach XYZ googeln!“ oder „Suchen Sie XYZ“ kann das Suchvolumen über klassische Media-Kanäle deutlich steigern, so der Bericht.

Ein kreativer Ansatz, wie er in den USA oder UK seit Jahren genutzt wird, in Deutschland aber noch immer eine Ausnahmeerscheinung ist. Bei diesem Setup kann man Analytics-Daten aus Search heranziehen, um die crossmediale Kampagnenplanung entlang der Customer Journey zu optimieren. Um welchen Hebel klassische Reichweitenkampagnen die Awareness stimulieren können, lässt sich an Veränderungen im Suchvolumen messen – die Kosten für bezahlte Search-Conversions können wiederum zur Ermittlung des ROI/ROAS der TV-Kampagne herangezogen werden. Zugleich ermöglicht eine nachhaltige SEO-Arbeit das hinzugewonnene organische Suchvolumen gezielt auf konversionsstarke Landingpages zu leiten. Hierdurch kann die optimale User Experience von der Fernsehcouch bis zur Conversion sichergestellt werden. Wie die Agentur Mediaplus in einer gemeinsamen Studie mit SevenOne Media und Google festgestellt hat, können ähnliche Werbewirkungseffekte auch mit Hilfe von Googles Videosuchmaschine YouTube realisiert werden. Es ist also höchste Zeit, die lange gepflegte Konkurrenz der Marketinggeschwister TV und Search zu beenden, damit knappe Budgets in wirtschaftlich schwierigen Zeiten effektiver und effizienter eingesetzt werden können. Unter Geschwistern sollte man sich schließlich verstehen.

Wer spricht hier eigentlich mit Alexa?

Endlich ist auch in unserer latent übereuphorischen Branche der nervöse Hype um die Möglichkeiten und Segnungen der Sprachsuche einem nüchternen Realismus gewichen. An dieser Stelle haben wir in der Vergangenheit des Öfteren darauf hingewiesen, dass es sich bei Voice Search lediglich um eine Erweiterung der Mensch-Maschine-Schnittstelle für Suchsysteme handelt. Die inhaltlichen Auswirkungen in Bezug auf neue Formen der Interaktion würden aber die hohen Erwartungen wahrscheinlich nicht erfüllen können. Wie nun berichtet, war die Experteneinschätzung, dass im Jahr 2020 rund 50 Prozent aller Suchanfragen per Voice vermittelt werden, lediglich eine Fehlinterpretation von Daten aus der Volksrepublik China.

Natürlich steigen auch unabhängig von diesem kleinen Marktforschungs-Fail die Nutzungszahlen für Voice Search an. Dies ist vor allem der weiterhin inflationären Markteinführung dialogfähiger Endgeräte geschuldet. Die US-amerikanische Marketingagentur „Path“ hat in einer globalen Umfrage untersucht, wie unterschiedliche Zielgruppen auf verschiedenen Plattformen die neue Technologie nutzen. Die Ergebnisse der Untersuchung sind durchaus vielschichtig: So gaben rund 70 Prozent der Teilnehmer an, die Sprachsuche wöchentlich zu nutzen. Ein Viertel nutzt die Technologie sogar bis zu dreimal am Tag. Aufgeteilt in Altersgruppen sticht hervor, dass sich insbesondere Nutzer am unteren (13-18 Jahre) und oberen (65+ Jahre) Ende der Altersskala zu häufigem Spracheinsatz bekennen.

Dieser Text erschien zuerst bei internetworld.de.