Beiträge

Im Herzen eines jeden Shops steht ein Produkt, das auch verkauft werden will. Insbesondere im digitalen Marketing werden die eigene Marke, ganze Kategorien, aber auch einzelne Produkte beworben. Doch diese Produkte sind selten exklusiv im eigenen Shop vertreten, denn auch die Konkurrenz listet entsprechende Angebote. Auf Plattformen wie Amazon, Facebook, Google Shopping, Payback, Criteo oder Idealo werden Produktmerkmale wie Preis oder Farbe miteinander verglichen und auf unterschiedliche Weise wie z.B. Retargeting oder Preisvergleich mit zusätzlicher Reichweite versehen. Das schafft einen Mehrwert für den Endkunden, wird doch das Angebot transparenter und die Auswahl auf den Shopping-Plattformen größer. Doch wie speisen sich die Produktmerkmale eigentlich in diese Plattformen? Die Antwort liegt im Produktdatenfeed.

Der Produktdatenfeed ist damit das Filet und Herzstück, um Produkte bestmöglich zu platzieren und durch höhere Aufmerksamkeit mehr Umsatz zu generieren. Fehlen Produktmerkmale wie zum Beispiel die Farbe, Größe oder der Preis, kommt es oftmals gar nicht erst zu einer Listung – und damit zu Umsatzverlust. Noch heikler wird es, wenn Grundpreise (also Preis pro Liter/Gramm/Meter) auf Shopping-Plattformen wie z.B. Google Shopping nicht im Feed zur Verfügung stehen: Es droht die Abmahnung durch den Wettbewerb. Dabei ist die Lösung eigentlich ganz einfach, denn ein Grundpreis kann zumeist recht leicht automatisiert errechnet und im Datensatz angereichert und markiert werden. Ist der Grundpreis für Google dann im Feed vorhanden, wird er auch ausgespielt und die Anzeige rechtlich konform ausgeliefert.

Datensätze wie Bestände oder Produktfarbe lassen sich häufig aus der eigenen Webseite auslesen, in Datenbanken schreiben und im Datenfeed wieder zur Verfügung stellen. Sucht der Käufer dann auf den einschlägigen Plattformen nach einem „roten Kleid“, so wird das auf der Plattform dann eben auch ausgespielt und steht im Angebot und Wettbewerb zu allen roten Kleidern in einer bestimmten Größe. Und häufig liefern sogenannte „Crawls“, also das automatisierte Absuchen und Abspeichern von bestimmten Informationsbereichen auf Webseiten weit mehr nützliche Informationen, als sie fürs Marketing notwendig wären. Preisfehler lassen sich in weiteren Listen erfassen, die der Korrektur auf der eigenen Webseite dienen. Und diese Daten kommen nicht nur aus der eigenen Webseite: Auch andere Seiten, Masterfeeds oder externe Datenpools lassen sich über API-Schnittstellen anzapfen und reichern die zum Produkt gehörenden Informationen an. Bestandsinformationen können in Echtzeit nicht mehr vorhandene Produkte aus der Bewerbung nehmen oder sogar dem Einkauf wertvolle Informationen zur aktuellen Nachfrage liefern.

Gut angereicherte Datensfeeds führen zu Umsatz

Auch die Affiliate-Netzwerke klagen über fehlende Produktinformationen ihrer Kunden für ihre Publisher. Ein gut angereicherter Datenfeed würde über die Netzwerke direkt auf mehreren Shopping-Plattformen verteilt und somit den Umsatz skaliert nach oben treiben. Skaliert deswegen, weil die Anreicherung um die begehrten Produktinformationen einmalig im Feed initiiert wird und danach auf allen Plattformen wertschöpfend eingesetzt werden kann. So manche Plattform lässt sich hierdurch überhaupt erst erschließen, da verschiedene Datenfelder obligatorisch zu befüllen sind, um überhaupt erst in die Bewerbung aufgenommen zu werden. Ist der Datenfeed erst einmal ordentlich angereichert und in die Systeme eingepflegt, können damit fast alle Kanäle am konversionsstarken Ende der Customer Journey erfolgreicher Umsatz generieren: Amazon, Google Shopping, Facebook und Affiliate.

Dieser Artikel erschien auch im Digital Publishing Report.

Bei 40 Grad im Schatten wird Deutschlands liebstes Hobby plötzlich unwichtig: Fernsehschauen. Schade eigentlich, denn pünktlich zu den Hundstagen wird das Verhältnis von TV-Geräten und Suchmaschinen neu justiert. Warum dies so ist und weshalb besonders bei der alten und jungen Zielgruppe Voice als Suchmaschine im Auge behalten werden sollte, erfahren Sie in SEO News für den Monat Juli.

TV und Search – Ungleiche Geschwister auf Schmusekurs

Im Hitzesommer 2019 trübt sich das wirtschaftliche Klima weltweit deutlich ein, betroffen ist insbesondere auch Exportweltmeister Deutschland. Viele Unternehmen sind durch diese Entwicklung dazu gezwungen, ihre Ausgaben in Werbung und Marketing zu überprüfen. Entlang digitaler Kanäle genießt man den Vorteil, dass sich Kosten und Ertrag (zumindest in der Theorie) in eine direkte Verbindung setzen lassen. Der Preis einer Conversion oder ROI und ROAS auf das eingesetzte Budget ist in der Regel gut plan- und kalkulierbar. Nicht so einfach ist dies jedoch bei TV-Kampagnen, deren hohe Reichweite weniger exakt ausgewertet werden kann.

Da liegt es im Interesse der Werbewirtschaft, dem Zusammenspiel beider Kanäle verstärkt Aufmerksamkeit zu widmen, um mögliche Synergieeffekte auszuloten. Die Frage, wie sich TV/Display und Search gegenseitig beeinflussen ist nicht neu; interessant ist aber, dass Search, organisch und bezahlt, immer häufiger als Bindeglied zwischen einem zuweilen diffusen TV-Impact und den echten Umsätzen eines Unternehmens verstanden wird.

Call-to-Action als Hebel zu höherer Nachfrage

Wie das New Yorker Branchenblatt „Digiday“ berichtet, gehen immer mehr US-amerikanische Firmen dazu über, ihre Attributionsmodelle dahingehend zu überprüfen, wie sich ihre TV-Präsenz in der organischen Suchnachfrage und der Performance ihrer bezahlten Search-Kampagnen niederschlägt. Eine höhere Nachfrage, insbesondere nach Markenbegriffen lässt sich nicht nur durch höhere Investitionen in TV und Display-Kampagnen stimulieren; auch ein direkter Search-Aufruf wie „Einfach XYZ googeln!“ oder „Suchen Sie XYZ“ kann das Suchvolumen über klassische Media-Kanäle deutlich steigern, so der Bericht.

Ein kreativer Ansatz, wie er in den USA oder UK seit Jahren genutzt wird, in Deutschland aber noch immer eine Ausnahmeerscheinung ist. Bei diesem Setup kann man Analytics-Daten aus Search heranziehen, um die crossmediale Kampagnenplanung entlang der Customer Journey zu optimieren. Um welchen Hebel klassische Reichweitenkampagnen die Awareness stimulieren können, lässt sich an Veränderungen im Suchvolumen messen – die Kosten für bezahlte Search-Conversions können wiederum zur Ermittlung des ROI/ROAS der TV-Kampagne herangezogen werden. Zugleich ermöglicht eine nachhaltige SEO-Arbeit das hinzugewonnene organische Suchvolumen gezielt auf konversionsstarke Landingpages zu leiten. Hierdurch kann die optimale User Experience von der Fernsehcouch bis zur Conversion sichergestellt werden. Wie die Agentur Mediaplus in einer gemeinsamen Studie mit SevenOne Media und Google festgestellt hat, können ähnliche Werbewirkungseffekte auch mit Hilfe von Googles Videosuchmaschine YouTube realisiert werden. Es ist also höchste Zeit, die lange gepflegte Konkurrenz der Marketinggeschwister TV und Search zu beenden, damit knappe Budgets in wirtschaftlich schwierigen Zeiten effektiver und effizienter eingesetzt werden können. Unter Geschwistern sollte man sich schließlich verstehen.

Wer spricht hier eigentlich mit Alexa?

Endlich ist auch in unserer latent übereuphorischen Branche der nervöse Hype um die Möglichkeiten und Segnungen der Sprachsuche einem nüchternen Realismus gewichen. An dieser Stelle haben wir in der Vergangenheit des Öfteren darauf hingewiesen, dass es sich bei Voice Search lediglich um eine Erweiterung der Mensch-Maschine-Schnittstelle für Suchsysteme handelt. Die inhaltlichen Auswirkungen in Bezug auf neue Formen der Interaktion würden aber die hohen Erwartungen wahrscheinlich nicht erfüllen können. Wie nun berichtet, war die Experteneinschätzung, dass im Jahr 2020 rund 50 Prozent aller Suchanfragen per Voice vermittelt werden, lediglich eine Fehlinterpretation von Daten aus der Volksrepublik China.

Natürlich steigen auch unabhängig von diesem kleinen Marktforschungs-Fail die Nutzungszahlen für Voice Search an. Dies ist vor allem der weiterhin inflationären Markteinführung dialogfähiger Endgeräte geschuldet. Die US-amerikanische Marketingagentur „Path“ hat in einer globalen Umfrage untersucht, wie unterschiedliche Zielgruppen auf verschiedenen Plattformen die neue Technologie nutzen. Die Ergebnisse der Untersuchung sind durchaus vielschichtig: So gaben rund 70 Prozent der Teilnehmer an, die Sprachsuche wöchentlich zu nutzen. Ein Viertel nutzt die Technologie sogar bis zu dreimal am Tag. Aufgeteilt in Altersgruppen sticht hervor, dass sich insbesondere Nutzer am unteren (13-18 Jahre) und oberen (65+ Jahre) Ende der Altersskala zu häufigem Spracheinsatz bekennen.

Dieser Text erschien zuerst bei internetworld.de.

Während uns die erste Hitzewelle des Sommers 2019 den Schweiß auf die Stirn treibt, kommt Google langsam aber sicher unter den Druck der US-Kartellwächter. In den SEO-News für den Monat Juni zeigen wir daher, ob sich die Suchmaschine wirklich ernste Sorgen vor einer Zerschlagung machen muss.

Google auf dem Weg zum Weltportal

Seit der Wahl von Donald Trump zum Präsidenten der Vereinigten Staaten wird jenseits des Atlantiks nicht mehr wirklich stringent regiert. Da also in Washington D.C. keine wichtigen Gesetze mehr verabschiedet werden, wollen die Politiker umso dringender herausfinden, wie man in diesen Schlamassel bloß hineingeraten ist. Aus diesem Grund werden vom Kongress in lockerer Reihenfolge die Bosse der großen Digitalriesen wie Amazon, Google, Facebook und Apple vorgeladen, um gleichzeitig Spurensuche und Schadensbegrenzung zu betreiben. Unter dem Damoklesschwert einer kartellrechtlichen Zerschlagung des Konzerns am Horizont musste im vergangenen Dezember auch Google-Chef Sundar Pichai die Frage beantworten, was seine Firma denn eigentlich mit ihrer sagenhaften Reichweite anfange. Genauer gesagt: Wie viele Nutzerzugriffe reicht Google im Sinne einer klassischen Suchmaschine an Drittseiten weiter und wie viel dieser Reichweite behält das Unternehmen zur Vermarktung und Monetarisierung auf den eigenen Webseiten und Apps der Alphabet-Holding?

Pichais Antwort war damals wenig hilfreich und beschäftigte sich statt mit konkreten Zahlen eher mit diffusen Einlassungen zu den Besonderheiten der User Journey in Search. Dabei ist die Suchmaschine aus Mountain View gerade dabei, eben diese User Journey gehörig auf den Kopf zu stellen: Auf der jüngst zu Ende gegangenen Suchmarketing Konferenz SMX Advanced in Seattle waren sich Beobachter beispielsweise einig, dass Google immer weniger ein Suchsystem ist, und sich vielmehr hin zu einem Portal entwickelt.

Clickstream-Daten bestätigen den Trend

Da trifft es sich gut, dass SEO-Urgestein Rand Fishkin diese Zahlenlücke gerade mit einem aktuellen Blogpost gefüllt hat. Aus den Clickstream-Daten der Analysefirma Jumpshot für den US-amerikanischen Markt hat er herausgearbeitet, dass rund die Hälfte aller rund 150 Milliarden US-Zugriffe auf Google im Jahr 2018 sogenannte „No-click-searches“ waren, also Endpunkte der User Journey, bei denen auf die Suchanfrage kein weiterer Klick hin zu einer Drittseite folgt. Google löst somit die Anfrage jedes zweiten Nutzers auf der eigenen Website und wird damit selbst zum Endpunkt der User Journey.

Neue Designlayouts und klickbare Features in den ehemals klar strukturierten Suchergebnissen befördern den Eindruck, dass Google je nach Intention der Nutzeranfrage, immer stärker die Funktion eines klassischen Webportals annimmt. Daneben leitet Google laut Jumpshot-Daten rund zwölf Prozent der Clicks auf eigene Drittseiten wie YouTube weiter. Unbekannt ist nach Angaben von Fishkin der Anteil an Suchanfragen, die auf einem Mobilgerät an eine Google-App wie Maps oder Gmail weitergeleitet und dort geöffnet werden. Damit bleibt ein signifikanter Anteil von noch immer mehr als 40 Prozent – über 60 Milliarden Klicks jährlich – der als organischer Traffic auf Drittseiten im Internet weitergeleitet wird.

Seine Trafficanalyse zeigt darüber hinaus, dass die Summe dieser Clicks über die vergangenen drei Jahre auch insgesamt relativ stabil geblieben ist. Jedoch sinkt der organische Traffic von mobilen Endgeräten im Vergleich zum Desktop deutlich. Grund hierfür ist die immer stärkere Bevorzugung bezahlter und lokaler Suchergebnisse auf dem kleinen Bildschirm. Für Seitenbetreiber sei dieser Rückgang des organischen Traffics aus der mobilen Suche nur noch nicht spürbar, da Googles Reichweite noch immer stark wachse, so Fishkin.

Google steht am Scheideweg

Fassen wir also zusammen: Google vermarktet einen Großteil seines Traffic-Wachstums auf den eigenen Webseiten und Apps. Dieser Verlust an potentiellen Besuchern für Drittseiten wird derzeit jedoch noch vom starken Gesamtwachstum Googles ausgeglichen. Ein Hauptgrund für diese Entwicklung ist, dass die Suchmaschine aus Mountain View sich bei bestimmten strukturierten Suchanfragen wie für Flüge, Hotels oder dem Kinoprogramm nicht mehr allzu sehr von seiner kommerziellen Konkurrenz, den Preisvergleichs- und Shoppingplattformen, unterscheidet.

Die Anhörungen vor dem US-Kongress und die nach Presseberichten eingeleiteten Untersuchungen des US-Justizministeriums kommen also zur rechten Zeit. Google muss sich entscheiden, ob es eine Suchmaschine oder ein allwissendes Universal-Portal sein will. Die Diversifikation seines Geschäftsmodells darf nicht auf Kosten der anderen Marktteilnehmer gehen.

Dieser Beitrag erschien zuerst bei LEAD-digital.de.

Brand-Manager, Konsumenten aber auch Marketing- und Werbeleiter hegen eigentlich dasselbe Ziel, nämlich miteinander zur richtigen Zeit, am richtigen Ort und mit der richtigen Botschaft in Kontakt zu treten. Das Problem hierbei ist, dass sie alle ganz unterschiedliche Herangehensweisen verfolgen und Unternehmen die dafür notwendigen Daten selten in Echtzeit auswerten.

Der Verbraucher, der auf der Suche nach bestimmten Produkten oder Dienstleistungen ist, erwartet eine möglichst personalisierte Behandlung – und das natürlich jederzeit, auf allen verfügbaren Geräten und über jeden möglichen Kanal. Die sogenannte Customer Journey folgt schon lange keinem geraden Pfad mehr. Denn für Kunden gibt es unendlich viele Möglichkeiten, um mit den verschiedenen Unternehmen in Kontakt zu treten. Sie können dabei entweder direkt auf die Marken zugehen oder indirekt, zum Beispiel über Performance Marketing-Kanäle wie Preisvergleiche oder Social Media-Plattformen. Die Folge: Durch die verschlungene Customer Journey entstehen immer mehr Kaufprozess-bezogene Daten. Marketer hingegen wollen den digitalen Kunden verstehen und erreichen, haben aber dabei natürlich stets den eigenen ROI im Hinterkopf. Sie verfolgen dementsprechend eine Strategie, die das meiste aus dem Marketingbudget rausholt. Doch dazu müssten sie erstmal ihren Weg durch den Datendschungel finden. Die immer größer werdende Menge an Daten macht es ihnen jedoch zunehmend schwer, die richtigen Informationen zur richtigen Zeit zu finden.

Die fetten Wachstumsjahre sind vorbei

Der größte Teil der ständig gesammelten Daten verbleibt meist ungenutzt in der virtuellen Schublade. Gerade im Marketing werden unendlich viele Nutzerdaten gesammelt, um darauf basierend eine möglichst passgenaue, persönliche Marketingkampagne für die Shop- oder Websitebesucher zu schneidern. Derzeit gehen jedoch viele Marketingabteilungen noch zu unstrategisch mit den Daten um, denn die wenigsten Daten werden analysiert und in Kontext gesetzt. Konkrete Optimierungsmaßnahmen und Anschlusshandlungen ergeben sich daraus bisher also leider nur selten. Bevor man – mehr oder weniger – planlos Daten anhäuft, sollte man sich also fragen:

  • Muss ich wirklich ständig neue Daten sammeln, um meine Marketingkampagnen erfolgreich zu führen?
  • Wo fange ich mit dem Sammeln der Daten an und wo höre ich wieder auf?
  • Wie können Daten eingesetzt werden, um bei der Entscheidungsfindung zu helfen?
  • Und welche Daten sind für eine erfolgreiche Kampagnen-Aussteuerung eigentlich notwendig?

Zunächst ist die vielleicht etwas ernüchternde Antwort auf alle diese Fragen: Das Datensammeln an sich wird wohl nie aufhören. Es geht viel mehr darum, die (vorhandenen) Daten besser zu nutzen! Dazu sollten sich der Marketer eine vernünftige Datenstrategie zulegen, denn die fetten Jahre des Onlinehandels sind vorbei! In den ersten Jahren konnte der Onlinemarkt zunächst ein schnelles Wachstum verbuchen. Dies war aber zumeist auto-generiert, weil der Markt sich neu auftat und sich das Käuferverhalten in Richtung Online verschob. Zwar steigen auch heute die Onlineumsätze weiter, aber wesentlich langsamer als noch zu Beginn. Denn der Nutzer ist bereits online und der Markt immer mehr gesättigt. Jetzt wird der Kuchen verteilt! Wer weiterhin im vorderen Bereich der Onlineplayer mitspielen möchte, muss nun also auf mehr als kreative Kampagnen setzen. Denn letztlich bedeutet die Sättigung des Marktes, dass aktuell alle Marktteilnehmer die gleiche Startposition haben. Mit der gleichen Ausgangslage kann daher vor allem eine clevere Datenstrategie einen erheblichen Vorsprung vor der Konkurrenz verschaffen.

Das Datensammeln an sich wird wohl nie aufhören. Es geht viel mehr darum, die (vorhandenen) Daten besser zu nutzen!

Abteilungsübergreifenden Datenaustausch ermöglichen

Die gute Nachricht? Der erste Schritt hin zu einer erfolgreichen Datenstrategie ist mit einer ersten Bestandsaufnahme der vorhandenen Daten bereits getan! Die bestehenden Kundendaten sind besonders wertvoll, denn sie liefern wichtige Informationen über Kaufverhalten, Einkaufs- beziehungsweise Besuchsfrequenz und Warenkörbe.

Bereits existierende Daten sind für Unternehmen die Basis für die spätere, individuelle Werbeansprache der Verbraucher. Wichtig ist dabei, bereits vorhandene Daten abteilungsübergreifend miteinander abzugleichen und Überschneidungen ausfindig zu machen. Häufig weiß leider die linke Hand nicht, was die rechte tut. Auf diese Weise entstehen in der Regel Datensilos, die verhindern, dass der Datensatz zum Datenschatz wird. Umso essenzieller ist es dementsprechend, dass alle Abteilungen – von IT über Vertrieb bis hin zu Marketing – miteinander kommunizieren und ihre Daten in einer gemeinsamen Lösung, der sogenannten Single Source of Truth, zusammenführen. Dafür muss der Stellenwert der Daten über alle Abteilungsgrenzen hinweg klar kommuniziert werden. Idealerweise sollte jedes Unternehmen seinen eigenen Datenmanager haben, der als Schnittstelle zwischen den einzelnen Abteilungen fungiert. Dieser muss verstehen, wer die Zielgruppe des Marketings und des Vertriebs ist, um dementsprechend die richtigen Daten zu sammeln, aufzubereiten und zu verdichten.

Der Datenmanager kümmert sich darüber hinaus um das richtige Format für die Datenspeicherung, um sie anschließend über die Single Source of Truth verfügbar zu machen. Insbesondere bei großen Händlern und Konzernen entstehen häufig Produktsilos. Der Datenmanager muss sich um eine Verknüpfung der Daten kümmern, um die Auslieferung von produktübergreifenden Kampagnen möglich zu machen.

Der Fokus verändert sich: Weg vom Kaufabschluss – hin zu Kundenbedürfnissen

Eine sehr wichtige strukturelle Veränderung des Marktes ist die Verlagerung des Fokus von der Transaktions- hin zur Customer Lifetime-Perspektive. Dies bedeutet, dass nicht mehr der Kaufabschluss im Mittelpunkt steht, sondern der Kunde selbst. Es wird also zunehmend wichtig herauszufinden, wie viel ein einzelner Kunde Wert ist, wenn ich ihn gezielt ansprechen kann. Der Verbraucher, der auf der Suche nach bestimmten Produkten oder Dienstleistungen ist, erwartet eine personalisierte Ansprache und entsprechende Angebote. Der informierte Kunde recherchiert und shoppt dabei überall und jederzeit und hinterlässt so immer mehr Kaufprozess-bezogene Daten. Abseits des reinen Transaktionsfokus, der auch die Datenauswertung und Ansprache nur auf den Kauf selber ausrichtet, berücksichtigt die Customer Lifetime-Perspektive den langfristigen Wert des Kunden. Sie will einen zufriedenen Kunden hinterlassen, der wiederkommt, der einen Service weiter empfiehlt, der nach Abbruch eines Kaufes vielleicht dennoch in drei bis vier Monaten zum Käufer wird.

Daraus ergeben sich komplett neue Herangehensweisen und Fragen, die sich Marketer stellen müssen:

  • Wie denkt der Kunde?
  • Was interessiert ihn wirklich?

Die wichtigste Frage ist derzeit jedoch:

  • Wie stelle ich sicher, den Kunden über alle Kanäle zu erreichen?

Denn dieser bewegt sich von Kanal zu Kanal, geht also mal online und informiert sich dort über ein neues Produkt, fragt den Verkäufer am POS oder ruft Daten über sein Smartphone oder seinen Desktop-PC ab.

Marketingmanager müssen all diese Daten von den verschiedenen Kontaktpunkten zusammenbringen und einem Kunden zuordnen können. Denn letztlich hegen Marken, Konsumenten aber auch Marketing- und Werbeleiter eigentlich dasselbe Ziel, nämlich miteinander zur richtigen Zeit, am richtigen Ort und mit der richtigen Botschaft in Kontakt zu treten. Das Ziel des Unternehmens sollte sein, den Kunden regelmäßig mit für ihn passenden Inhalten anzusprechen und so eine langfristige Bindung an die Marke oder das Unternehmen zu erzielen. Denn ohne diese Bindung sind keine langfristigen, sondern weiterhin nur kurzfristige, von Aktionismus geprägte, Ziele realisierbar.

Durch die verschlungene Customer Journey entstehen immer mehr Kaufprozess-bezogene Daten, die oft unausgewertet bleiben. (Quelle: Tradedoubler)

BI-Lösungen fördern schnelle Entscheidungen im Marketing

Um den Kunden individuell passende Angebote machen zu können, ist eine Harmonisierung der verfügbaren Daten unabdingbar. Der Wert, der in den Daten steckt, muss ermittelt und ausgewertet werden. Angesichts der manuell nicht handhabbaren Datenberge kommen Unternehmen bei ihrer Marketinginfrastruktur kaum um eine entsprechende Business Intelligence (BI)-Lösung herum. Schließlich geht es nicht nur um eine Automatisierung der Marketingprozesse, sondern um die richtige Interpretation der Daten. Denn wenn das Marketingmanagement nur Teileinsichten erhält, muss es einige Entscheidungen „aus dem Bauch heraus“ treffen, da der Gesamtüberblick fehlt. So riskieren Marketingentscheider, falsche Entschlüsse zu treffen. Oder noch schlimmer: Die Datenberge überfordern sie und sie treffen überhaupt keine Entscheidung.

Marketingmanager benötigen ein Tool, das die Verarbeitung großer Datenmengen ermöglicht und die für Geschäftsentscheidungen erforderlichen Informationen in schnell zu erfassenden Grafiken und Diagrammen visualisiert. (Quelle: Tradedoubler)

Eine weitere wichtige Voraussetzung auf der Infrastrukturseite ist eine zentrale Datenhaltung, also die Verknüpfung und Zusammenfassung der Kunden- und Kampagnendaten in der Single Source of Truth. So laufen die Daten aller Marketingaktivitäten, sei es Suchmaschinenoptimierung, Affiliate- und Display-Marketing oder Social Media, zentral zusammen. Das Marketingteam bekommt die ausgewerteten Daten idealerweise in Echtzeit über die entsprechende BI-Lösung angezeigt und leitet basierend darauf Optimierungspotenziale ab. Die Customer Journey muss dabei stets im Blick behalten werden. Nur so kann die Verschiebung hin zum Customer Lifetime Value funktionieren. Schon heute sehen wir die Entwicklung, dass vorausschauende Unternehmen viel Know-how intern bündeln, hochspezialisiert sind und stark datengetrieben beziehungsweise IT-unterstützt arbeiten.

Die Customer Journey muss stets im Blick behalten werden. Nur so kann die Verschiebung hin zum Customer Lifetime Value funktionieren.

Big Data wird zu Smart Data

Den Firmen steht heutzutage also eine unüberschaubare Menge an Daten zur Verfügung. Nur mithilfe geeigneter Software ist es ihnen noch möglich, das komplexe Online-Nutzerverhalten über eine Vielzahl an Kanälen und Endgeräten komplett nachzuvollziehen. Die gewonnenen Daten werden so anschlussfähig gemacht und Marketer erhalten Einblicke dahingehend, inwiefern einzelne Plattformen, Kanäle, Geschäftsmodelle und Publisher die Kaufentscheidung beeinflusst haben. Nur mithilfe dieser Informationen können sie alle digitalen Marketingmaßnahmen optimieren und personalisierte Werbung zur richtigen Zeit, am richtigen Ort, für die richtige Person, auf dem passenden Gerät ausspielen. Alles in allem gilt: Ohne smarte Daten, keine erfolgreichen Entscheidungen im Onlinemarketing.

Ohne smarte Daten, keine erfolgreichen Entscheidungen im Online Marketing.

In fünf Schritten zu besseren Entscheidungen

Mit diesen fünf Schritten behalten Online Marketingmanager den Überblick über ihre Daten:

1. Brechen Sie Ihre internen Abteilungs- und Kanalsilos auf. Viel zu häufig wird der direkte Erfolg nur im eigenen Silo gesucht, anstatt sich auf den Kunden als Ziel zu konzentrieren. Akzeptieren Sie die kanalübergreifende User Journey des Kunden.

2. Wenn Sie noch einen Schritt weiter gehen können: Gründen Sie ein dediziertes BI-Team, das die Daten untersucht und einordnet. Für bestmögliche Ergebnisse sollte es aus einer ausgewogenen Mischung von Marketing-, IT-, Datenmanagement- und Vertriebsmitarbeitern bestehen.

3. Es muss eine klare Zielsetzung geben, auf der die Datenstrategie basiert und entsprechend ausgerichtet wird. Das bedeutet für das BI-Team, nur Daten abzufragen, die einem konkreten Verwendungszweck dienen. Eine strukturierte Vorgehensweise mit der Zielsetzung im Hinterkopf verhindert das reine Ansammeln von Daten.

4. Es sollten so wenig verschiedene Softwarelösungen wie möglich zum Einsatz kommen. Je mehr einzelne Lösungen genutzt werden, umso größer das Datenchaos.

5. Achten Sie darauf, ein Business Intelligenz-Tool zu wählen, dass ein einheitliches Reporting und systematische Analysen bietet. Das ist der Schlüssel für eine erfolgreiche Datenstrategie, denn nur so werden die Daten lesbar und anschlussfähig und können Sie darin unterstützen, die richtige Entscheidung zu treffen.

 

Dieser Beitrag erschien zuerst bei dpr.

Die Zukunft des Suchmaschinenmarketings ist vollautomatisiert und sie hat bereits begonnen. Während Sie diese Zeilen lesen, übernimmt eine Künstliche Intelligenz die Steuerung von Millionen AdWords-Kampagnen auf Google. Noch hilft ein Widerspruch, um die Kräfte der Algorithmen in ihre Schranken zu weisen, aber aufhalten lässt sich der Trend nicht mehr.

Das klassische Keyword hat als alleiniger Targeting-Parameter schon lange ausgedient. In den vergangenen zwei Jahren ist das Maß an Teilautomatisierung stetig gestiegen. Responsive Ads und Smart Bidding sind bereits Realität und lassen erahnen, in welche Richtung sich das Suchmaschinenmarketing der Zukunft entwickeln wird.

Den Weg weisen Plattformen wie „Google 360“ und die „Adobe Marketing Suite“: Beide Systeme zeichnet aus, dass sie die Möglichkeiten der Integration und Verknüpfung externer Datenquellen konsequent verbreitern und vertiefen. Dem Ziel eines umfassenden Zugriffs auf die Customer Journey kommen Google und Adobe damit bereits sehr nahe.

SEA-Kampagnen werden individueller

Das Angebot von Automatisierungslösungen treibt die Nachfrage nach diesen Möglichkeiten deutlich an. Hinzu kommt die stetig wachsende Komplexität moderner Digitalkampagnen. So ermöglichen Google und Adobe die Anreicherung von Kampagnen mit immer mehr Profildaten aus unterschiedlichsten Quellen. Die Steuerung der klassischen SEA-Kampagne erfolgt daher zunehmend profilbasiert und individualisiert. Für jedes Profil wird es eine frei skalierbare Anzahl an Matchings mit inhaltlich relevanten Suchanfragen geben – und die Summe aus diesen Matchings wird das mehr oder weniger umfangreiche Keywordset ablösen.

Gleichzeitig wird das Steuern moderner SEA-Kampagnen dabei das menschlich Machbare übersteigen und nur dann erfolgreich gelingen, wenn eine Künstliche Intelligenz dabei hilft, die großen Datenmengen für die zielgerichtete Aussteuerung der Anzeigen zu verarbeiten. Im Idealfall hilft Machine Learning dabei, das System zwischen Kampagnenzielen, Wettbewerb und Suchrelevanz auf Erfolgskurs zu halten.

Letztlich entscheidet der Nutzer über Erfolg und Misserfolg

Während das Management der Profildaten dabei weitestgehend automatisiert abläuft, speist sich die Qualität und Relevanz der Kampagneninhalte aus den digitalen Angeboten der werbetreibenden Unternehmen. Ob Website oder Datenfeed – Google und Co. ist es gleichgültig, woher die Inhalte kommen. Entscheidend ist hingegen, dass diese Daten relevant und aktuell sind, der Nachfrage in den Zielgruppen entsprechen und für den Zugriff der Marketing-Plattformen technisch zugänglich sind. Die Optimierung der digitalen Angebote macht im Zuge des automatisierten Suchmaschinenmarketings den finalen Unterschied im Wettbewerb. Denn nach wie vor entscheidet der Nutzer über Erfolg und Misserfolg im Suchmaschinenmarketing.

Für Agenturen bedeutet dies, dass der SEA-Manager der Zukunft andere Fähigkeiten als bisher mitbringen muss. Die Automatisierung von Prozessen und die Zunahme des Datenmanagements im modernen Suchmaschinenmarketing verlangt eine stärke Arbeitsteilung und Spezialisierung innerhalb der Teams. Von der Programmierung über die Optimierung bis zur Qualitätssicherung werden sich bislang eher getrennte Funktionen aus Suchmaschinenoptimierung (SEO), Analytics, Beratung und klassischem SEA verschränken müssen.

Interdisziplinäre Teams aus Spezialisten werden auch im Zeitalter des automatisierten Suchmaschinenmarketings dafür Sorge tragen müssen, dass sich Agenturen und Kunden nicht blind einer technologischen Black Box ausliefern und die wichtigsten Stellschrauben für den wirtschaftlichen Erfolg in den eigenen Händen behalten.

SEO News

Am besten geht es nur gemeinsam. Dieser Kernsatz prägt nicht nur die Botschaft des Osterfestes, sondern auch die SEO-News für den Monat April.

Warum IT-Sicherheit für die SEO-Performance so relevant ist

Gerne bezeichnen sich Suchmaschinenoptimierer als die Hausmeister ihrer Kunden. Letztlich stecken SEOs ihre Nasen in fast alle Bereiche der Organisation und des Betriebs digitaler Assets, wie Webseiten oder Apps. Als verantwortungsbewusster SEO ist man eben nicht nur als strategischer Analytiker gefordert, sondern auch als mahnender Nörgler, der neben strukturellen, inhaltlichen und technischen Problemen an irgendeinem Punkt auch mit dem Thema Sicherheit konfrontiert wird. Zwar ist das Marketing nicht für die IT-Sicherheit zuständig, allerdings zeigt sich, dass mangelndes Bewusstsein für Sicherheit im Web durchaus in der Lage ist, die Performance in Suchmaschinen negativ zu beeinflussen. Dass die Nutzung von gesicherten Client-Server-Verbindungen mit Hilfe des HTTPS-Protokolls von Suchmaschinen heutzutage als Qualitätsfaktor vorausgesetzt wird, sollte mittlerweile zum SEO-Basiswissen gehören. Mindestens genauso wichtig wie diese formale Sicherheitskomponente ist aber beispielsweise auch das Monitoring von automatisiertem Bot-Traffic auf den eigenen Servern. Die Mehrzahl der Bots hat völlig legitime Gründe für das Crawling einer Website. Bestes Beispiel ist dann auch die Indexierung einer Domain für eine Suchmaschine. Laut einer aktuellen Studie der US-amerikanischen Bot-Spezialisten „Distil Networks“ sind jedoch rund 19 Prozent aller Bots mit finsteren Absichten unterwegs. Dazu zählen das Kopieren urheberrechtlich geschützter Inhalte, das Ausspionieren potentieller Verwundbarkeiten eines Servers oder auch die Verteilung von Schadsoftware, sogenannter Malware. In Summe und auf Dauer können diese im Allgemeinen unproblematischen Bot-Angriffe dazu führen, dass die Ladegeschwindigkeit gedrosselt oder die Auslieferung von Seiten ganz und gar verhindert wird.

 Beides wirkt sich unmittelbar negativ auf die Sichtbarkeit in Suchmaschinen aus. Neben automatisierten Angriffen steht vor allem auch das Thema Hacking im Vordergrund. Unter Hacking versteht man die Veränderung von Inhalten einer Webseite durch einen nicht legitimierten Eingriff von außen, ein Hack. Nach Angaben einer Untersuchung des weltweit größten Domainhändlers „Go Daddy“ werden rund 73 Prozent aller gehackten Seiten aus reinen SEO-Gründen übernommen und verändert. Zumeist werden Seiten mit relativ hoher Autorität in einem bestimmten Themengebiet gehackt, um potentielle Besucher abzuschrecken oder illegitime Links aufzubauen. Die gravierendsten Folgen eines solchen Hacks wären nicht nur eine mögliche Abstrafung durch Suchmaschinen, inklusive des damit einhergehenden Traffic- und Sichtbarkeitsverlusts, sondern auch die direkte Schädigung von Webseitenbesuchern durch das Ausspähen persönlicher Daten (Phishing) oder deren Infektion mit Schadprogrammen über verseuchte Downloads.

Gemeinsam stark

So weitreichend die Konsequenzen mangelnder IT-Sicherheit für Marketing und Search sein können, so verbindet doch beide Bereiche auch eine große Gemeinsamkeit. Sowohl effektive Suchmaschinenoptimierung als auch umfassende IT-Sicherheit lassen sich nicht outsourcen, sondern sind das Ergebnis von geteilter Verantwortung und Teamarbeit. Wer heute noch in Silos denkt und organisiert ist wird weder auf dem einem noch auf dem anderen Gebiet wirklich erfolgreich sein können.

Dieser Beitrag wurde zuerst bei Internet World Business veröffentlicht

In immer höherer Schlagzahl fordern neue Technologien, Geräte und Inhaltsformate Suchmaschinenexperten rund um die Welt heraus, aber nun kommt Hilfe von unerwarteter Seite. Mit welchen kleinen Helferlein wir bei der Strategieentwicklung und dem Tagesgeschäft künftig rechnen müssen, verraten wir Ihnen in den SEO-News für den Monat März.

Die Fraggles sind zurück

Die Fraggles sind los und sie erobern in kleinen Schritten die Google-Welt von morgen. Um eine mögliche Verwirrung gleich zu Beginn zu verhindern: Es handelt sich dabei nicht um die kleinen, laut Wikipedia rund 65 cm großen, humanoiden Höhlenbewohner mit einer Vorliebe für Radieschen aus der gleichnamigen Fernsehserie des Jahres 1983.

Die Fraggles, die uns Suchmaschinenoptimierer seit geraumer Zeit beschäftigen, sind zwar auch klein und überaus dynamisch; es handelt sich dabei aber vielmehr um Inhaltsfragmente, die von Google identifiziert, isoliert und in unzähligen Kombinationen über die sich ausbreitende Landschaft von Plattformen, Geräten und Technologien verstreut werden können.

Geprägt hat den Begriff der Fraggles die US-amerikanische Expertin für mobiles Marketing, Cindy Krum aus Denver im US-Bundesstaat Colorado. Entsprechend ihrer Beobachtungen hat sie das Kunstwort aus den Begriffen „Fragment“ und „Handle“ zusammengesetzt. Frei übersetzt könnte man dies mit „Fragmentierte Ansatzpunkte“ ins Deutsche bringen. „Fraggles“ sind laut Krum Googles Antwort auf tiefgreifende Veränderungen im Nutzungsverhalten und dem technologischen Grundgerüst von Webseiten, Progressive Web Apps (PWA), personalisierten Webdiensten und Datenfeeds.

Die Gemeinsamkeit dieser digitalen Assets besteht darin, dass der Großteil ihrer Inhalte lediglich einer einzigen URL zugeordnet ist. Die treibenden Kräfte hinter diesem Trend sind einerseits die Anpassung an die Bedürfnisse des mobilen Zeitalters und andererseits serverbasierte Technologien wie Java Script oder Ajax, die individualisierte Inhalte dynamisch herstellen können.

Google, Bing und Co. passen ihre Indexierung an

In der Folge, so Krum, werde die feste Zuordnung von Inhalt und URL aufgehoben und Suchmaschinen indexierten zunehmend nur noch Inhaltsfragmente einzelner Webseiten, Feeds oder Apps. Anstatt ganze Webseiten Seite für Seite zu indexieren, bestehe die Herausforderung für Google, Bing und Co. vielmehr darin, die relevantesten Inhaltsfragmente aus dem großen Meer von klassischem Html, dynamischem JavaScript und endlosen Strömen von XML zu fischen, so Krum. Der seit rund einem Jahr aktive Mobile First Index von Google ist ihrer Meinung nach nichts anderes, als ein großes Schleppnetz für Fraggles aller Art.

Und tatsächlich macht die Theorie der Fragmente Sinn, wenn man die Entwicklung der Suchergebnisse aller großen Anbieter über die vergangenen zwei Jahre betrachtet. Insbesondere auf mobilen Geräten experimentieren sowohl Google als auch Microsoft mit immer neuen Darstellungsformen und -formaten. Von der integrierten Karten- und Bewertungsanzeige lokaler Suchergebnisse, über die umfassende Abbildung von Menschen, Orten und Markenim Knowledge Graph, bis hin zu konkreten Antworten auf häufig gestellte Fragen im Features Snippet.

Suchmaschinen als universelle Assistenten der Zukunft

Die Suchmaschinen passen ihre Ergebnisanzeige dabei immer genauer an den Nutzungskontext und die Suchintention ihrer User an. Im heraufziehenden Zeitalter der Sprachassistenten wird diese Entwicklung ihre Fortsetzung finden. Der virtuelle Anruf des computergenerierten Google Assistant beim Friseur ist dabei nur der vorläufige Höhepunkt der Ausdifferenzierung von Suchmaschinen zu allgegenwärtigen und universellen Antwort- und Assistenzsystemen.

In solchen Systemen sind Relevanz und Konsumierbarkeit unmittelbar miteinander verknüpft. Auf dem Smartphone, dem Fernseher oder im Auto will und kann niemand mehr auf einer Ergebnisseite nach der passenden Antwort suchen, geschweige denn, sich durch eine Webseite scrollen. Der wirkliche Vorteil des Fraggles-Konzepts ist die Unmittelbarkeit und Flexibilität von kleinen Informationsfragmenten in den unzähligen Kombinationen von Gerätepräferenz und Nutzungssituationen.

Fraggles zeigen die steigende Bedeutung der Customer Journey für Google

Darüber hinaus fügen sich Fraggles nahtlos in Googles strategische Neuausrichtung von Suchergebnissen entlang von User Journeys ein. Zum 20-jährigen Jubiläum der Suchmaschine kündigte Google an, Suchaktivitäten nicht länger als Aneinanderreihung einzelner Fragestellungen begreifen zu wollen, sondern aus Kontext und Historie die möglichst exakte Intention des Nutzers und dessen Position entlang der Customer Journey ermitteln zu wollen. Unterstützt von Künstlicher Intelligenz bedeutet dies, dass Suchergebnisse nun stärker als Konversationspunkt denn als Ergebnisdienst verstanden werden. Auch in diesem Szenario können Fragmente als Teil einer Produktinformation, eines konkreten Kaufangebots oder einer speziellen Fragestellung in der Post-Purchase-Phase zum Einsatz kommen.

Für SEOs bedeutet dies zunächst, einen eigenen Ansatz im Umgang mit Sprachsuche und visuellen Suchanfragen konsequent weiter zu denken. Der Einsatz von Markups für strukturierte Daten und Sprachantworten (Google Speakable) muss zum Standardrepertoire gehören, genau wie die nach Intentionen entlang der Customer Journey organisierte Keyword-Analyse.

Dieser Beitrag wurde zuerst bei Internet World Business veröffentlicht.

Es kann nur eine Suchmaschine geben! Diese Aussage klingt herzlich wenig nach Vielfalt und Transparenz, sondern schwer nach Monopol, Einseitigkeit und Dominanz. Aber doch ist es Realität, dass Google den globalen Suchmarkt uneingeschränkt beherrscht. Ob dies auch auf Sicht so bleiben wird, hängt nicht zuletzt vom globalen Wettbewerb ab. In den SEO-News des Monats Februar widmen wir uns den Herausforderern und ewigen Zweiten auf dem globalen Suchmarkt.

Alternativlos glücklich mit Google

Dass es sich bei Datenschutz nicht um eine Eierspeise aus dem Emsland handelt, dürfte inzwischen auch im Silicon Valley angekommen sein. Europäische und nationale Wettbewerbsbehörden haben Google und Facebook in jüngster Zeit durch spektakuläre Urteile massiv unter Druck gesetzt, was die Erhebung und Nutzung personenbezogener Daten angeht.

Aktuellen Zahlen zufolge hat Googles Muttergesellschaft Alphabet Inc. vergangenes Jahr weltweit mehr Geld für Strafzahlungen aufwenden müssen, als das Unternehmen an Steuern bezahlt hat. Die Begründung zur Durchführung eines erfolgreichen Verfahrens ist dabei immer die gleiche: Missbrauch einer marktbeherrschenden Stellung von Dienstleistungen oder Produkten im Wettbewerb.

Für oftmals quasi-monopolistische Marktanteile von Search- oder Social Media-Plattformen in der digitalen Welt gibt es viele Gründe. Aber gerade die Suchwelt kennt Beispiele, wie einstmalige Marktführer (Yahoo, Alta Vista) von einem unbekannten Konkurrenten überholt wurden (Google). Wie steht es also mit dem Wettbewerb in der organischen Suche anno 2019? Gibt es einen Kandidaten für die Zeit nach Google? Und lohnt es für SEOs, ihren Blick über den Tellerrand auf die Konkurrenz zu richten?

Man muss sich nicht lange mit Zahlen aufhalten, um Googles Marktmacht zu beschreiben, dieser liegt weltweit bei rund 90 Prozent. Erklärtes Ziel des Unternehmens ist es, den größten Datenberg der Branche mit Künstlicher Intelligenz zu einer unsichtbaren und allgegenwärtigen Orientierungs-, Lösungs- und Komfortmaschine zu  verknüpfen. Der sprachgesteuerte Google Assistant ist dabei ein wichtiger Baustein für Google. Jedoch zeigt sich ausgerechnet beim Thema Voice Search, dass die Verhältnisse vielschichtiger sind, als sie scheinen. Denn die grauschwarzen Sprachboxen sind nur die Vermittler von Informationen in einem größeren Spiel. Meist steckt nicht die Suche drin, die als Marke auf dem Gehäuse steht. So ist Microsofts Suchmaschine Bing der eigentliche Lieferant hinter den Suchergebnissen von Amazons Bestseller-Sprachassistenten Alexa. Bis Ende 2017 steckte Bing ebenfalls hinter Apples Sprachassistentin Siri. Neuerdings nutzt der Konzern aus Cupertino die Google-Ergebnisse, mit Ausnahme der Bildersuche, diese wird weiterhin von Microsoft geliefert. Da insbesondere lokale Suchen auf dem Smartphone oder im Auto zunehmend über Sprache vermittelt werden, sollte man Bing als Suchsystem weder abschreiben noch außer Acht lassen.

Der Suchmarkt wird durch Expansion vielfältiger

Da der Suchmarkt durch die technische Evolution weiter expandiert, können auch kleine Suchanbieter in ihrer Nische überraschend gute Ergebnisse vorweisen. So hat sich die Zahl der durchgeführten Suchen der auf Anonymität und den Schutz persönlicher Daten bedachten Suchmaschine „Duck Duck Go“ nach eigenen Angaben seit 2016 fast verdoppelt. Der Anbieter aus dem Mittleren Westen der USA kann nach einer Analyse des Toolanbieters SimilarWeb sogar Branchenriesen wie Bing hinter sich lassen, wenn es um Absprungraten und Engagement der User geht. Das liege unter anderem daran, dass DuckDuckGo-Nutzer in höherem Maße technikaffin und sensibilisiert für Datenschutzthemen seien, so die Studie.

Der gefallene Riese Yahoo plant kein Such-Comeback

Mit knapp vier Prozent globalem Marktanteil ist auch der ehemalige Suchpionier „Yahoo“ noch im Spiel. Dessen Suchtechnologie stammt aber schon seit vielen Jahren ebenfalls aus dem Hause Microsoft und seit das Portal 2016 an den US-amerikanischen Telekommunikationskonzern Verizon verkauft wurde, steht eine Rückkehr des 1994 gegründeten Unternehmens zu einem eigenen Suchgeschäft auch nicht mehr auf der Agenda, wenngleich der Dienst in Japan noch recht populär ist.

Ähnlich lange ist auch schon die die kleine Suchmaschine „Ask.com“ im Geschäft, die zumindest in den USA einen stabilen Marktanteil von rund vier Prozent verteidigen kann. 1996 mit einer komplett eigenen Suchtechnologie an den Start gegangen, hat sich Ask vor rund 15 Jahren jedoch in ein soziales Frage-Antwort-Portal gewandelt, das ein relativ stabiles Stammpublikum anzuziehen vermag, in Deutschland aber nicht über eine Beta-Version seines Angebots hinausgekommen ist.

Die wahren Herausforderer für Google sitzen im Fernen Osten

So muss man schon bis nach Asien schauen, um einen potentiellen Herausforderer für Google zu finden: China hat sich zu einem eigenen Suchmarkt entwickelt, der ein ähnlich großes wirtschaftliches Potential birgt wie jener im Westen. Allerdings funktioniert er unter den Bedingungen nationaler Zensur nach eigenen Regeln und westlichen Konzernen wird der Zugang systematisch verwehrt. Unternehmen wie Baidu oder Tencent stehen dem Silicon Valley jedoch in technologischer Hinsicht in nichts nach. Der Wettlauf zwischen den USA und China auf den Gebieten von Künstlicher Intelligenz und Quantencomputing wird auch für den globalen Suchmarkt richtungsweisend sein.

Nein, keine SEO-Trends 2019 an dieser Stelle – ganz bestimmt nicht. Das sollen andere besorgen. In den ersten SEO-News des neuen Jahres beschäftigen wir uns mit dem, was das Leben wirklich spannend macht: Gegensätze und Konflikte. Wer nun denkt, wir würden uns in diesem Rahmen an der laufenden Geschlechterdiskussion beteiligen, den können wir beruhigen. Es bleibt bei Search, genauer gesagt dem Antagonismus von Reichweite vs. Conversion, sowie dem ewigen Kampf SEA vs. SEO.

SEO & CRO: Eine Beziehung mit Konfliktpotential

Eine hohe Verweildauer auf der Domain, eine hohe Zahl von Seitenansichten pro Besuch, die Nutzung von Rich Media und schließlich die Konversion, beispielsweise in Form eines Kaufs oder Leads – all diese Phänomene zählt man zu positiven Nutzersignalen, welche von Suchmaschinen in der Regel mit erhöhter Sichtbarkeit honoriert werden. Und die oberste Pflicht des Suchmaschinenoptimierers ist es, diese positiven User-Signale mit relevanten Inhalten auf einer leistungsfähigen, technischen Plattform zu erzeugen. Klingt einleuchtend und kausal. Aber ist der Zusammenhang wirklich so einfach? Während man hohe Ladegeschwindigkeiten und passende Mehrwertinhalte mit klassischer SEO-Arbeit realisieren kann, bedarf es zur Erzeugung und Messung positiver Nutzersignale einer erweiterten Methode, der Conversion Rate Optimierung, kurz CRO.

Um hier voran zu kommen, entwickelt die CRO Testszenarien mit verschiedenen Layouts, Designs, Mechaniken und Inhalten. Je nach Resultat der Nutzertests kann man erfolgreiche Szenarien implementieren und der potentiellen Zielgruppe Nutzererfahrungen mit Mehrwert anbieten. In einer idealen Welt verbessert dieses Vorgehen zugleich die Sichtbarkeit in der Suche und die Performance der Webseite selbst.

Wenig untersucht wurde jedoch bislang die Wechselwirkung von SEO und CRO-Maßnahmen. In einer aktuellen Studie hat sich Will Critchlow, Gründer der renommierten britischen SEM-Agentur „Distilled“, genau dieser Frage gewidmet: In welchem Fall kann die Arbeit von SEO und CRO zu Konflikten führen und im schlimmsten Falle sogar die positiven Ergebnisse der jeweils anderen Disziplin konterkarieren? Die Antwort ist wie in den meisten Fällen kompliziert. Am Beispiel einer nicht weiter beschriebenen Webseite stellt Critchlow dar, wie sich die Betrachtung des reinen Erfolgs von getesteten und implementierten Conversion-Maßnahmen relativiert, wenn man den damit womöglich einhergehenden Verlust von organischer Sichtbarkeit in die Rechnung aufnimmt.

Dieser Effekt ist nicht linear und kann je nach Maßnahmen auf SEO bzw. CRO-Seite unterschiedlich stark ausfallen. Erst nach vielen Testzyklen wird deutlich, dass beide Maßnahmen direkten Einfluss     aufeinander haben und, dass ein positives Ergebnis in der Gesamtheit nur erreicht wird, wenn die Wechselwirkungen jeder Implementierung beurteilt und nur Änderungen, die sich in der Summe von CRO und SEO positiv auswirken, publiziert werden.

CRO-Ergebnisse werden unmittelbar in der Testumgebung sichtbar, die Auswirkungen von SEO-getriebenen Änderungen schlagen sich aber erst mit zeitlichem Verzug in der Suche nieder. Daher müssen Ergebnisse auch nach dem Roll-Out von Design- oder Inhaltsupdates permanent rückwirkend überprüft werden, um beim Vergleich von organischem Traffic und Conversion-Entwicklung die richtige Balance für das eigene Angebot und die definierte Nutzergruppe zu ermitteln.

In einem älteren Beitrag hatte Such-Guru Rand Fishkin deutlich gemacht, dass SEO und CRO nicht für jedes Webangebot gleich viel Einfluss entfalten müssen und Conversion- und Suchmaschinen-Experten gut zusammenarbeiten müssen. Das ist in der Realität allerdings oft nicht der Fall: Fishkins Erfahrung nach sorgen sich Conversion-Experten zwar um den Einfluss ihres Schaffens auf die Suchmaschinensichtbarkeit, SEO-Experten nehmen auf die möglichen negativen Auswirkungen ihrer Implementierungen auf die Usability einer Website – die natürlich auch Conversion-entscheidend ist – aber in vielen Fällen keine Rücksicht. Hier sollten wir SEOs uns an der Nase packen. Denn es ist wie immer im Leben: Achtsamkeit, Kommunikation und Kooperation aller Beteiligten in der komplexen Organisation des Betriebs kommerzieller Webseiten sichern den größten Erfolg. Einseitige Betrachtungsweisen sowie starre Hierarchien stehen einem umfassenden Produktverständnis und damit auch kommerziellen Erfolg im Wege. Darüber hinaus sind insbesondere Agenturen angehalten, ihre Dienstleistungen im Sinne des Kunden über die Bereiche SEO, CRO und Analytics hinweg zu verschränken und ihren Kunden bei dieser Integrationsleistung mit ihrer umfassenden Erfahrung und Expertise beratend zur Seite zu stehen.

Stars in der Manege: Warum klicken Menschen Suchanzeigen?

Im Englischen gibt es einen schönen Begriff, der sich kaum ins Deutsche übersetzen lässt: One-Trick-Pony. Was damit gemeint ist, erfährt der Suchmarketing-Experte bei seinem vierteljährlichen Pflichttermin, der Vorstellung der Quartalsergebnisse von Googles Mutterkonzern Alphabet Inc. Während dieser durchaus kurzweiligen knappen Stunde erhält man neben Einblicken in allerlei internationale Bilanzierungs- und Steuertrickserei (der effektive Steuersatz des Unternehmens liegt aktuell bei erschwinglichen acht Prozent), das Alphabet im abgelaufenen dritten Quartal 2018 einen Gesamtumsatz von rund 33 Mrd. US-Dollar erwirtschaftet hat. Keine Überraschung für einen Mischkonzern mit knapp 90.000 Mitarbeitern, welcher zwölf hübsche Töchter sein eigen nennt, die von Energie- und Informationsnetzen, über Bio- und Gentechnologie, Unterhaltungselektronik, selbstfahrenden Automobilen bis hin zum ewigen Leben so gut wie alles bieten, was die moderne Welt braucht, um ihr Ende noch ein wenig hinaus zu zögern.

Beim zweiten Blick fällt jedoch auf, dass von diesem Gesamtumsatz rund 88 Prozent alleine auf das Anzeigengeschäft der Suchsparte von Google entfallen, knapp 29 Mrd. US-Dollar. Dies ist einerseits zwar kein Geheimnis und bewahrt Alphabet vor der im angelsächsischen Raum immerzu drohenden Zerschlagung mächtiger Konzerne durch staatliche Wettbewerbsbehörden. Andererseits ist dies genau die Definition eines One-Trick-Ponys, dem Zirkuspferd, welches sein Publikum mit einem einzigen, erstaunlichen Trick im Rampenlicht der Manege verblüffen kann. Sollte es diesen Trick nicht mehr aufführen können, wird es für den Zirkus wertlos und muss zum Schlachter.

Googles Trick, die Auktion von hoch relevanten Werbeanzeigen am Ort der Websuche, heißt Search Engine Advertising (SEA) und funktioniert seit nunmehr 20 Jahren perfekt. Natürlich hat das Unternehmen sein einzig wirklich rentables Geschäftsmodell unablässig verfeinert und ausgebaut, hat es erfolgreich ins Zeitalter von Video und Mobile hinübergerettet und wird es mit Hilfe Künstlicher Intelligenz in Zukunft weiter auf Effizienz perfektionieren. Doch wo kein Klick, da kein Geschäft. Was also ist die Intention von Milliarden von Nutzern, die statt auf vermeintlich werbefreie, organische Suchergebnisse, auf bezahlte Google-Textanzeigen mit eindeutig kommerzieller Absicht klicken?

Keine unwichtige Frage, sind doch Konsumenten klassischer Werbung von Haus aus eher skeptisch gegenüber kommerziellen Botschaften, von denen letztlich auch der Gesamterfolg eines als mächtig erscheinenden Tech-Giganten wie Alphabet abhängt. Erstaunlich wenige Studien beschäftigen sich näher mit diesen Intentionen, da die Nutzer weltweit ja schließlich klicken, der Traffic fließt, der Trick funktioniert. Gerne wird behauptet, Google-Nutzer könnten organische von bezahlten Suchergebnissen gar nicht unterscheiden und klicken eben auf die obersten, bezahlten Positionen. Eine Darstellung, der Google erst vor wenigen Tagen erneut vehement widersprochen hat.

Ein wenig mehr Licht ins Dunkel bringt eine aktuelle Studie des Marktforschungsunternehmens „Clutch“: Eine Umfrage unter 506 Personen, die auf eine Google-Textanzeige geklickt hatten, ergab zunächst, dass 77 Prozent der Befragten tatsächlich bewusst war, dass sie einer Werbebotschaft nachgingen . Dies unterstützt die Angaben von Google und in der Tat sind die Anzeigen aus Mountain View deutlich gekennzeichnet und besser als Werbung erkennbar, als beispielsweise die Anzeigenplatzierungen von Amazons AMS-Services auf den Suchergebnis- und Produktseiten des Marktplatzriesen. Darüber hinaus sagten rund 75 Prozent der Befragten, dass Textanzeigen ihre Suche vereinfachten, sofern sie eine direkte Antwort auf ihre Suchanfrage lieferten.

Bis hierhin unterscheidet sich das Verhalten nicht sonderlich von organischen Suchintentionen. Nimmt man nun die Markenbekanntheit mit in den Fokus, so wird deutlich, dass in der Verbindung von Marke und Suchanfrage der wahre Zauber von Textanzeigen liegt. Denn mehr als ein Viertel der Befragten gaben an, auf die Anzeige aufgrund der Marke geklickt zu haben, wobei hier Vertrauen eine herausgehobene Rolle spielt. Es gilt also für Googles Kerngeschäft, was auch für jede andere, klassische Form von Werbung wahr ist: Sie muss den Kunden ernst nehmen. Reine Marketingbotschaften von der Schönwetterfront garantieren keinen Erfolg im unerbittlichen Umfeld der direkten Konkurrenz auf Suchergebnisseiten.

Die SEA-Investition wird erst dann wirklich rentabel, wenn man die Bedürfnisse und Intentionen der wie auch immer ausgesteuerten Zielgruppe ernst nimmt, relevante Antworten auf ihre Anfragen liefert und damit Markenvertrauen aufbauen oder unter Beweis stellen kann. Was das mit SEO zu tun hat? Fast alles, denn obwohl sich Googles Support für SEOs auf der ganzen Welt im Vergleich zu seiner gewaltigen SEA-Vertriebsmaschine eher stiefmütterlich verhält, hätte das Pony ohne die Basisarbeit der immerwährenden Analyse von Intentionen und Verhalten der Suchenden keine 20 Jahre durchgehalten.

Das SEO-Tagesgeschäft erbringt mehr Synergien mit dem Erfolg bezahlter Search-Kampagnen, als es sich so mancher eingestehen will. Nun steht Google kurz davor, die Zuordnung von Suchanfrage und Textanzeige seiner Künstlichen Intelligenz zu überlassen. Dynamic Search Ads (kurz: DSA) sind nur ein erster Schritt Keywords abzuschaffen und das große Kompendium menschlichen Verhaltens, welches Google über seinen organischen Index gesammelt hat, ins Zentrum seiner kommerziellen Aktivitäten zu stellen. Ob es der Künstlichen Intelligenz gelingen wird, die Nutzer wirklich zu verstehen, ob Marken sich weiterhin darauf verlassen können, sich über Google Ads zu repräsentieren, ob das Pony weiter tanzt – all das bleibt abzuwarten. Der Alphabet-Bericht für das vierten Quartal 2018 wird übrigens am 4. Februar veröffentlicht.

Dieser Beitrag wurde zuerst bei Internet World Business veröffentlicht.

Am Heiligabend 2018 werden jede Menge Sprachassistenten das Licht der Welt erblicken. Zum ersten Mal mit Strom versorgt, werden ihre Kameras den heimeligen Kerzenschein des Weihnachtsbaums erblicken und ihre Mikrofone werden zum ersten Mal die Stimmen ihrer zukünftigen, menschlichen Familienmitglieder hören. Für welchen Hersteller dieser Marketingtraum Realität wird, und wie Bing sich in Sachen Shoppinghilfe mausert, erfahren Sie in den letzten SEO News des Jahres 2018

Sprachassistenten im Weihnachtsstress

Weihnachten ist das Fest der Liebe. Und auch dieses Jahr werden sie sich erneut in vielen Haushalten wiederfinden: Die allgegenwärtigen Sprachassistenten. Zählten Alexa & Co. schon im vergangenen Jahr zu den Rennern unter dem Weihnachtsbaum, Marktführer Amazon hatte zum Fest 2017 nach eigenen Angaben mehrere Millionen seiner Alexa-Modelle verkauft, so blicken wir auch dieses Jahr mit Spannung auf die Verkaufszahlen. Stellt sich doch die Frage, ob sich der Trend zum Massenprodukt verfestigt und wer das Rennen um die Marktbeherrschung letztlich für sich entscheiden kann. Doch 2018 ist die Konkurrenz schärfer geworden und einige der größten Wettbewerber haben ihre Marktanteile signifikant ausbauen können. Nach Angaben der Unternehmensberatung „Strategy Analytics“ bleibt die weltgrößte Shoppingplattform aus Seattle mit rund 75 Prozent aller Smart Speaker zwar globaler Marktführer. Beim Wachstum im Jahresvergleich konnte aber Google mit seinem „Google Home“-Assistenten die Führung übernehmen. Um mehr als 420 Prozent konnte der Suchgigant aus Mountain View seine Verkäufe steigern und hält nun mit knapp 16 Prozent Marktanteil den 2.Platz im Ranking. Besonders auffällig: Der gemeinsame Marktanteil von Amazon und Google ist im Jahresvergleich von rund 90 Prozent auf nur noch 69 Prozent gefallen. Vor allem die Konkurrenz aus Asien macht Boden gut. So hat der chinesische Amazon-Konkurrent Alibaba auf der kanadischen KI-Konferenz NeurIPS einen Assistenten vorgestellt, welcher in seinen Fähigkeiten dem Technologieführer Google in nichts nachzustehen scheint. Ebenso wie Google auf seiner Entwicklerkonferenz mit einem spektakulären Telefongespräch zwischen Mensch und Maschine Schlagzeilen machte (wir berichteten), so hat auch Alibaba für die Demonstration einer Entwicklungsversion seines Assistenten „AliGenie“ ein menschliches Gespräch gewählt. Bei der Absprache eines Liefertermins schaffte es die Alibaba-Maschine, sich von Zwischenfragen nicht aus der Ruhe bringen zu lassen. Aus indirekten Hinweisen des menschlichen Gesprächspartners konnte das System sogar die richtigen Schlüsse in Bezug auf den Lieferort ziehen, eine Herausforderung, an der andere Sprachassistenten bislang gescheitert sind. Im Gegensatz zu Alexa und Google Home, die als Smart Speaker ihren festen Platz in unserer Lebenswelt finden sollen, integriert Alibaba seinen Sprachassistenten unmittelbar in die Geschäftsprozesse seines Unternehmens. So werden telefonische Bestellungen, Preisvergleiche und das Liefermanagement die ersten Teilbereiche sein, in denen AliGenie zum Einsatz kommen soll, so das Unternehmen. Wie sehr die digitale Welt auch beim Sprachassistenten gespalten ist, zeigt sich unter anderem  auch an den Verkaufdzahlen im Reich der Mitte. Den Angaben von Strategy Analytics zufolge hat Google 2017 auf dem weltweit größten Markt lediglich eine halbe Million Google Assistant-Geräte abgesetzt. Zum Vergleich: In den USA hat die Anzahl von Smart Speakern bereits fast die 50-Millionen-Marke erreicht. Das Rennen ist also noch nicht entschieden, die Zukunft der Sprachsuche so offen wie je zuvor.

Shoppen statt suchen

Microsoft hat seiner Suchmaschine Bing eine Reihe neuer Funktionen spendiert, mit deren Hilfe der Nutzer bei Suchen mit Kaufintention unterstützt werden soll. Mit dem Black Friday hat der Tech-Gigant aus Redmond den Zeitpunkt der Präsentation gut gewählt. So war ein Teil der neuen Funktionen speziell für den Black Friday konzipiert, und auch nur an diesem Tag verfügbar. Der Großteil der Funktionalitäten jedoch wird das ganze Jahr bleiben, soll aber gerade in der Vorweihnachtszeit besonders hilfreich sein. In einer Produktvergleichs-Funktion speziell für die Produktkategorie Mobiltelefone zeigt Bing Bewertungen, Rezensionen von Experten und Produkthighlights prominent über den organischen Suchergebnissen. Laut dem Unternehmen, soll es damit erleichtert werden, den neusten Hardware-Trends im Bereich der Mobiltelefonie zu folgen.

Eine zweite Funktion präsentiert Produkte in einer Art Featured Snippet-Vergleichstabelle. Eine Suche nach dem Superlativ (wir berichteten) „Bester Laptop“ resultiert beispielsweise in einer Vergleichsübersicht mit Produktbild, Aufzählung der Funktionalitäten und weiterführender Links. Es handelt sich aber nicht über eine Erweiterung von Bing Shopping, sondern um organische Suchergebnisse. Lediglich die exklusive Black-Friday-Funktion war über Bing Shopping erreichbar und ermöglichte Nutzern das Stöbern durch lokale und überregionale Angebotsflyer zur größten Rabattschlacht des Jahres. Während Google versucht, sein Shopping Produkt mit Hilfe von dubiosem Wettbewerb aus der Schusslinie der Aufsichtsbehörden zu nehmen, setzt Microsoft, die schon häufig in der Vergangenheit, auf Innovationen in der organischen Suche. Es macht also doch einen Unterschied, ob ein Suchsystem komplett vom Anzeigenumsatz abhängig ist, oder nicht.

Dieser Beitrag erschien zuerst bei Internet World Business.