Beiträge

Melancholie kann ein schönes Gefühl sein, wenn der Sommer zu Ende geht und das letzte Jucken des Sonnenbrands noch auf der Haut zu spüren ist. Doch der Suchmaschinenoptimierung sind solche Gefühle fremd, denn unsere Zeit hat gerade erst begonnen. Warum das so ist, lesen Sie in den SEO-News für den Monat September.

SEO atmet den Geist der Freiheit

Das bestechend Schöne am Gewerbe der Suchmaschinenoptimierung ist ihr großer Grad der Freiheit und Unabhängigkeit. Es fließt kein Geld an multinationale Konzerne und in das Wohlverhalten der SEO-Branche investieren Google, Microsoft und Co. nicht viel mehr als ein wenig günstige Schreibware aus Fernost. Wir können daher mit Stolz und erhobenen Hauptes sagen, dass in unserer Disziplin statt dem dicksten Budget, der kreativere Geist über Erfolg und Misserfolg entscheidet.

Das bedeutet jedoch nicht, dass wir ohne Makel sind: Im Wettbewerb um Sichtbarkeit und Conversions hat die Suchmaschinenoptimierung im Verlauf der letzten 20 Jahre auch eine Schneise der Verwüstung hinterlassen. Blogs, Nutzerforen, Lesezeichen-Sammlungen, Infografiken – wann immer sich eine Gelegenheit bot, ein sinnvolles Feature durch Überzüchtung und Übertreibung für unsere eigenen Zwecke zu missbrauchen, so haben wir es meistens auch getan. Für die Mehrheit der betroffenen Inhalte und Formate bedeutete dies in der Regel das Aus. An die hässlichen und mit Keywords vollgestopften Spamseiten zum Thema „Günstige Autoversicherung“ aus der Mitte des letzten Jahrzehnts erinnert sich wirklich niemand gerne.

Aber jedem Ende wohnt auch immer ein Anfang inne. Eine kollektive Leistung unserer Branche, die man nicht hoch genug bewerten kann, ist ihre evolutionäre Professionalisierung. Spam und Blackhat wurden konsequent marginalisiert und manchmal verwundert es den Betrachter, wie ein relativ kleiner, über den Erdball verstreuter Haufen von Enthusiasten sich eines Problems angenommen hat, von dem damals nur die wenigsten ahnten, dass es überhaupt mal eines werden könnte. Von nerdigen Einzelkämpfern, die sich in lockeren Netzwerken organisierten, hat sich unsere Disziplin in ein veritables Agenturbusiness entwickelt. Heutzutage sind Suchmaschinenoptimierer auch in den Inhouse-Etagen der allermeisten Unternehmen mit digitalem Geschäft fest etabliert.

Große Aufregung um NOFOLLOW

Was sich all die Jahre aber kaum geändert hat, ist die fabelhafte Angewohnheit der SEO-Branche, sich mit einer solchen Verve in Grundsatzdiskussionen und Grabenkämpfe zu werfen, als ob es kein Morgen gäbe. Ein aktuelles Beispiel ist die Diskussion über NOFOLLOW-Links. Um kurz die Allgemeinheit abzuholen: NOFOLLOW ist eine HTML-Auszeichnung, mit deren Hilfe man Links markieren kann, um das Crawling einer Website durch Suchmaschinen zu steuern sowie relevante Inhalte von werblichen Angeboten abzugrenzen. Eine Methode die mit 15 Jahren fast so alt wie Suchmaschinen selbst ist.

Als Google Anfang dieses Monates auf seinem Webmaster-Blog einen Artikel veröffentlichte, in dem eine Neuausrichtung des Konzepts von NOFOLLOW angekündigt wurde, war die Aufregung natürlich groß. Ab März 2020 werden zwei neue Linkattribute aktiviert, mit deren Hilfe gesponserte und von Nutzern erstellte Inhalte gesondert ausgewiesen werden können. Eine sinnvolle Erweiterung des bestehenden Konzepts, insbesondere hilfreich für große Marktplätze und Shops mit unterschiedlichsten Formen von Inhalten.

Und prompt springt die kollektive SEO-Branche auf die frisch durchs Dorf getriebene Sau: Zwischen der Absicht, das beste Ergebnis für den Kunden zu liefern und der Angst, eine wichtige Innovation oder einen ultimativen Trend zu verpassen, werden in Windeseile Nachrichten verbreitet, die unmittelbaren Handlungsdruck suggerieren, alptraumhafte Szenarien für die Zukunft prophezeien oder einfach zum Abwarten raten. Wie so oft, konnten erst die Google-Verbindungoffiziere Gary Illyes und Danny Sullivan für ein wenig Ruhe im SEO-Karton sorgen.

SEO – ein kollaboratives Modell mit Zukunft

Dieser Vorgang ist aber ein schönes Beispiel dafür, wie sich die Suchmaschinenoptimierung ihren Pioniergeist trotz größerer Budgets und gestiegener Verantwortung erhalten hat. Man diskutiert und experimentiert leidenschaftlich über Ländergrenzen hinweg, auch auf die Gefahr hin, dass es manchmal ganz schön anstrengend sein kann. Das Ergebnis dieser 20-jährigen Leidenschaft ist unter dem Strich ein deutliches Plus an Qualität und Nutzerfreundlichkeit digitaler Produkte.

So wäre beispielsweise der Übergang zum mobilen Internet ohne SEO als Katalysator zwischen Industriestandards und Anwendern weit weniger zügig und reibungslos über die Bühne gegangen. Der oftmals noch heute belächelte Kanal der „organischen“ Reichweite hat von seiner Bedeutung für Informationsfindung und E-Commerce nichts eingebüßt. Und daher werden auch in Zukunft die Spezialisten von zentraler Bedeutung sein,  die zwischen geschlossenen Systemen und hochglänzenden „User Journeys“ auf dem breiten Fluss der menschlichen Intentionen und Bedürfnisse sicher navigieren können.

Dieser Beitrag erschien zuerst bei Internet World Business.

Dass digitales Marketing nur im Teamwork erfolgreich sein kann, merkt man immer dann, wenn die Hälfte der Kollegen im Sommerurlaub ist. Daher beschäftigen wir uns in der Ferienausgabe der SEO News für den August mit den besten Kolleginnen und Kollegen der Welt.

Die Musik spielt im Maschinenraum

Abseits der glänzenden Kampagnen, großen Budgets und strahlenden Büros der Werbung liegt eine Welt, ohne deren Einsatz und Expertise die Lichter nur halb so hell strahlen würden, die Reichweite nur halb so groß wäre und viele vollmundige Versprechungen lediglich leere Worte blieben. Während die Kombination von kreativer Idee und empirischer Analyse als Zukunftspfad des digitalen Wandels im Marketing gelten darf, bleibt dessen erfolgreicher Ausbau in vielen Bereichen bislang nicht mehr als eine Wette auf die Fähigkeiten des Maschinenraums: die Entwicklungsabteilung (auf Neudeutsch: „R&D“). Aber es muss nicht immer gleich die Welt neu erfunden werden.

Auch jenseits disruptiver Umwälzungen sind interne und externe Entwickler, Datenbankexperten und Softwarearchitekten für den Bau und Betrieb unserer digitalen Marktplätze, Netzwerke und Serviceplattformen verantwortlich. In ihren Händen liegt der Schlüssel zu ausgezeichneter Performance und der zielgerichteten Verknüpfung aktueller Inhalte mit einer alltagstauglichen User Experience. Auch die fehlerfreie Datensammlung und nicht zuletzt eine rechtssichere Geschäftstransaktion kann von ihnen gewährleistet werden. Nicht zufällig sind all diese Punkte über die vergangenen Jahre in den Fokus der Suchmaschinenoptimierung gerückt.

Der Search Engine Optimizer – ein digitaler Hausmeister

Etwas ironisch könnte man sagen, dass der Suchmaschinenoptimierer (oder um im Englischen zu bleiben: der SEO) ja gemeinhin hausmeisterliche Aufgaben für die Googles, Bings und Baidus dieser Welt übernimmt. Er kümmert sich um den barrierefreien Zugang und sorgt mit klugen Markierungen für die notwendige Orientierung der Suchmaschinen innerhalb seiner digitalen Immobilien. Stehen Sanierung oder gar Umbau an, so stellt der SEO sicher, dass Belastungen und Kosten für Nutzer und Eigentümer bestmöglich vermieden werden. Bei diesem Job kommt man zwangsläufig auch im Maschinenraum vorbei und sucht das konstruktive Verhältnis zu den Kollegen an den Reglern.

Rachel Costello, Technical SEO beim US-amerikanischen Technologieanbieter Deep Crawl hat nun in einem Beitrag für das Magazin Searchenginejournal den Entwicklern fehlendes Verständnis für die Implikationen ihres Handelns vorgeworfen. Viele Techniker wären sich der möglichen Folgen für Volumen und Qualität der organischen Reichweite nicht bewusst, wenn „auch nur eine Zeile Code verändert oder entfernt werde“, so Costello. Weniger dramatisch wirbt auch Googles Webmaster-Verbindungsoffizier John Müller für mehr Verständnis auf beiden Seiten: „Ich würde mir von mehr SEOs wünschen, dass sie mit Entwicklern zusammenarbeiten“, antwortete der Schweizer schon Ende letzten Jahres auf die Frage, welche Themen für die Search-Branche 2019 im Fokus stehen sollten. Die Erfahrung zeigt leider, dass es mit dem Verständnis für die Arbeit des jeweils anderen tatsächlich nicht gut bestellt ist.

Gegenseitiges Unverständnis führt zu Geld- und Zeitverschwendung

Es fehlt nicht nur am Wissen um Fähigkeiten und Aufgaben. Viel schwerer wiegt, dass sich Marketing und R&D nur selten darüber austauschen, wie gemeinsame Prioritäten organisiert und gemanaged werden könnten. Da SEO-relevante Änderungen oft nicht unmittelbar kritisch für den Betrieb einer Webseite sind, kann sich die Kommunikation bis zu ihrer Umsetzung über Wochen und Monate ziehen, insbesondere bei großen, internationalen Plattformen. Die Folge von fehlendem Verständnis und mangelnder Kommunikation sind Geld- und Zeitverschwendung in einem Geschäftsfeld, dem es in der Regel nicht schnell genug gehen kann, sich Agilität und Effizienz auf die Fahnen zu schreiben. Richtig ist aber auch, dass der Maschinenraum als technologischer Flaschenhals im Unternehmen den Druck von vielen Seiten zu spüren bekommt und sein Betrieb durch standardisierte Prozesse geprägt ist.

Ebenso kann es kein Vorteil sein, wenn der überwiegende Teil der SEOs in Unternehmen und Agenturen aus der „Content-Ecke“ kommt und oftmals wenig Muße aufbringt, dem unablässigen technologischen Wandel des Webs zu folgen.

Die Leidtragenden sind die Nutzer

Der Leidtragende sitzt dann allerdings letztendlich weder am Entwicklertisch noch im Marketingbüro. Es ist stattdessen der Nutzer, der sich über langsame Seiten, umständliche Userführung oder zweifelhaft lustige 404-Fehlerseiten ärgern muss. Es ist daher die Aufgabe der Suchmaschinenoptimierung, ihr Hausmeisterdasein hinter sich zu lassen und den aktiven Schulterschluss mit Entwicklern und technischen Dienstleistern zu suchen. Dazu gehört in erster Linie, sich Prozesse und Prioritäten der Technikabteilung zu eigen zu machen sowie Zielsetzungen und Abhängigkeiten der SEO-Arbeit verständlich zu formulieren. Unsere Erfahrung hat gezeigt, dass man sich als Agenturdienstleister und Toolanbieter flexibel zeigen und seine SEO-Roadmap auf das Umsetzbare beschränken sollte. Es gilt nicht, ein Maximum an Maßnahmen auf den Weg zu bringen, sondern das Passende und Machbare gemeinsam zu identifizieren und zu priorisieren.

Genau in dieser Schnittstellenfunktion zwischen Marketing und Entwicklerteams liegt die Herausforderung für zeitgemäße, erfolgreiche SEO-Arbeit. Achtsamkeit für die Chancen und Zwänge des Kunden und der aktive Austausch von Wissen mit dem Maschinenraum sind die Eckpfeiler zur Etablierung einer aktiven Governance mit dem Ziel einer effizienten und profitablen Aktivierung des Kanals Search.

Denn: Sind R&D und SEOs erst einmal mit einander im Gespräch  und beginnen voneinander zu lernen, ist die Erkenntnis, dass man lediglich unterschiedliche Seiten derselben Medaille bearbeitet, nicht mehr weit.

Im Herzen eines jeden Shops steht ein Produkt, das auch verkauft werden will. Insbesondere im digitalen Marketing werden die eigene Marke, ganze Kategorien, aber auch einzelne Produkte beworben. Doch diese Produkte sind selten exklusiv im eigenen Shop vertreten, denn auch die Konkurrenz listet entsprechende Angebote. Auf Plattformen wie Amazon, Facebook, Google Shopping, Payback, Criteo oder Idealo werden Produktmerkmale wie Preis oder Farbe miteinander verglichen und auf unterschiedliche Weise wie z.B. Retargeting oder Preisvergleich mit zusätzlicher Reichweite versehen. Das schafft einen Mehrwert für den Endkunden, wird doch das Angebot transparenter und die Auswahl auf den Shopping-Plattformen größer. Doch wie speisen sich die Produktmerkmale eigentlich in diese Plattformen? Die Antwort liegt im Produktdatenfeed.

Der Produktdatenfeed ist damit das Filet und Herzstück, um Produkte bestmöglich zu platzieren und durch höhere Aufmerksamkeit mehr Umsatz zu generieren. Fehlen Produktmerkmale wie zum Beispiel die Farbe, Größe oder der Preis, kommt es oftmals gar nicht erst zu einer Listung – und damit zu Umsatzverlust. Noch heikler wird es, wenn Grundpreise (also Preis pro Liter/Gramm/Meter) auf Shopping-Plattformen wie z.B. Google Shopping nicht im Feed zur Verfügung stehen: Es droht die Abmahnung durch den Wettbewerb. Dabei ist die Lösung eigentlich ganz einfach, denn ein Grundpreis kann zumeist recht leicht automatisiert errechnet und im Datensatz angereichert und markiert werden. Ist der Grundpreis für Google dann im Feed vorhanden, wird er auch ausgespielt und die Anzeige rechtlich konform ausgeliefert.

Datensätze wie Bestände oder Produktfarbe lassen sich häufig aus der eigenen Webseite auslesen, in Datenbanken schreiben und im Datenfeed wieder zur Verfügung stellen. Sucht der Käufer dann auf den einschlägigen Plattformen nach einem „roten Kleid“, so wird das auf der Plattform dann eben auch ausgespielt und steht im Angebot und Wettbewerb zu allen roten Kleidern in einer bestimmten Größe. Und häufig liefern sogenannte „Crawls“, also das automatisierte Absuchen und Abspeichern von bestimmten Informationsbereichen auf Webseiten weit mehr nützliche Informationen, als sie fürs Marketing notwendig wären. Preisfehler lassen sich in weiteren Listen erfassen, die der Korrektur auf der eigenen Webseite dienen. Und diese Daten kommen nicht nur aus der eigenen Webseite: Auch andere Seiten, Masterfeeds oder externe Datenpools lassen sich über API-Schnittstellen anzapfen und reichern die zum Produkt gehörenden Informationen an. Bestandsinformationen können in Echtzeit nicht mehr vorhandene Produkte aus der Bewerbung nehmen oder sogar dem Einkauf wertvolle Informationen zur aktuellen Nachfrage liefern.

Gut angereicherte Datensfeeds führen zu Umsatz

Auch die Affiliate-Netzwerke klagen über fehlende Produktinformationen ihrer Kunden für ihre Publisher. Ein gut angereicherter Datenfeed würde über die Netzwerke direkt auf mehreren Shopping-Plattformen verteilt und somit den Umsatz skaliert nach oben treiben. Skaliert deswegen, weil die Anreicherung um die begehrten Produktinformationen einmalig im Feed initiiert wird und danach auf allen Plattformen wertschöpfend eingesetzt werden kann. So manche Plattform lässt sich hierdurch überhaupt erst erschließen, da verschiedene Datenfelder obligatorisch zu befüllen sind, um überhaupt erst in die Bewerbung aufgenommen zu werden. Ist der Datenfeed erst einmal ordentlich angereichert und in die Systeme eingepflegt, können damit fast alle Kanäle am konversionsstarken Ende der Customer Journey erfolgreicher Umsatz generieren: Amazon, Google Shopping, Facebook und Affiliate.

Dieser Artikel erschien auch im Digital Publishing Report.

Bei 40 Grad im Schatten wird Deutschlands liebstes Hobby plötzlich unwichtig: Fernsehschauen. Schade eigentlich, denn pünktlich zu den Hundstagen wird das Verhältnis von TV-Geräten und Suchmaschinen neu justiert. Warum dies so ist und weshalb besonders bei der alten und jungen Zielgruppe Voice als Suchmaschine im Auge behalten werden sollte, erfahren Sie in SEO News für den Monat Juli.

TV und Search – Ungleiche Geschwister auf Schmusekurs

Im Hitzesommer 2019 trübt sich das wirtschaftliche Klima weltweit deutlich ein, betroffen ist insbesondere auch Exportweltmeister Deutschland. Viele Unternehmen sind durch diese Entwicklung dazu gezwungen, ihre Ausgaben in Werbung und Marketing zu überprüfen. Entlang digitaler Kanäle genießt man den Vorteil, dass sich Kosten und Ertrag (zumindest in der Theorie) in eine direkte Verbindung setzen lassen. Der Preis einer Conversion oder ROI und ROAS auf das eingesetzte Budget ist in der Regel gut plan- und kalkulierbar. Nicht so einfach ist dies jedoch bei TV-Kampagnen, deren hohe Reichweite weniger exakt ausgewertet werden kann.

Da liegt es im Interesse der Werbewirtschaft, dem Zusammenspiel beider Kanäle verstärkt Aufmerksamkeit zu widmen, um mögliche Synergieeffekte auszuloten. Die Frage, wie sich TV/Display und Search gegenseitig beeinflussen ist nicht neu; interessant ist aber, dass Search, organisch und bezahlt, immer häufiger als Bindeglied zwischen einem zuweilen diffusen TV-Impact und den echten Umsätzen eines Unternehmens verstanden wird.

Call-to-Action als Hebel zu höherer Nachfrage

Wie das New Yorker Branchenblatt „Digiday“ berichtet, gehen immer mehr US-amerikanische Firmen dazu über, ihre Attributionsmodelle dahingehend zu überprüfen, wie sich ihre TV-Präsenz in der organischen Suchnachfrage und der Performance ihrer bezahlten Search-Kampagnen niederschlägt. Eine höhere Nachfrage, insbesondere nach Markenbegriffen lässt sich nicht nur durch höhere Investitionen in TV und Display-Kampagnen stimulieren; auch ein direkter Search-Aufruf wie „Einfach XYZ googeln!“ oder „Suchen Sie XYZ“ kann das Suchvolumen über klassische Media-Kanäle deutlich steigern, so der Bericht.

Ein kreativer Ansatz, wie er in den USA oder UK seit Jahren genutzt wird, in Deutschland aber noch immer eine Ausnahmeerscheinung ist. Bei diesem Setup kann man Analytics-Daten aus Search heranziehen, um die crossmediale Kampagnenplanung entlang der Customer Journey zu optimieren. Um welchen Hebel klassische Reichweitenkampagnen die Awareness stimulieren können, lässt sich an Veränderungen im Suchvolumen messen – die Kosten für bezahlte Search-Conversions können wiederum zur Ermittlung des ROI/ROAS der TV-Kampagne herangezogen werden. Zugleich ermöglicht eine nachhaltige SEO-Arbeit das hinzugewonnene organische Suchvolumen gezielt auf konversionsstarke Landingpages zu leiten. Hierdurch kann die optimale User Experience von der Fernsehcouch bis zur Conversion sichergestellt werden. Wie die Agentur Mediaplus in einer gemeinsamen Studie mit SevenOne Media und Google festgestellt hat, können ähnliche Werbewirkungseffekte auch mit Hilfe von Googles Videosuchmaschine YouTube realisiert werden. Es ist also höchste Zeit, die lange gepflegte Konkurrenz der Marketinggeschwister TV und Search zu beenden, damit knappe Budgets in wirtschaftlich schwierigen Zeiten effektiver und effizienter eingesetzt werden können. Unter Geschwistern sollte man sich schließlich verstehen.

Wer spricht hier eigentlich mit Alexa?

Endlich ist auch in unserer latent übereuphorischen Branche der nervöse Hype um die Möglichkeiten und Segnungen der Sprachsuche einem nüchternen Realismus gewichen. An dieser Stelle haben wir in der Vergangenheit des Öfteren darauf hingewiesen, dass es sich bei Voice Search lediglich um eine Erweiterung der Mensch-Maschine-Schnittstelle für Suchsysteme handelt. Die inhaltlichen Auswirkungen in Bezug auf neue Formen der Interaktion würden aber die hohen Erwartungen wahrscheinlich nicht erfüllen können. Wie nun berichtet, war die Experteneinschätzung, dass im Jahr 2020 rund 50 Prozent aller Suchanfragen per Voice vermittelt werden, lediglich eine Fehlinterpretation von Daten aus der Volksrepublik China.

Natürlich steigen auch unabhängig von diesem kleinen Marktforschungs-Fail die Nutzungszahlen für Voice Search an. Dies ist vor allem der weiterhin inflationären Markteinführung dialogfähiger Endgeräte geschuldet. Die US-amerikanische Marketingagentur „Path“ hat in einer globalen Umfrage untersucht, wie unterschiedliche Zielgruppen auf verschiedenen Plattformen die neue Technologie nutzen. Die Ergebnisse der Untersuchung sind durchaus vielschichtig: So gaben rund 70 Prozent der Teilnehmer an, die Sprachsuche wöchentlich zu nutzen. Ein Viertel nutzt die Technologie sogar bis zu dreimal am Tag. Aufgeteilt in Altersgruppen sticht hervor, dass sich insbesondere Nutzer am unteren (13-18 Jahre) und oberen (65+ Jahre) Ende der Altersskala zu häufigem Spracheinsatz bekennen.

Dieser Text erschien zuerst bei internetworld.de.

Während uns die erste Hitzewelle des Sommers 2019 den Schweiß auf die Stirn treibt, kommt Google langsam aber sicher unter den Druck der US-Kartellwächter. In den SEO-News für den Monat Juni zeigen wir daher, ob sich die Suchmaschine wirklich ernste Sorgen vor einer Zerschlagung machen muss.

Google auf dem Weg zum Weltportal

Seit der Wahl von Donald Trump zum Präsidenten der Vereinigten Staaten wird jenseits des Atlantiks nicht mehr wirklich stringent regiert. Da also in Washington D.C. keine wichtigen Gesetze mehr verabschiedet werden, wollen die Politiker umso dringender herausfinden, wie man in diesen Schlamassel bloß hineingeraten ist. Aus diesem Grund werden vom Kongress in lockerer Reihenfolge die Bosse der großen Digitalriesen wie Amazon, Google, Facebook und Apple vorgeladen, um gleichzeitig Spurensuche und Schadensbegrenzung zu betreiben. Unter dem Damoklesschwert einer kartellrechtlichen Zerschlagung des Konzerns am Horizont musste im vergangenen Dezember auch Google-Chef Sundar Pichai die Frage beantworten, was seine Firma denn eigentlich mit ihrer sagenhaften Reichweite anfange. Genauer gesagt: Wie viele Nutzerzugriffe reicht Google im Sinne einer klassischen Suchmaschine an Drittseiten weiter und wie viel dieser Reichweite behält das Unternehmen zur Vermarktung und Monetarisierung auf den eigenen Webseiten und Apps der Alphabet-Holding?

Pichais Antwort war damals wenig hilfreich und beschäftigte sich statt mit konkreten Zahlen eher mit diffusen Einlassungen zu den Besonderheiten der User Journey in Search. Dabei ist die Suchmaschine aus Mountain View gerade dabei, eben diese User Journey gehörig auf den Kopf zu stellen: Auf der jüngst zu Ende gegangenen Suchmarketing Konferenz SMX Advanced in Seattle waren sich Beobachter beispielsweise einig, dass Google immer weniger ein Suchsystem ist, und sich vielmehr hin zu einem Portal entwickelt.

Clickstream-Daten bestätigen den Trend

Da trifft es sich gut, dass SEO-Urgestein Rand Fishkin diese Zahlenlücke gerade mit einem aktuellen Blogpost gefüllt hat. Aus den Clickstream-Daten der Analysefirma Jumpshot für den US-amerikanischen Markt hat er herausgearbeitet, dass rund die Hälfte aller rund 150 Milliarden US-Zugriffe auf Google im Jahr 2018 sogenannte „No-click-searches“ waren, also Endpunkte der User Journey, bei denen auf die Suchanfrage kein weiterer Klick hin zu einer Drittseite folgt. Google löst somit die Anfrage jedes zweiten Nutzers auf der eigenen Website und wird damit selbst zum Endpunkt der User Journey.

Neue Designlayouts und klickbare Features in den ehemals klar strukturierten Suchergebnissen befördern den Eindruck, dass Google je nach Intention der Nutzeranfrage, immer stärker die Funktion eines klassischen Webportals annimmt. Daneben leitet Google laut Jumpshot-Daten rund zwölf Prozent der Clicks auf eigene Drittseiten wie YouTube weiter. Unbekannt ist nach Angaben von Fishkin der Anteil an Suchanfragen, die auf einem Mobilgerät an eine Google-App wie Maps oder Gmail weitergeleitet und dort geöffnet werden. Damit bleibt ein signifikanter Anteil von noch immer mehr als 40 Prozent – über 60 Milliarden Klicks jährlich – der als organischer Traffic auf Drittseiten im Internet weitergeleitet wird.

Seine Trafficanalyse zeigt darüber hinaus, dass die Summe dieser Clicks über die vergangenen drei Jahre auch insgesamt relativ stabil geblieben ist. Jedoch sinkt der organische Traffic von mobilen Endgeräten im Vergleich zum Desktop deutlich. Grund hierfür ist die immer stärkere Bevorzugung bezahlter und lokaler Suchergebnisse auf dem kleinen Bildschirm. Für Seitenbetreiber sei dieser Rückgang des organischen Traffics aus der mobilen Suche nur noch nicht spürbar, da Googles Reichweite noch immer stark wachse, so Fishkin.

Google steht am Scheideweg

Fassen wir also zusammen: Google vermarktet einen Großteil seines Traffic-Wachstums auf den eigenen Webseiten und Apps. Dieser Verlust an potentiellen Besuchern für Drittseiten wird derzeit jedoch noch vom starken Gesamtwachstum Googles ausgeglichen. Ein Hauptgrund für diese Entwicklung ist, dass die Suchmaschine aus Mountain View sich bei bestimmten strukturierten Suchanfragen wie für Flüge, Hotels oder dem Kinoprogramm nicht mehr allzu sehr von seiner kommerziellen Konkurrenz, den Preisvergleichs- und Shoppingplattformen, unterscheidet.

Die Anhörungen vor dem US-Kongress und die nach Presseberichten eingeleiteten Untersuchungen des US-Justizministeriums kommen also zur rechten Zeit. Google muss sich entscheiden, ob es eine Suchmaschine oder ein allwissendes Universal-Portal sein will. Die Diversifikation seines Geschäftsmodells darf nicht auf Kosten der anderen Marktteilnehmer gehen.

Dieser Beitrag erschien zuerst bei LEAD-digital.de.

Brand-Manager, Konsumenten aber auch Marketing- und Werbeleiter hegen eigentlich dasselbe Ziel, nämlich miteinander zur richtigen Zeit, am richtigen Ort und mit der richtigen Botschaft in Kontakt zu treten. Das Problem hierbei ist, dass sie alle ganz unterschiedliche Herangehensweisen verfolgen und Unternehmen die dafür notwendigen Daten selten in Echtzeit auswerten.

Der Verbraucher, der auf der Suche nach bestimmten Produkten oder Dienstleistungen ist, erwartet eine möglichst personalisierte Behandlung – und das natürlich jederzeit, auf allen verfügbaren Geräten und über jeden möglichen Kanal. Die sogenannte Customer Journey folgt schon lange keinem geraden Pfad mehr. Denn für Kunden gibt es unendlich viele Möglichkeiten, um mit den verschiedenen Unternehmen in Kontakt zu treten. Sie können dabei entweder direkt auf die Marken zugehen oder indirekt, zum Beispiel über Performance Marketing-Kanäle wie Preisvergleiche oder Social Media-Plattformen. Die Folge: Durch die verschlungene Customer Journey entstehen immer mehr Kaufprozess-bezogene Daten. Marketer hingegen wollen den digitalen Kunden verstehen und erreichen, haben aber dabei natürlich stets den eigenen ROI im Hinterkopf. Sie verfolgen dementsprechend eine Strategie, die das meiste aus dem Marketingbudget rausholt. Doch dazu müssten sie erstmal ihren Weg durch den Datendschungel finden. Die immer größer werdende Menge an Daten macht es ihnen jedoch zunehmend schwer, die richtigen Informationen zur richtigen Zeit zu finden.

Die fetten Wachstumsjahre sind vorbei

Der größte Teil der ständig gesammelten Daten verbleibt meist ungenutzt in der virtuellen Schublade. Gerade im Marketing werden unendlich viele Nutzerdaten gesammelt, um darauf basierend eine möglichst passgenaue, persönliche Marketingkampagne für die Shop- oder Websitebesucher zu schneidern. Derzeit gehen jedoch viele Marketingabteilungen noch zu unstrategisch mit den Daten um, denn die wenigsten Daten werden analysiert und in Kontext gesetzt. Konkrete Optimierungsmaßnahmen und Anschlusshandlungen ergeben sich daraus bisher also leider nur selten. Bevor man – mehr oder weniger – planlos Daten anhäuft, sollte man sich also fragen:

  • Muss ich wirklich ständig neue Daten sammeln, um meine Marketingkampagnen erfolgreich zu führen?
  • Wo fange ich mit dem Sammeln der Daten an und wo höre ich wieder auf?
  • Wie können Daten eingesetzt werden, um bei der Entscheidungsfindung zu helfen?
  • Und welche Daten sind für eine erfolgreiche Kampagnen-Aussteuerung eigentlich notwendig?

Zunächst ist die vielleicht etwas ernüchternde Antwort auf alle diese Fragen: Das Datensammeln an sich wird wohl nie aufhören. Es geht viel mehr darum, die (vorhandenen) Daten besser zu nutzen! Dazu sollten sich der Marketer eine vernünftige Datenstrategie zulegen, denn die fetten Jahre des Onlinehandels sind vorbei! In den ersten Jahren konnte der Onlinemarkt zunächst ein schnelles Wachstum verbuchen. Dies war aber zumeist auto-generiert, weil der Markt sich neu auftat und sich das Käuferverhalten in Richtung Online verschob. Zwar steigen auch heute die Onlineumsätze weiter, aber wesentlich langsamer als noch zu Beginn. Denn der Nutzer ist bereits online und der Markt immer mehr gesättigt. Jetzt wird der Kuchen verteilt! Wer weiterhin im vorderen Bereich der Onlineplayer mitspielen möchte, muss nun also auf mehr als kreative Kampagnen setzen. Denn letztlich bedeutet die Sättigung des Marktes, dass aktuell alle Marktteilnehmer die gleiche Startposition haben. Mit der gleichen Ausgangslage kann daher vor allem eine clevere Datenstrategie einen erheblichen Vorsprung vor der Konkurrenz verschaffen.

Das Datensammeln an sich wird wohl nie aufhören. Es geht viel mehr darum, die (vorhandenen) Daten besser zu nutzen!

Abteilungsübergreifenden Datenaustausch ermöglichen

Die gute Nachricht? Der erste Schritt hin zu einer erfolgreichen Datenstrategie ist mit einer ersten Bestandsaufnahme der vorhandenen Daten bereits getan! Die bestehenden Kundendaten sind besonders wertvoll, denn sie liefern wichtige Informationen über Kaufverhalten, Einkaufs- beziehungsweise Besuchsfrequenz und Warenkörbe.

Bereits existierende Daten sind für Unternehmen die Basis für die spätere, individuelle Werbeansprache der Verbraucher. Wichtig ist dabei, bereits vorhandene Daten abteilungsübergreifend miteinander abzugleichen und Überschneidungen ausfindig zu machen. Häufig weiß leider die linke Hand nicht, was die rechte tut. Auf diese Weise entstehen in der Regel Datensilos, die verhindern, dass der Datensatz zum Datenschatz wird. Umso essenzieller ist es dementsprechend, dass alle Abteilungen – von IT über Vertrieb bis hin zu Marketing – miteinander kommunizieren und ihre Daten in einer gemeinsamen Lösung, der sogenannten Single Source of Truth, zusammenführen. Dafür muss der Stellenwert der Daten über alle Abteilungsgrenzen hinweg klar kommuniziert werden. Idealerweise sollte jedes Unternehmen seinen eigenen Datenmanager haben, der als Schnittstelle zwischen den einzelnen Abteilungen fungiert. Dieser muss verstehen, wer die Zielgruppe des Marketings und des Vertriebs ist, um dementsprechend die richtigen Daten zu sammeln, aufzubereiten und zu verdichten.

Der Datenmanager kümmert sich darüber hinaus um das richtige Format für die Datenspeicherung, um sie anschließend über die Single Source of Truth verfügbar zu machen. Insbesondere bei großen Händlern und Konzernen entstehen häufig Produktsilos. Der Datenmanager muss sich um eine Verknüpfung der Daten kümmern, um die Auslieferung von produktübergreifenden Kampagnen möglich zu machen.

Der Fokus verändert sich: Weg vom Kaufabschluss – hin zu Kundenbedürfnissen

Eine sehr wichtige strukturelle Veränderung des Marktes ist die Verlagerung des Fokus von der Transaktions- hin zur Customer Lifetime-Perspektive. Dies bedeutet, dass nicht mehr der Kaufabschluss im Mittelpunkt steht, sondern der Kunde selbst. Es wird also zunehmend wichtig herauszufinden, wie viel ein einzelner Kunde Wert ist, wenn ich ihn gezielt ansprechen kann. Der Verbraucher, der auf der Suche nach bestimmten Produkten oder Dienstleistungen ist, erwartet eine personalisierte Ansprache und entsprechende Angebote. Der informierte Kunde recherchiert und shoppt dabei überall und jederzeit und hinterlässt so immer mehr Kaufprozess-bezogene Daten. Abseits des reinen Transaktionsfokus, der auch die Datenauswertung und Ansprache nur auf den Kauf selber ausrichtet, berücksichtigt die Customer Lifetime-Perspektive den langfristigen Wert des Kunden. Sie will einen zufriedenen Kunden hinterlassen, der wiederkommt, der einen Service weiter empfiehlt, der nach Abbruch eines Kaufes vielleicht dennoch in drei bis vier Monaten zum Käufer wird.

Daraus ergeben sich komplett neue Herangehensweisen und Fragen, die sich Marketer stellen müssen:

  • Wie denkt der Kunde?
  • Was interessiert ihn wirklich?

Die wichtigste Frage ist derzeit jedoch:

  • Wie stelle ich sicher, den Kunden über alle Kanäle zu erreichen?

Denn dieser bewegt sich von Kanal zu Kanal, geht also mal online und informiert sich dort über ein neues Produkt, fragt den Verkäufer am POS oder ruft Daten über sein Smartphone oder seinen Desktop-PC ab.

Marketingmanager müssen all diese Daten von den verschiedenen Kontaktpunkten zusammenbringen und einem Kunden zuordnen können. Denn letztlich hegen Marken, Konsumenten aber auch Marketing- und Werbeleiter eigentlich dasselbe Ziel, nämlich miteinander zur richtigen Zeit, am richtigen Ort und mit der richtigen Botschaft in Kontakt zu treten. Das Ziel des Unternehmens sollte sein, den Kunden regelmäßig mit für ihn passenden Inhalten anzusprechen und so eine langfristige Bindung an die Marke oder das Unternehmen zu erzielen. Denn ohne diese Bindung sind keine langfristigen, sondern weiterhin nur kurzfristige, von Aktionismus geprägte, Ziele realisierbar.

Durch die verschlungene Customer Journey entstehen immer mehr Kaufprozess-bezogene Daten, die oft unausgewertet bleiben. (Quelle: Tradedoubler)

BI-Lösungen fördern schnelle Entscheidungen im Marketing

Um den Kunden individuell passende Angebote machen zu können, ist eine Harmonisierung der verfügbaren Daten unabdingbar. Der Wert, der in den Daten steckt, muss ermittelt und ausgewertet werden. Angesichts der manuell nicht handhabbaren Datenberge kommen Unternehmen bei ihrer Marketinginfrastruktur kaum um eine entsprechende Business Intelligence (BI)-Lösung herum. Schließlich geht es nicht nur um eine Automatisierung der Marketingprozesse, sondern um die richtige Interpretation der Daten. Denn wenn das Marketingmanagement nur Teileinsichten erhält, muss es einige Entscheidungen „aus dem Bauch heraus“ treffen, da der Gesamtüberblick fehlt. So riskieren Marketingentscheider, falsche Entschlüsse zu treffen. Oder noch schlimmer: Die Datenberge überfordern sie und sie treffen überhaupt keine Entscheidung.

Marketingmanager benötigen ein Tool, das die Verarbeitung großer Datenmengen ermöglicht und die für Geschäftsentscheidungen erforderlichen Informationen in schnell zu erfassenden Grafiken und Diagrammen visualisiert. (Quelle: Tradedoubler)

Eine weitere wichtige Voraussetzung auf der Infrastrukturseite ist eine zentrale Datenhaltung, also die Verknüpfung und Zusammenfassung der Kunden- und Kampagnendaten in der Single Source of Truth. So laufen die Daten aller Marketingaktivitäten, sei es Suchmaschinenoptimierung, Affiliate- und Display-Marketing oder Social Media, zentral zusammen. Das Marketingteam bekommt die ausgewerteten Daten idealerweise in Echtzeit über die entsprechende BI-Lösung angezeigt und leitet basierend darauf Optimierungspotenziale ab. Die Customer Journey muss dabei stets im Blick behalten werden. Nur so kann die Verschiebung hin zum Customer Lifetime Value funktionieren. Schon heute sehen wir die Entwicklung, dass vorausschauende Unternehmen viel Know-how intern bündeln, hochspezialisiert sind und stark datengetrieben beziehungsweise IT-unterstützt arbeiten.

Die Customer Journey muss stets im Blick behalten werden. Nur so kann die Verschiebung hin zum Customer Lifetime Value funktionieren.

Big Data wird zu Smart Data

Den Firmen steht heutzutage also eine unüberschaubare Menge an Daten zur Verfügung. Nur mithilfe geeigneter Software ist es ihnen noch möglich, das komplexe Online-Nutzerverhalten über eine Vielzahl an Kanälen und Endgeräten komplett nachzuvollziehen. Die gewonnenen Daten werden so anschlussfähig gemacht und Marketer erhalten Einblicke dahingehend, inwiefern einzelne Plattformen, Kanäle, Geschäftsmodelle und Publisher die Kaufentscheidung beeinflusst haben. Nur mithilfe dieser Informationen können sie alle digitalen Marketingmaßnahmen optimieren und personalisierte Werbung zur richtigen Zeit, am richtigen Ort, für die richtige Person, auf dem passenden Gerät ausspielen. Alles in allem gilt: Ohne smarte Daten, keine erfolgreichen Entscheidungen im Onlinemarketing.

Ohne smarte Daten, keine erfolgreichen Entscheidungen im Online Marketing.

In fünf Schritten zu besseren Entscheidungen

Mit diesen fünf Schritten behalten Online Marketingmanager den Überblick über ihre Daten:

1. Brechen Sie Ihre internen Abteilungs- und Kanalsilos auf. Viel zu häufig wird der direkte Erfolg nur im eigenen Silo gesucht, anstatt sich auf den Kunden als Ziel zu konzentrieren. Akzeptieren Sie die kanalübergreifende User Journey des Kunden.

2. Wenn Sie noch einen Schritt weiter gehen können: Gründen Sie ein dediziertes BI-Team, das die Daten untersucht und einordnet. Für bestmögliche Ergebnisse sollte es aus einer ausgewogenen Mischung von Marketing-, IT-, Datenmanagement- und Vertriebsmitarbeitern bestehen.

3. Es muss eine klare Zielsetzung geben, auf der die Datenstrategie basiert und entsprechend ausgerichtet wird. Das bedeutet für das BI-Team, nur Daten abzufragen, die einem konkreten Verwendungszweck dienen. Eine strukturierte Vorgehensweise mit der Zielsetzung im Hinterkopf verhindert das reine Ansammeln von Daten.

4. Es sollten so wenig verschiedene Softwarelösungen wie möglich zum Einsatz kommen. Je mehr einzelne Lösungen genutzt werden, umso größer das Datenchaos.

5. Achten Sie darauf, ein Business Intelligenz-Tool zu wählen, dass ein einheitliches Reporting und systematische Analysen bietet. Das ist der Schlüssel für eine erfolgreiche Datenstrategie, denn nur so werden die Daten lesbar und anschlussfähig und können Sie darin unterstützen, die richtige Entscheidung zu treffen.

 

Dieser Beitrag erschien zuerst bei dpr.

Die Zukunft des Suchmaschinenmarketings ist vollautomatisiert und sie hat bereits begonnen. Während Sie diese Zeilen lesen, übernimmt eine Künstliche Intelligenz die Steuerung von Millionen AdWords-Kampagnen auf Google. Noch hilft ein Widerspruch, um die Kräfte der Algorithmen in ihre Schranken zu weisen, aber aufhalten lässt sich der Trend nicht mehr.

Das klassische Keyword hat als alleiniger Targeting-Parameter schon lange ausgedient. In den vergangenen zwei Jahren ist das Maß an Teilautomatisierung stetig gestiegen. Responsive Ads und Smart Bidding sind bereits Realität und lassen erahnen, in welche Richtung sich das Suchmaschinenmarketing der Zukunft entwickeln wird.

Den Weg weisen Plattformen wie „Google 360“ und die „Adobe Marketing Suite“: Beide Systeme zeichnet aus, dass sie die Möglichkeiten der Integration und Verknüpfung externer Datenquellen konsequent verbreitern und vertiefen. Dem Ziel eines umfassenden Zugriffs auf die Customer Journey kommen Google und Adobe damit bereits sehr nahe.

SEA-Kampagnen werden individueller

Das Angebot von Automatisierungslösungen treibt die Nachfrage nach diesen Möglichkeiten deutlich an. Hinzu kommt die stetig wachsende Komplexität moderner Digitalkampagnen. So ermöglichen Google und Adobe die Anreicherung von Kampagnen mit immer mehr Profildaten aus unterschiedlichsten Quellen. Die Steuerung der klassischen SEA-Kampagne erfolgt daher zunehmend profilbasiert und individualisiert. Für jedes Profil wird es eine frei skalierbare Anzahl an Matchings mit inhaltlich relevanten Suchanfragen geben – und die Summe aus diesen Matchings wird das mehr oder weniger umfangreiche Keywordset ablösen.

Gleichzeitig wird das Steuern moderner SEA-Kampagnen dabei das menschlich Machbare übersteigen und nur dann erfolgreich gelingen, wenn eine Künstliche Intelligenz dabei hilft, die großen Datenmengen für die zielgerichtete Aussteuerung der Anzeigen zu verarbeiten. Im Idealfall hilft Machine Learning dabei, das System zwischen Kampagnenzielen, Wettbewerb und Suchrelevanz auf Erfolgskurs zu halten.

Letztlich entscheidet der Nutzer über Erfolg und Misserfolg

Während das Management der Profildaten dabei weitestgehend automatisiert abläuft, speist sich die Qualität und Relevanz der Kampagneninhalte aus den digitalen Angeboten der werbetreibenden Unternehmen. Ob Website oder Datenfeed – Google und Co. ist es gleichgültig, woher die Inhalte kommen. Entscheidend ist hingegen, dass diese Daten relevant und aktuell sind, der Nachfrage in den Zielgruppen entsprechen und für den Zugriff der Marketing-Plattformen technisch zugänglich sind. Die Optimierung der digitalen Angebote macht im Zuge des automatisierten Suchmaschinenmarketings den finalen Unterschied im Wettbewerb. Denn nach wie vor entscheidet der Nutzer über Erfolg und Misserfolg im Suchmaschinenmarketing.

Für Agenturen bedeutet dies, dass der SEA-Manager der Zukunft andere Fähigkeiten als bisher mitbringen muss. Die Automatisierung von Prozessen und die Zunahme des Datenmanagements im modernen Suchmaschinenmarketing verlangt eine stärke Arbeitsteilung und Spezialisierung innerhalb der Teams. Von der Programmierung über die Optimierung bis zur Qualitätssicherung werden sich bislang eher getrennte Funktionen aus Suchmaschinenoptimierung (SEO), Analytics, Beratung und klassischem SEA verschränken müssen.

Interdisziplinäre Teams aus Spezialisten werden auch im Zeitalter des automatisierten Suchmaschinenmarketings dafür Sorge tragen müssen, dass sich Agenturen und Kunden nicht blind einer technologischen Black Box ausliefern und die wichtigsten Stellschrauben für den wirtschaftlichen Erfolg in den eigenen Händen behalten.

SEO News

Am besten geht es nur gemeinsam. Dieser Kernsatz prägt nicht nur die Botschaft des Osterfestes, sondern auch die SEO-News für den Monat April.

Warum IT-Sicherheit für die SEO-Performance so relevant ist

Gerne bezeichnen sich Suchmaschinenoptimierer als die Hausmeister ihrer Kunden. Letztlich stecken SEOs ihre Nasen in fast alle Bereiche der Organisation und des Betriebs digitaler Assets, wie Webseiten oder Apps. Als verantwortungsbewusster SEO ist man eben nicht nur als strategischer Analytiker gefordert, sondern auch als mahnender Nörgler, der neben strukturellen, inhaltlichen und technischen Problemen an irgendeinem Punkt auch mit dem Thema Sicherheit konfrontiert wird. Zwar ist das Marketing nicht für die IT-Sicherheit zuständig, allerdings zeigt sich, dass mangelndes Bewusstsein für Sicherheit im Web durchaus in der Lage ist, die Performance in Suchmaschinen negativ zu beeinflussen. Dass die Nutzung von gesicherten Client-Server-Verbindungen mit Hilfe des HTTPS-Protokolls von Suchmaschinen heutzutage als Qualitätsfaktor vorausgesetzt wird, sollte mittlerweile zum SEO-Basiswissen gehören. Mindestens genauso wichtig wie diese formale Sicherheitskomponente ist aber beispielsweise auch das Monitoring von automatisiertem Bot-Traffic auf den eigenen Servern. Die Mehrzahl der Bots hat völlig legitime Gründe für das Crawling einer Website. Bestes Beispiel ist dann auch die Indexierung einer Domain für eine Suchmaschine. Laut einer aktuellen Studie der US-amerikanischen Bot-Spezialisten „Distil Networks“ sind jedoch rund 19 Prozent aller Bots mit finsteren Absichten unterwegs. Dazu zählen das Kopieren urheberrechtlich geschützter Inhalte, das Ausspionieren potentieller Verwundbarkeiten eines Servers oder auch die Verteilung von Schadsoftware, sogenannter Malware. In Summe und auf Dauer können diese im Allgemeinen unproblematischen Bot-Angriffe dazu führen, dass die Ladegeschwindigkeit gedrosselt oder die Auslieferung von Seiten ganz und gar verhindert wird.

 Beides wirkt sich unmittelbar negativ auf die Sichtbarkeit in Suchmaschinen aus. Neben automatisierten Angriffen steht vor allem auch das Thema Hacking im Vordergrund. Unter Hacking versteht man die Veränderung von Inhalten einer Webseite durch einen nicht legitimierten Eingriff von außen, ein Hack. Nach Angaben einer Untersuchung des weltweit größten Domainhändlers „Go Daddy“ werden rund 73 Prozent aller gehackten Seiten aus reinen SEO-Gründen übernommen und verändert. Zumeist werden Seiten mit relativ hoher Autorität in einem bestimmten Themengebiet gehackt, um potentielle Besucher abzuschrecken oder illegitime Links aufzubauen. Die gravierendsten Folgen eines solchen Hacks wären nicht nur eine mögliche Abstrafung durch Suchmaschinen, inklusive des damit einhergehenden Traffic- und Sichtbarkeitsverlusts, sondern auch die direkte Schädigung von Webseitenbesuchern durch das Ausspähen persönlicher Daten (Phishing) oder deren Infektion mit Schadprogrammen über verseuchte Downloads.

Gemeinsam stark

So weitreichend die Konsequenzen mangelnder IT-Sicherheit für Marketing und Search sein können, so verbindet doch beide Bereiche auch eine große Gemeinsamkeit. Sowohl effektive Suchmaschinenoptimierung als auch umfassende IT-Sicherheit lassen sich nicht outsourcen, sondern sind das Ergebnis von geteilter Verantwortung und Teamarbeit. Wer heute noch in Silos denkt und organisiert ist wird weder auf dem einem noch auf dem anderen Gebiet wirklich erfolgreich sein können.

Dieser Beitrag wurde zuerst bei Internet World Business veröffentlicht

In immer höherer Schlagzahl fordern neue Technologien, Geräte und Inhaltsformate Suchmaschinenexperten rund um die Welt heraus, aber nun kommt Hilfe von unerwarteter Seite. Mit welchen kleinen Helferlein wir bei der Strategieentwicklung und dem Tagesgeschäft künftig rechnen müssen, verraten wir Ihnen in den SEO-News für den Monat März.

Die Fraggles sind zurück

Die Fraggles sind los und sie erobern in kleinen Schritten die Google-Welt von morgen. Um eine mögliche Verwirrung gleich zu Beginn zu verhindern: Es handelt sich dabei nicht um die kleinen, laut Wikipedia rund 65 cm großen, humanoiden Höhlenbewohner mit einer Vorliebe für Radieschen aus der gleichnamigen Fernsehserie des Jahres 1983.

Die Fraggles, die uns Suchmaschinenoptimierer seit geraumer Zeit beschäftigen, sind zwar auch klein und überaus dynamisch; es handelt sich dabei aber vielmehr um Inhaltsfragmente, die von Google identifiziert, isoliert und in unzähligen Kombinationen über die sich ausbreitende Landschaft von Plattformen, Geräten und Technologien verstreut werden können.

Geprägt hat den Begriff der Fraggles die US-amerikanische Expertin für mobiles Marketing, Cindy Krum aus Denver im US-Bundesstaat Colorado. Entsprechend ihrer Beobachtungen hat sie das Kunstwort aus den Begriffen „Fragment“ und „Handle“ zusammengesetzt. Frei übersetzt könnte man dies mit „Fragmentierte Ansatzpunkte“ ins Deutsche bringen. „Fraggles“ sind laut Krum Googles Antwort auf tiefgreifende Veränderungen im Nutzungsverhalten und dem technologischen Grundgerüst von Webseiten, Progressive Web Apps (PWA), personalisierten Webdiensten und Datenfeeds.

Die Gemeinsamkeit dieser digitalen Assets besteht darin, dass der Großteil ihrer Inhalte lediglich einer einzigen URL zugeordnet ist. Die treibenden Kräfte hinter diesem Trend sind einerseits die Anpassung an die Bedürfnisse des mobilen Zeitalters und andererseits serverbasierte Technologien wie Java Script oder Ajax, die individualisierte Inhalte dynamisch herstellen können.

Google, Bing und Co. passen ihre Indexierung an

In der Folge, so Krum, werde die feste Zuordnung von Inhalt und URL aufgehoben und Suchmaschinen indexierten zunehmend nur noch Inhaltsfragmente einzelner Webseiten, Feeds oder Apps. Anstatt ganze Webseiten Seite für Seite zu indexieren, bestehe die Herausforderung für Google, Bing und Co. vielmehr darin, die relevantesten Inhaltsfragmente aus dem großen Meer von klassischem Html, dynamischem JavaScript und endlosen Strömen von XML zu fischen, so Krum. Der seit rund einem Jahr aktive Mobile First Index von Google ist ihrer Meinung nach nichts anderes, als ein großes Schleppnetz für Fraggles aller Art.

Und tatsächlich macht die Theorie der Fragmente Sinn, wenn man die Entwicklung der Suchergebnisse aller großen Anbieter über die vergangenen zwei Jahre betrachtet. Insbesondere auf mobilen Geräten experimentieren sowohl Google als auch Microsoft mit immer neuen Darstellungsformen und -formaten. Von der integrierten Karten- und Bewertungsanzeige lokaler Suchergebnisse, über die umfassende Abbildung von Menschen, Orten und Markenim Knowledge Graph, bis hin zu konkreten Antworten auf häufig gestellte Fragen im Features Snippet.

Suchmaschinen als universelle Assistenten der Zukunft

Die Suchmaschinen passen ihre Ergebnisanzeige dabei immer genauer an den Nutzungskontext und die Suchintention ihrer User an. Im heraufziehenden Zeitalter der Sprachassistenten wird diese Entwicklung ihre Fortsetzung finden. Der virtuelle Anruf des computergenerierten Google Assistant beim Friseur ist dabei nur der vorläufige Höhepunkt der Ausdifferenzierung von Suchmaschinen zu allgegenwärtigen und universellen Antwort- und Assistenzsystemen.

In solchen Systemen sind Relevanz und Konsumierbarkeit unmittelbar miteinander verknüpft. Auf dem Smartphone, dem Fernseher oder im Auto will und kann niemand mehr auf einer Ergebnisseite nach der passenden Antwort suchen, geschweige denn, sich durch eine Webseite scrollen. Der wirkliche Vorteil des Fraggles-Konzepts ist die Unmittelbarkeit und Flexibilität von kleinen Informationsfragmenten in den unzähligen Kombinationen von Gerätepräferenz und Nutzungssituationen.

Fraggles zeigen die steigende Bedeutung der Customer Journey für Google

Darüber hinaus fügen sich Fraggles nahtlos in Googles strategische Neuausrichtung von Suchergebnissen entlang von User Journeys ein. Zum 20-jährigen Jubiläum der Suchmaschine kündigte Google an, Suchaktivitäten nicht länger als Aneinanderreihung einzelner Fragestellungen begreifen zu wollen, sondern aus Kontext und Historie die möglichst exakte Intention des Nutzers und dessen Position entlang der Customer Journey ermitteln zu wollen. Unterstützt von Künstlicher Intelligenz bedeutet dies, dass Suchergebnisse nun stärker als Konversationspunkt denn als Ergebnisdienst verstanden werden. Auch in diesem Szenario können Fragmente als Teil einer Produktinformation, eines konkreten Kaufangebots oder einer speziellen Fragestellung in der Post-Purchase-Phase zum Einsatz kommen.

Für SEOs bedeutet dies zunächst, einen eigenen Ansatz im Umgang mit Sprachsuche und visuellen Suchanfragen konsequent weiter zu denken. Der Einsatz von Markups für strukturierte Daten und Sprachantworten (Google Speakable) muss zum Standardrepertoire gehören, genau wie die nach Intentionen entlang der Customer Journey organisierte Keyword-Analyse.

Dieser Beitrag wurde zuerst bei Internet World Business veröffentlicht.

Es kann nur eine Suchmaschine geben! Diese Aussage klingt herzlich wenig nach Vielfalt und Transparenz, sondern schwer nach Monopol, Einseitigkeit und Dominanz. Aber doch ist es Realität, dass Google den globalen Suchmarkt uneingeschränkt beherrscht. Ob dies auch auf Sicht so bleiben wird, hängt nicht zuletzt vom globalen Wettbewerb ab. In den SEO-News des Monats Februar widmen wir uns den Herausforderern und ewigen Zweiten auf dem globalen Suchmarkt.

Alternativlos glücklich mit Google

Dass es sich bei Datenschutz nicht um eine Eierspeise aus dem Emsland handelt, dürfte inzwischen auch im Silicon Valley angekommen sein. Europäische und nationale Wettbewerbsbehörden haben Google und Facebook in jüngster Zeit durch spektakuläre Urteile massiv unter Druck gesetzt, was die Erhebung und Nutzung personenbezogener Daten angeht.

Aktuellen Zahlen zufolge hat Googles Muttergesellschaft Alphabet Inc. vergangenes Jahr weltweit mehr Geld für Strafzahlungen aufwenden müssen, als das Unternehmen an Steuern bezahlt hat. Die Begründung zur Durchführung eines erfolgreichen Verfahrens ist dabei immer die gleiche: Missbrauch einer marktbeherrschenden Stellung von Dienstleistungen oder Produkten im Wettbewerb.

Für oftmals quasi-monopolistische Marktanteile von Search- oder Social Media-Plattformen in der digitalen Welt gibt es viele Gründe. Aber gerade die Suchwelt kennt Beispiele, wie einstmalige Marktführer (Yahoo, Alta Vista) von einem unbekannten Konkurrenten überholt wurden (Google). Wie steht es also mit dem Wettbewerb in der organischen Suche anno 2019? Gibt es einen Kandidaten für die Zeit nach Google? Und lohnt es für SEOs, ihren Blick über den Tellerrand auf die Konkurrenz zu richten?

Man muss sich nicht lange mit Zahlen aufhalten, um Googles Marktmacht zu beschreiben, dieser liegt weltweit bei rund 90 Prozent. Erklärtes Ziel des Unternehmens ist es, den größten Datenberg der Branche mit Künstlicher Intelligenz zu einer unsichtbaren und allgegenwärtigen Orientierungs-, Lösungs- und Komfortmaschine zu  verknüpfen. Der sprachgesteuerte Google Assistant ist dabei ein wichtiger Baustein für Google. Jedoch zeigt sich ausgerechnet beim Thema Voice Search, dass die Verhältnisse vielschichtiger sind, als sie scheinen. Denn die grauschwarzen Sprachboxen sind nur die Vermittler von Informationen in einem größeren Spiel. Meist steckt nicht die Suche drin, die als Marke auf dem Gehäuse steht. So ist Microsofts Suchmaschine Bing der eigentliche Lieferant hinter den Suchergebnissen von Amazons Bestseller-Sprachassistenten Alexa. Bis Ende 2017 steckte Bing ebenfalls hinter Apples Sprachassistentin Siri. Neuerdings nutzt der Konzern aus Cupertino die Google-Ergebnisse, mit Ausnahme der Bildersuche, diese wird weiterhin von Microsoft geliefert. Da insbesondere lokale Suchen auf dem Smartphone oder im Auto zunehmend über Sprache vermittelt werden, sollte man Bing als Suchsystem weder abschreiben noch außer Acht lassen.

Der Suchmarkt wird durch Expansion vielfältiger

Da der Suchmarkt durch die technische Evolution weiter expandiert, können auch kleine Suchanbieter in ihrer Nische überraschend gute Ergebnisse vorweisen. So hat sich die Zahl der durchgeführten Suchen der auf Anonymität und den Schutz persönlicher Daten bedachten Suchmaschine „Duck Duck Go“ nach eigenen Angaben seit 2016 fast verdoppelt. Der Anbieter aus dem Mittleren Westen der USA kann nach einer Analyse des Toolanbieters SimilarWeb sogar Branchenriesen wie Bing hinter sich lassen, wenn es um Absprungraten und Engagement der User geht. Das liege unter anderem daran, dass DuckDuckGo-Nutzer in höherem Maße technikaffin und sensibilisiert für Datenschutzthemen seien, so die Studie.

Der gefallene Riese Yahoo plant kein Such-Comeback

Mit knapp vier Prozent globalem Marktanteil ist auch der ehemalige Suchpionier „Yahoo“ noch im Spiel. Dessen Suchtechnologie stammt aber schon seit vielen Jahren ebenfalls aus dem Hause Microsoft und seit das Portal 2016 an den US-amerikanischen Telekommunikationskonzern Verizon verkauft wurde, steht eine Rückkehr des 1994 gegründeten Unternehmens zu einem eigenen Suchgeschäft auch nicht mehr auf der Agenda, wenngleich der Dienst in Japan noch recht populär ist.

Ähnlich lange ist auch schon die die kleine Suchmaschine „Ask.com“ im Geschäft, die zumindest in den USA einen stabilen Marktanteil von rund vier Prozent verteidigen kann. 1996 mit einer komplett eigenen Suchtechnologie an den Start gegangen, hat sich Ask vor rund 15 Jahren jedoch in ein soziales Frage-Antwort-Portal gewandelt, das ein relativ stabiles Stammpublikum anzuziehen vermag, in Deutschland aber nicht über eine Beta-Version seines Angebots hinausgekommen ist.

Die wahren Herausforderer für Google sitzen im Fernen Osten

So muss man schon bis nach Asien schauen, um einen potentiellen Herausforderer für Google zu finden: China hat sich zu einem eigenen Suchmarkt entwickelt, der ein ähnlich großes wirtschaftliches Potential birgt wie jener im Westen. Allerdings funktioniert er unter den Bedingungen nationaler Zensur nach eigenen Regeln und westlichen Konzernen wird der Zugang systematisch verwehrt. Unternehmen wie Baidu oder Tencent stehen dem Silicon Valley jedoch in technologischer Hinsicht in nichts nach. Der Wettlauf zwischen den USA und China auf den Gebieten von Künstlicher Intelligenz und Quantencomputing wird auch für den globalen Suchmarkt richtungsweisend sein.