Beiträge

SEO News

Das Weihnachtsgeschäft nimmt langsam Fahrt auf und auch in diesem Jahr wird wieder hauptsächlich hübsch verpackte Technik unter den Tannenbäumen der Republik liegen. Warum man der Technologie grundsätzlich kritisch gegenüberstehen sollte und ob sich Google mit dem Relaunch seiner Startseite nasse Füße holen wird, das erfahren Sie in den SEO-News für den Monat November.

Google wird ein langer, ruhiger Fluss

Nun ist es also passiert. Zwanzig Jahre lang hat Google nicht nur die Standards für webbasierte Suchdienste gesetzt; auch was das Design seiner Startseite anging, war Google Vorreiter in Sachen Minimalismus und Effizienz. Ein simpler Suchschlitz mit Logo – bzw. Doodle – und zwei darunterliegenden Buttons waren im aufblühenden Internet der frühen 2000er-Jahre so etwas wie die Antithese zu unübersichtlichen Linkwüsten und nervigen Flash-Intros. Doch es hat sich viel getan seit 1998 und so folgt der Marktführer aus Mountain View dem Trend zur personalisierten Dauerberieselung. „Discover Feed“ nennt sich das neue Feature, welches seit den letzten Oktobertagen sukzessive weltweit auf Desktop- und Mobilgeräten sowie den Search-Apps ausgerollt wird.  Es ist die erste von einigen neuen Funktionen, die Google zu seinem Firmenjubiläum angekündigt hat, und markiert den ersten Schritt auf dem Weg zu einer individualisierten Antwortmaschine, die ganz ohne Fragen auskommen soll (wir berichteten). Zwar hatte die Suchmaschine schon in der Vergangenheit mit dem einen oder anderen Homepage-Feature zum Einstieg in populäre Themenwelten oder der Integration seines Assistenzdienstes „Now“ experimentiert, nun aber werden relevante Inhalte, die im Kontext zur persönlichen Suchhistorie stehen, in Form eines Endlos-Streams präsentiert. Und ähnlich wie bei YouTube gibt es das Ganze ab sofort auch im dunkel eingefärbten Nachtmodus.

Mit dieser umfassendsten Designänderung seit dem Start von Google hat man sich in Mountain View scheinbar schwergetan. Und das, obwohl die Konkurrenz von Microsoft mit ihrer Suchmaschine Bing von Beginn an einen anderen, visuellen Weg gegangen ist. Mit sich täglich ändernden, kraftvollen Startbildern und aktuellen News hatte Bing für seine Nutzer schon immer mehr Einstiegspunkte angeboten, als der Marktführer. Interessant ist auch der Vergleich mit Amazon: Die Personalisierung der Inhalte ist für die Einkaufssuchmaschine aus Seattle selbstverständlich der zentrale Ausgangspunkt bei der Startseiten-Gestaltung. Der immerwährende Upsell mit Hilfe des A9-Algorithmus befördert zahllose, individuell passende Angebote zu Tage. Die User Experience und Usability des Designs aber haben gerade in letzter Zeit stark unter der Integration immer neuer Features und Platzierungen gelitten. Das Design der Amazon-Homepage entwickelt sich scheinbar konsequent zurück in die unübersichtlichen Zeiten kleinteiliger Frontpage-Webseiten. So lange die Kasse stimmt, tritt die User Experience auch gerne mal in den Hintergrund. Und natürlich ergeben sich auch für Google neue Formen der Monetarisierung durch die Integration bezahlter Werbung im Discover-Stream.

Vielleicht ist die Startseite am Ende aber eben ein Auslaufmodell. Mit Voice- und Visual Search ergeben sich unzählige Touchpoints für Suchsysteme, die vielleicht in naher Zukunft schon an der klassischen Darstellung im Web oder als App vorbei ein maßgeschneidertes Angebot an Antworten und Lösungen zur Verfügung stellen werden.  Bis es soweit ist, müssen SEOs beobachten, ob der neue Google-Stream von den Nutzern angenommen wird und nach welchen Kriterien sich der Discover-Feed generiert. Die neue, größere Bühne sollte nicht ungenutzt bleiben.

An der Nase herumgeführt

Der technologische Fortschritt ist eine Funktion der Moderne, ihre Bedingung und Konsequenz zugleich. Wie sehr sich Technologie in unser Leben eingebettet hat, wird insbesondere am Phänomen der Suchmaschinen deutlich. Ob Googles Vision eines unsichtbaren Begleiters für die Herausforderungen der unplanbaren Außenwelt oder Amazons Versprechen der unmittelbaren Konsumbefriedigung – beide Projekte wären ohne ihren technologischen Kern nicht denkbar. Das war im Falle der Dampfmaschine oder des Verbrennungsmotors zwar nicht anders, beim aktuellen Schritt der Modernisierung aber bleibt der Blick in die Maschine verwehrt. Konnte man ein Dieselaggregat noch mit den eigenen Händen zerlegen, so verstecken sich Algorithmen und künstliche Intelligenzen in einer weit entfernten Wolke aus Daten. Zuweilen wird man den Eindruck nicht los, dass die hochtrabenden Versprechen und Visionen der High-Tech-Industrie nicht viel mehr sind, als eine funkelnde Marketingshow für ein hilflos naives Publikum.

Da tut es gut, wenn die Technikelite dabei erwischt wird, dass sie auch nur mit Wasser kocht. In diesem Sinne hatte die SEO-Gruppe SignalsLab einen Wettbewerb ausgerufen, bei dem es das Ziel war, innerhalb von 30 Tagen für die Suchanfrage „Rhinoplasty Plano“ zu ranken. Dabei handelt es sich um die Suche nach einer Praxis für plastische Nasen-OPs im Großraum Dallas, Texas.  Eine eher wenig umkämpfte Anfrage mit hoher lokaler Relevanz. Das Ergebnis der kleinen Challenge überrascht. Googles Mantra zu Erfolgsfaktoren in der organischen Suche lässt sich auf drei Kernpunkte herunterbrechen: Relevante Inhalte, nutzerfreundliche User Experience und saubere technische Umsetzung über alle Plattformen hinweg. Da ist es mehr als erstaunlich, dass die Gewinnerseite des SignalsLab-Wettbewerbs bis auf URLs, Überschriften und den Footer komplett in lateinischer Sprache erstellt ist. Die Verwendung von lateinischem Blindtext ist zwar nichts Ungewöhnliches bei der Produktion von Webseiten. In diesem Falle aber handelte es sich nicht um einen vergessenen Platzhalter für noch zu erstellenden Content, sondern um eine Strategie zur Offenbarung der Fehlbarkeit des Algorithmus. Darüber hinaus war die Seite ausgestattet mit erfundenen lokalen Daten, gefälschten Reviews und minderwertigen Backlinks. Dass Google diese offensichtlich gefälschte Webseite auf Position zwei für besagte Suchanfrage als Ergebnis anbietet, ist entweder ein Ausrutscher oder ein blinder Fleck im allwissenden Google-Universum.

Zwei Lehren lassen sich aus diesem kleinen Experiment ziehen. Erstens ist es für die Suchmaschinenbranche tröstlich zu wissen, dass trotz des angeblichen Reifegrads der Google-Technologie, das klassische Old-School-Fake-Spam-SEO noch immer funktioniert. Und für Nutzer ist es ein kleiner Warnhinweis, dass die Vertrauensfrage gestellt werden sollte, bevor man sich vom technologischen Fortschritt gänzlich einnehmen lässt. Suchmaschinen sind zwar praktisch, werden aber niemals Teil der menschlichen Realität sein. Egal ob Google oder Bing: Suchsysteme sind letztendlich datenbankgestützte Anzeigenverkaufsveranstaltungen mit einer kompakten Gratis-Version des echten Lebens als Lockangebot. Übrigens: Lateinische Nasen-OPs gibt es angeblich auch in Florida.

Dieser Beitrag erschien zuerst bei der Internet World Business.

Wer seine Produkte im Internet bewerben will, macht das bislang über Anzeigen in Suchmaschinen, sozialen Netzwerken oder auf den Seiten von Medien. Inzwischen wächst aber noch eine weitere Säule heran. Denn Werbung können Firmen auch auf immer mehr Seiten von Händlern schalten. Die Handelsplattformen entdecken die Werbung als lukrative Einnahmenquelle. Sie besitzen einen entscheidenden Vorteil: Daten über die Kundenwünsche aus erster Hand. Und Firmen sehen durchaus noch weitere Vorteile auf ihrer Seite, denn die Nutzer sind ja bereits in Kauflaune.

   1. Top-Player wie Amazon, Zalando, Otto und Alibaba

Und genau auf dieser Datenbasis und dort zu werben und abzuverkaufen, wo sich das Kundeninteresse unmittelbar manifestiert, ist spannend. Top-Player wie Amazon, Zalando, Otto und Alibaba haben diese Vermarktungspotenziale längst auf dem Zettel Es wird deutlich mehr Geld in diese Marktplätze fließen, da immer mehr Nutzer (mehr als 50% bei Amazon) nicht nur nach Produkten suchen, sondern in den meisten Fällen über kurz oder lang auch kaufen wollen!

Platzierung, Budgets und Aufwände zur Erstellung von Anzeigen sind auf Marktplätzen deutlich Sales-näher als in anderen Kanälen oder auf anderen Plattformen. Gerade die logistischen Aspekte von Marktplatzbetreibern (Verfügbarkeit, Terminlieferung, Versandkosten, Sonderkunden-Vorteile etc.) werden von vielen Käufern als hoch kaufrelevant eingestuft – neben der Vergleichbarkeit von Preisen oder abgestimmten, angrenzenden Produktsortimenten.“

    2. Was ändert sich in Bezug auf die Strategien?

Zur effektiven Ansprache von Kunden, die sich am Ende des Customer Decision Funnels befinden, muss neben Performance Marketing in Suchmaschinen auch zwingend der Kontakt auf Marktplätzen gesucht werden. Insbesondere der Einsatz von Nutzerdaten auf den zusammengefassten Retail Media-Plattformen, ermöglicht eine noch effizientere Ausspielung der unterschiedlichen Werbeformate. Darüber hinaus sollte auch der werbliche Effekt von Markenbotschaften, über solche Plattformen hinausgehend, nicht vernachlässigt werden, ungeachtet der Fokussierung auf Conversions und Abverkauf. Mit ihren tlw. sehr hohen Reichweiten und unmittelbaren Platzierung im Wettbewerbsumfeld, ermöglicht Retail Media viele Optionen, um über die reine Optimierung der Kosten-Umsatz-Relation (KUR) hinaus, additiven Umsatz zu generieren.

   3. Was lässt sich über das Spendingverhalten der Kunden sagen – wo wurde erhöht und wo reduziert?

Laut jüngster eMarketer Studie werden sich die Spendings in den USA in den nächsten zwei Jahren auf Amazon nahezu verdoppeln – vor allem zu Lasten von Google und Facebook. Die übrigen Kanäle und Plattformen entwickeln sich aber stabil. Eine spannende, neuere Entwicklung werden die aus dem Boden sprießenden Marktplätze darstellen, die Werbekunden noch mehr Platzierungs- und/oder Kooperationsmöglichkeiten geben und, strategisch richtig gewählt, mindestens eine thematisch relevante Alternative zu Amazon oder Preisvergleichern darstellen.

Dieser Artikel erschien zuerst bei Internet World.

SEO News

Irgendwie wird man ja dieser Tage den Verdacht nicht los, dass die Dinge ins Rutschen geraten sind. Leider können wir nicht für viel mehr Stabilität sorgen – denn es geht um Veränderung. Ob das Internet, wie wir es kennen, in zehn Jahren überhaupt noch existiert und was sich Google für die kommenden 20 Jahre vorgenommen hat, das erfahren Sie in den SEO-News für den Monat Oktober.

1) Schöne neue Google-Welt

Runde Geburtstage sind ein willkommener Anlass, um Bilanz zu ziehen und nach vorne zu schauen. Nicht anders geht es Unternehmen und Institutionen. Nun feiert also die Suchmaschine Google ihren 20. Geburtstag und in aller Konsequenz hat sich der erst vor wenigen Monaten ins Amt beförderte Leiter der Abteilung Search, Ben Gomes, in einem Blogbeitrag an einer großen Erzählung versucht. Gomes spannt den Bogen von seiner Kindheit in Indien, als sein einziger Zugang zu Informationen eine öffentliche Bibliothek der längst verschwunden Kolonialmacht Großbritannien war, zur Suchmaschine der Gegenwart. Personalisierung, Automatisierung und Relevanz sind laut Gomes die Eckpfeiler eines Qualitätsprodukts, welches ihm zufolge noch immer der ursprünglichen Vision folgt: „Die Informationen der Welt zu organisieren und für alle zu jeder Zeit zugänglich und nutzbar zu machen“. Ob dieses Ziel global gesehen gerade auf dem Altar der Verhältnismäßigkeit geopfert wird? Auf diese Frage und die Doppelmoral im Umgang mit China gehen wir weiter unten in diesen SEO-News nochmal ein.

Interessant für die tägliche SEO-Arbeit ist aber zunächst einmal ein Paradigmenwechsel, den Gomes als wegweisend für die kommenden 20 Jahre von Google ansieht. Grundsätzlich bestätigt der Search-Chef die Vision einer unsichtbaren und allgegenwärtigen Orientierungs-, Lösungs- und Komfortmaschine. Der Wandel zu dieser allgegenwertigen Dienstleistung soll laut Google durch drei fundamentale Veränderungsprozesse beschritten werden. Zunächst geht es um eine noch stärkere Personalisierung. Auf dieser Ebene will Google versuchen, sich vom situationsgetriebenen Antwortgeber zum ständigen Begleiter zu mausern. Wiederkehrende Informationsdefizite und laufende Rechercheprojekte der Nutzer sollen laut Gomes erkannt, aufgegriffen und bedient werden. Erreicht werden soll dies vor allem mit einer Neuausrichtung der User Experience auf der Google-Ergebnisseite. Hier werden sich schon in naher Zukunft allerlei personalisierte Elemente finden, die Nutzern helfen sollen, ihre Reise durchs unendliche Informationsuniversum effizienter zu gestalten. Das der Nutzer sich in diesem Prozess nicht nur selbst kennenlernt, sondern vor allem die Suchmaschine den Nutzer, das versteht sich von selbst.
Bevor aber Kritik aufkommt, schnell weiter zum zweiten Paradigmenwechsel: Antwort vor Frage.
Google hat sich vorgenommen, die für den individuellen Anwender relevanten Informationen zu identifizieren und aufzubereiten, noch bevor dieser überhaupt eine Suchanfrage formuliert hat. Der Schlüssel ist hier technologischer Natur. Nach „Künstlicher Intelligenz“ und „Deep Learning“ soll vor allem eine Technik namens „Neural Matching“ helfen: Sie verknüpft die artikulierte Repräsentation durch Text, Sprache oder Bild mit dem jeweils übergeordneten Objekt oder Konzept. Dies stellt die Fortführung des Konzepts der Semantischen Suche und der Entitäten mit neuen technologischen Konzepten dar und ist aus Unternehmenssicht mehr als konsequent.

Die dritte Säule der Veränderung soll eine stärkere Öffnung der Suchsysteme für visuelle Informationen sein. Das Visual Search ein großes Potential für Nutzer und Wertbetreibende birgt, haben wir an diese Stelle schon mehrfach beschrieben. Google lässt sofort Taten folgen und stellt eine komplette Überarbeitung seiner Bildersuche, sowie die Integration seiner KI-getriebenen Bilderkennungstechnologie „Lens“ in die neue Generation der hauseigenen „Pixel“-Smartphones vor. Interessant an der Google-Jubiläumsschrift ist vor allem, was nicht erwähnt wird: Der Sprachassistent Google Home. Es ist ein gutes Zeichen, dass sich Google trotz aller Marktzwänge nicht von seiner technologischen DNA abbringen und in eine Konkurrenz zum Voice-Marktführer Amazon drängen lässt. Das Thema Voice wird die Suchwelt, entgegen dem veröffentlichten Hype, ganz sicher nicht aus den Fugen heben.

2) Das Ende der vernetzten Welt

Ach, wie doch alles zusammenhängt: Das Individuum, die Welt, die Technologie und die Demokratie. Immer mehr Aspekte unserer Existenz werden digitalisiert oder über digitale Kanäle vermittelt. Bei diesem Prozess kommt es immer wieder zu Verzerrungen. Als Taktgeber dieser Disruption agieren die bekannten Tech-Konzerne mit ihren Plattformen. Möglicherweise ist es kein großer Schritt mehr, bis sich Facebook, Amazon oder Google als die quasi-institutionalisierten Eckpfeiler unseres gesellschaftlichen und wirtschaftlichen Systems etablieren können. Schon heute übertrifft die reale Gestaltungskraft dieser Unternehmen oftmals die Leistungsfähigkeit bestehender, staatlicher Regelwerke. Und Suchmaschinen stehen als Mensch-Maschine-Schnittstelle und Vermittlungsplattform im Zentrum dieser Entwicklung. Die relevanteste Shopping-Suchmaschine Amazon verändert mit ihrem radikalen Umbruch des Einzelhandels beispielsweise nicht nur unser persönliches Konsumverhalten, sondern auch die Erscheinung unserer Städte und Landschaften. Der Bequemlichkeit des Konsumenten folgen leerstehende Geschäfte in den Innenstädten und kilometerlange, gesichtslose Logistik-Laderampen in der Provinz. Währenddessen hat der globale Populismus geschickt soziale und informationelle Suchsysteme genutzt, um seine Botschaften passgenau zu platzieren und zu verstärken. Facebook und Google haben mit ihren Diensten zumindest geholfen, die Mehrheitsverhältnisse in den größten Demokratien der Welt binnen kürzester Zeit auf den Kopf zu stellen. Aus einem Selbstverständnis als reine Technologiefirmen weigern sich Google, Facebook und Co. allerdings bislang hartnäckig, die Verantwortung für die Konsequenzen ihres Handelns zu übernehmen. Außer öffentlichen Bußgängen und der vagen Ankündigung, man suche nach „technischen Lösungen“ zeigt man sich wenig offen dafür, die eigene Strategie den immanenten systemischen Gefahren anzupassen. Die interessante Frage lautet daher: Müssen globale Technologieunternehmen eben jene Werte von Freiheit und Demokratie repräsentieren, die das Fundament für ihren eigenen Aufstieg und Erfolg in den USA und Westeuropa gelegt haben? Oder dürfen sich Unternehmen wie Google oder Facebook je nach Marktlage flexibel zeigen und ihren technologischen Vorsprung im Zweifelsfall auch im Kontext von Zensur und Repression ausspielen? Aktuell lässt sich der Zustand dieser Debatte an Googles Projekt „Dragonfly“ ablesen. Da Mountain View bislang die Zensur seiner Produktinhalte verweigert hat, blieb dem globalen Marktführer ausgerechnet der Zugang zum weltweit größten und am stärksten wachsenden Markt verwehrt. Die Volksrepublik China musste und konnte gut damit leben, dass Google im Jahre 2010 sämtliche Aktivitäten im Land eingestellt hatte. Man kam am Gelben Fluss auch sehr gut ohne Konkurrenz für die eigenen Flaggschiffe Baidu, Tencent und Alibaba aus. Laut übereinstimmenden Medienberichten arbeitet Google nun seit mehreren Monaten daran, sein Engagement im Reich der Mitte neu zu starten, mit dem Segen der Regierung in Peking. Unter dem Arbeitstitel „Dragonfly“ plant Google den Berichten zufolge die Einführung einer Search- und einer MapsApp. In enger Zusammenarbeit mit den chinesischen Behörden sollen diese Apps unter staatlicher Kontrolle und Zensur den Weg bereiten für zukünftige, breiter angelegte Aktivitäten aus Mountain View in der Volksrepublik, hieß es weiter. Man zeigt also Wohlverhalten, wenn die Aussicht auf Profit stimmt. Man kann dieses Vorgehen als pragmatisch und wirtschaftlich gegeben bewerten. Vor allem vor dem Hintergrund, dass die chinesischen Behörden dem Konkurrenten Facebook eine bereits erteilte Firmenzulassung nach nur einem Tag wieder entzogen haben. Ungezügelte Disruption im Westen und kooperative Unterordnung in Asien, der ehemalige Google CEO Eric Schmidt hat die Konsequenzen dieser Doppelmoral vor wenigen Tagen in San Francisco skizziert. Schmidt sagte dem US-Nachrichtensender CNBC, er rechne damit, dass sich das Internet innerhalb des kommenden Jahrzehnts teilen werde. Er erwarte eine Spaltung in ein chinesisch dominiertes und ein US-dominiertes Internet bis spätestens 2028. Offenbar hat man sich im Silicon Valley von der Vision einer globalen und offenen Vernetzung der Welt bereits verabschiedet. Die Konsequenzen dieser Entwicklung wird jedoch jeder Einzelne zu spüren bekommen.

 

Dieser Beitrag erschien zuerst bei Internet World Business.

SEO News

Jetzt haben wir Dürre und Hitze überstanden, nur um uns mit Oktoberfest und Halloween in den nächsten Exzess zu stürzen. Um nicht ganz den Halt zu verlieren, widmen wir uns in den aktuellen SEO-News für den Monat September der kritischen Reflektion von Superlativen, No-Click-Suchen und dem Verkaufstalent von Amazons Alexa.

1) Die besten SEO News der Branche

Von Allem nur das Beste! Der Superlativ hat der Werbung seinen Stempel aufgedrückt, wie kaum eine andere grammatikalische Konstruktion. Zwar streitet die Werbewirkungsforschung seit vielen Jahrzehnten, ob sich die potentielle Kundschaft von einem schlichtweg behaupteten Superlativ überhaupt beeindrucken lässt, im Suchmaschinenmarketing kann man die Frage jedoch relativ leicht beantworten. Laut einer aktuellen Google-Studie für den US-Markt, sind mobile Suchen nach dem Attribut „Best“ im Verlauf der vergangenen zwei Jahre um rund 80 Prozent gestiegen. Dies belegt: Ein Konsumenteninteresse nach den maximal besten Produkten jeglicher Kategorie ist durchaus vorhanden. Doch was ist die Motivation hinter dieser Suche, bei der man als Nutzer erwarten kann, dass ein Großteil der Suchergebnistreffer von SEOs auf genau diesen Begriff hin optimiert wurde? Sara Kleinberg, Googles Head of Ads Research and Insights, erklärt in ihrem Beitrag zur Studie, dass die Menschen mit dem Adjektiv gezielt individuelle Lösungen für allgemeine Bedürfnisse, wie das „beste Restaurant“ oder die „beste Tagescreme“ suchen. Und das, obwohl gerade auf der individuellen Ebene die Definition eines Superlativs für jeden User eine ganz persönliche Angelegenheit ist. Laut Google verbirgt sich hinter den zunehmenden Superlativ-Suchanfragen die Intention, eigene Entscheidungen in einer komplexer werdenden Welt zunehmend abzusichern. „Wir sehen, dass die Menschen immer mehr und längere Recherchen für große aber auch kleine Kaufentscheidungen durchführen“, so Kleinberg. Im Kern gehe es den Menschen darum sicherzustellen, dass sie den Kauf später nicht bereuen. In Umfragen habe man festgestellt, dass Nutzer gezielt nach Bestenlisten von Produktkategorien suchten, um die Auswahl potentieller Produkte oder Dienstleistungen einzugrenzen. Vom Suchattribut „beste“ erwarten sich Nutzer laut Kleinberg eine Art kollektiv legitimierte Vorauswahl. Gerade bei Themenbereichen, in denen man sich nicht auskenne, erwarte man den schnellsten Zugang zu aggregierten Informationen und Bewertungen, so Google. Für den Werbetreibenden bedeutet diese Entwicklung, dass eine Optimierung ausgewählter Produktseiten auf den Begriff „(die/der/das) beste“ eine echte Option ist, um potentielle Käufer in der Kaufentscheidungsphase, aber auch mit Aftersales-Themen zu erreichen. Dies kann entscheidend auf eine positive Markenwahrnehmung beim Endkunden einzahlen, stärkt aber auch die Autorität eines Markenbegriffs im Kontext von Suchsystemen wie Google oder Bing.

2) Keine Panik: Zeitenwende im Search-Marketing

Suchmaschinenexperten können seit einiger Zeit Trends erkennen, die auf einen signifikanten Umbruch des Nutzerverhaltens in der Interaktion mit den großen Suchsystemen hindeuten. Für SEOs bedeutet dieser Wandel, dass man eingefahrene Muster und Strategien hinterfragen, sowie Zielsetzung als auch Methoden der eigenen Arbeit anpassen muss. Such-Guru Rand Fishkin hat die Entwicklung Blogbeitrag zusammengefasst. Laut Fishkin lassen sich anhand von Clickstream Daten, also Referrer-Daten auf Server-Ebene und anonymisierten Klickprotokollen aus Webapplikationen, vier zentrale Beobachtungen ableiten:

  1. Die Zahl der durchgeführten Suchen in allen Systemen und Plattformen stagniert seit geraumer Zeit.
  2. Die Klickraten auf organischen Suchergebnissen gehen mit der Ausdehnung bezahlter Positionen in den Suchergebnissen zurück. Hier ist insbesondere Mobile betroffen.
  3. Immer mehr Suchanfragen werden direkt in Googles oder Bings Suchergebnisseiten beantwortet. Ursache ist die signifikante Zunahme von Featured Snippets und Instant Answers sowohl auf dem Desktop also auch auf mobilen Endgeräten.
    Alle drei Phänomene verursachen so genannte „No-Click-Searches“, also Impressionen in Suchergebnissen, auf die kein Klick zu einer Website mehr erfolgt.
  4. Und schließlich entsteht mit dem Erfolg der SEO-Branche auch ein zunehmender Wettbewerb im in der organischen Suche.
    Bei genauer Betrachtung muss man einschränken, dass von den genannten Phänomenen in erster Linie etablierte Websites, vor allem aus dem Bereich E-Commerce betroffen sind. Deren Inhalte sind weithin optimiert und sie dienen dank hoher Autorität als Referenz für die Featured Snippets der Suchmaschinen. Ihr transaktionales Nachfragepotential wird von neuen Kanälen wie Amazon oder Google Shopping am stärksten abgeschöpft. Neue Domains, Nischenanbieter aber auch B2B-Webseiten sind dagegen weiterhin in der Lage, direkt vom signifikanten Wachstumspotential der organischen Suche profitieren. Doch Fishkins Beobachtungen machen nachdenklich: Wenn bei stagnierendem Traffic weniger Klicks generiert werden, sinkt der ROI auf Investitionen in Suchmaschinenoptimierung. Auf der anderen Seite wird auch zukünftig kein E-Commerce-Unternehmen auf aktives Search Marketing verzichten können. Google, Bing und Co. werden auch auf absehbare Zeit die verlässlichsten Quellen für qualitativ hochwertigen, skalierbaren Traffic bleiben. Entwicklungen wie Voice Search sind hier als Risiko und Chance gleichzeitig zu bewerten. SEO-Strategien müssten sich daher mehr auf Nachfragesteigerung und Brandbuilding fokussieren, lautet das Fazit von Rand Fishkin. Das deckt sich mit den Erfahrungen aus der Praxis: Deutliche Zuwächse an Klicks und Traffic gewinnt man zunehmend außerhalt transaktionaler Suchanfragen in der Kaufanbahnung und Post-Sales-Phase. Die enge Vernetzung von bezahlter und organischer Suche wird dabei entscheidend für den Erfolg sein. Die Tage, in denen man als SEO allein mit Traffic-Zuwachs und der Steigerung von Conversions punkten konnte, scheinen endgültig gezählt. Marken- und Produktpositionierung im Hinblick auf Zielgruppenrelevanz, Informationsdichte und Usability werden hingegen immer wichtiger.

3) Alexa ist noch keine Verkaufsmaschine

Weltweit haben rund 50 Millionen Alexa-Sprachassistenten die Wohn- und Schlafzimmer im Sturm erobert. Nicht nur der Hersteller Amazon verspricht sich viel von seinem neuen Mensch-Maschine-Interface, auch Werbetreibende weltweit hoffen darauf, dass sich mit dem digitalen Assistenten und dessen unmittelbaren Verknüpfung mit der weltweit größten Verkaufsplattform, neue Impulse im E-Commerce setzen lassen. Nach Informationen des Branchenblogs „The Information“ bleibt die Realität bislang jedoch hinter den großen Erwartungen zurück. Dem Bericht zufolge haben bislang nur rund 100.000 Nutzer mit Hilfe ihres Alexa-Assistenten einen Einkauf getätigt. Das sind nur rund zwei Prozent aller Nutzer weltweit. Den Angaben zufolge haben rund eine Million Nutzer einen Bestellprozess begonnen, diesen aber vor Abschluss der Transaktion abgebrochen. Die Gründe für das vergleichsweise geringe Shoppingvolumen auf der Alexa-Plattform haben wir auch in den letzten SEO News schon ausführlich besprochen. Es bestätigt sich, dass Nutzer vor einer Kaufentscheidung umfassende Informationen über das Produkt oder die Dienstleistung recherchieren und mit Konkurrenzprodukten vergleichen. Der Trend zur Absicherung der Kaufentscheidung nimmt sogar weiter zu. Sprachassistenten wie Alexa oder Google Home sind mit ihrer Fokussierung auf Sprachausgabe bislang nicht in der Lage, dieses Informationsbedürfnis zu befriedigen. Bis zu einem echten, von Alexa vermittelten Verkaufsgespräch zwischen einem potentiellen Käufer und der Anwendung eines Händlers oder Verkäufers auf dem Sprachassistenten wird es noch ein wenig dauern. Aktuell stehen die Smart-Home Steuerung, einfache Informationsanfragen wie die Wettervorhersage und Musikdienste an erster Stelle der beliebtesten Nutzungsszenarien. Man sollte die Technologie jedoch nicht unterschätzen. Die Individualisierung der Nutzeransprache im E-Commerce wird dank Künstlicher Intelligenz und dem großen Datenschatz von Amazon und Google nicht mehr lange auf sich warten lassen. Und ordentlich menscheln kann Alexa schon heute. Wie Amazon auf der Internationalen Funkausstellung (IFA) in Berlin bekanntgab, hat die bekannteste Tochter des Hauses bereits mehr als 100 Millionen Witze erzählt und Millionen von Menschen zum Geburtstag gratuliert.

Dieser Beitrag erschien zuerst bei Internet World Business.

SEO News

Endlich Sommerloch. Doch eine künstliche Intelligenz kennt kein Hitzefrei und kann daher auch mitten im Stau am Brenner das perfekte Kindermädchen im Auto geben. Vorausgesetzt der Sprachassistent hat auch etwas zu erzählen. Genau darum geht es in unseren SEO News für den Monat August. Und natürlich darf auch das notorische Sommerlochmonster nicht fehlen.

1) Ein Sprechzettel für Google Home

Das Zwiegespräch mit der Maschine bleibt ein Thema. Nachdem wir vergangenen Monat über automatisierte Sprachbefehle des Google Assistant an die Erwerbsbevölkerung berichtet haben, gibt es aus Mountain View nun eine handfeste Erleichterung für Content Publisher auf ihrem Weg in die Welt der Sprachassistenten. Mit „Speakable“ hat Google erstmal ein semantisches Markup zur Auszeichnung von Textausschnitten zur Sprachausgabe veröffentlicht. Die Auszeichnungen wurden über die Brancheninitiative „Schema.org“ zur Verfügung gestellt und befinden sich nach Angaben des Unternehmens noch in der Beta-Phase. Mit „Speakable“ können Nachrichtenanbieter und andere Content Publisher einen kurzen und auf Sprachausgabe optimierten Abschnitt eines Textes direkt für die Nutzung durch den Google Assistant bereitstellen. Ähnlich wie ein Teaser sollte der Text maximal zwei bis drei Sätze lang sein, sodass sich für die Ausgabe beim Assistenten eine Sprechzeit von 20 bis 30 Sekunden ergibt, rät Google. Für den optimalen Einsatz solle der Inhalt des Textes das Thema informativ und in kurzen Sätzen darstellen, auch Überschriften dürften verwendet werden, hieß es weiter. Bei der Auswahl der Inhalte muss sichergestellt werden, dass keine technischen Informationen wie Bildunterschriften sowie Datums- oder Quellenangaben das Nutzererlebnis beeinträchtigen können. Der optimierte Einsatz von Markup rückt für Suchmaschinenoptimierer im Zeitalter von künstlicher Intelligenz und der Multiplikation von Ausgabeplattformen immer stärker in den Fokus. Mit Hilfe dieser standardisierten Zusatzinformationen im Quelltext kann sichergestellt werden, dass alle an Auswahl und Darstellung der Suchergebisse beteiligten Systeme die Daten zuverlässig erfassen und optimal verarbeiten können. Das „Speakable“-Feature ist zunächst nur für die englische Sprache im US-amerikanischen Markt verfügbar. Den Start in weiteren Märkten plant Google jedoch nur unter der Voraussetzung, dass „eine hinreichende Anzahl von Publishern Speakable implementieren“, so das Unternehmen. Der SEO-Branche wird die Arbeit also so schnell nicht ausgehen.

2) Mehr Möglichkeiten für Amazons Alexa

Denkt man über die Zukunft der digitalen Suche nach, so verschiebt sich der Fokus langsam von der Analyse von Anfragen und Intentionen zur Reflektion über Antworten und Ausgabesysteme. Die entscheidende Herausforderung für eine gelungene Mensch-Maschine-Kommunikation im Wechsel zwischen interaktiven Displays, augmentierter Realität und Sprachassistenten wird es sein, das bestmögliche Ergebnis für jeden Kanal bereit zu stellen. Gibt es eine Antwort, mehrere Antworten oder beginnt mit der ersten Frage sogar eine Konversation zwischen Suchsystem und Suchendem? Im Prinzip läuft es mit den virtuellen Assistenten ähnlich wie mit dem Berater im stationären Geschäft: Will man ein schnelles Ergebnis haben oder ein komplettes Verkaufsgespräch beginnen? Will der Nutzer nur in Ruhe stöbern oder benötigt er die Hilfe eines Verkäufers? Reicht eine kurze Antwort oder muss der Suchende seine Anfrage mehrfach nachspezifizieren, bis er zum passenden Ergebnis kommt? Die US-amerikanische Firma „Yext“ hat nun eine Kooperation mit Amazon vorgestellt, die es erlaubt, sogenannte NAP-Daten (Name, Adresse und Telefonnummer), sowie Öffnungszeiten lokaler Unternehmen direkt zur Verarbeitung durch den Sprachassistenten Alexa zu importieren. Das Unternehmen aus New York teilte gegenüber Journalisten jedoch mit, dass für die Zukunft eine noch tiefere Integration ihrer Schnittstelle mit Amazon Alexa geplant sei. Ob damit auch Produktdaten und -kataloge gemeint sind, blieb zunächst offen. Die Automatisierung des Datenaustauschs zwischen den Inhabern digitaler Angebote und Suchsystemen mit dem Ziel einer optimalen Nutzererfahrung am Ausgabepunkt und valider Messbarkeit des Erfolgs ist schon heute einen Schlüssel zum Erfolg im digitalen Retailgeschäft. Für Googles Shoppingfunktion PLA (Product Listing Ads) oder auch den Einsatz auf Preissuchmaschinen und Affiliate Netzwerken ist die Bereitstellung und Optimierung von Datenfeeds ein zentraler Mechanismus. In der Amazon-Welt entstehen die dafür notwendigen Schnittstellen und Tools erst nach und nach. Dabei liegt genau hier das derzeit größte Potential, um vom Wachstum der digitalen Sprachassistenten zu profitieren.

3) Ein SEO Kaninchen auf SERP-Raubzug

Erinnern Sie sich noch Lotti die schnappende Schildkröte, Yvonne die flüchtige Kuh oder den Brillenkaiman Sammy? Wie gut, dass es Suchmaschinen gibt, die einem die Möglichkeit geben, das Schicksal der unzähligen Sommerlochtiere noch einmal zu erleben. Und das viele Jahrzehnte nachdem wir gebannt mit ihnen durch die mehr oder weniger nachrichtenlose Ferienzeit gefiebert haben. Neu aber ist, dass ein virtuelles Kaninchen die weltgrößte Suchmaschine Google in die Knie zwingt. Publiziert wurde die Geschichte unter dem Namen „Rabbit Bug“ vom spanischen Programmiererkollektiv „La SEOMafia“. Nach deren Angaben handelt es sich um das gezielte, manipulative Einfügen eines Tabellenformats in den Quelltext einer Website. Der Bug bestehe darin, dass Google beim Ausspielen des Suchergebnisses diese Formatierung nicht interpretieren könne, was zum plötzlichen Abbruch der Suchergebnisanzeige nach dem manipulierten Eintrag führe, hieß es. Dieser Fehler konnte auf einer rankenden Seite für das Keyword „Conejos“ (spanisch für Kaninchen) implementiert werden, sodass als Ergebnis nur der eine, manipulierte Suchtreffer angezeigt wurde. Man mag sich gar nicht vorstellen, welch traumhafte Klickraten sich auf diese Weise erzielen lassen könnten. Es ist auch in der inzwischen recht erwachsenen SEO-Branche immer wieder eine Freude zu sehen, wie ein paar kreative Geister den Laden ein wenig aufmischen. Letztendlich wurde sogar Googles SEO-Verbindungsoffizier John Müller auf den Rabbit Bug aufmerksam und meldete auf Twitter augenzwinkernd, er habe die Sichtung des Kaninchens intern weitergegeben. Dem Kaninchen droht nun das Schicksal aller Sommerlochtierchen. Am Ende wurden die meisten eingefangen oder erlegt.

Dieser Beitrag erschien zuerst bei Internet World Business.

SEO News

Der Sommer ist nun endgültig da, die Nächte sind lang und das gibt uns genug Zeit dafür, uns mit den grundsätzlichen Fragen des Lebens zu beschäftigen. Daher geht es in den SEO News des Monats Juli nicht nur um bevorstehende Google-Updates sondern auch um das Quiz der Erkenntnis und die zukünftige Hackordnung auf unserem Planeten.

1) Schnell und sicher zu guten Rankings

Wieder einmal ist Google am Komfort und der Sicherheit der Internetnutzer gelegen. Die Firma, welche nach eigenen Angaben niemals böse sein will, bringt im Juli gleich zwei Updates auf die Straße, von deren Auswirkungen Internetnutzer und Webseitenbetreiber gleichermaßen profitieren sollen. Beide Änderungen sind seit langem angekündigt und in Teilen bereits umgesetzt. In einem ersten Schritt wird die Ladegeschwindigkeit von mobilen Seiten zum offiziellen Rankingfaktor. Bereits in den ersten zehn Grundregeln von Google zur Qualität einer Seite wurde die Ladegeschwindigkeit als Qualitätskriterium gelistet. Es hat nur sehr lange gedauert, bis daraus nun wirklich ein Ranking Faktor wurde. Damals war der Schritt auf Grundlage von Studien erfolgt, wonach sich langsame Webseiten direkt auf deren Clickthrough- und Konversionsraten auswirken. Auch auf den Veranstaltungen der Search-Konferenzsaison 2018 wurde das Argument der Geschwindigkeit von Google-Vertretern wie ein Mantra wiederholt. Mit der sukzessiven Einführung des Mobile First Index (wir berichteten), wird dieser Schritt nun auch für den mobilen Bereich offiziell nachgeholt. Webseitenbetreiber sollten ihre Domains mit den hauseigenen Tools „Page Speed Report“ und „LightHouse“ analysieren und entsprechende Maßnahmen für mobile Webseiten umsetzen, so Google. Neben dem Speed Update macht Google im Juli auch Ernst mit seiner Ankündigung, Webseiten im Chrome Browser als unsicher („non-secure“) zu markieren, welche zum Stichtag nicht auf das verschlüsselte HTTPS-Protokoll umgestellt wurden. Auch dieser Schritt markiert den Endpunkt einer Kampagne, die bereits vor mehr als zwei Jahren begonnen hatte. 2016 hatte Google bereits mit einem kleinen Ranking-Boost für gesicherte Webseiten mit der Aufklärungsarbeit begonnen. Diese war nach eigenen Angaben von Erfolg gekrönt. So wird nach Angaben des Unternehmens mittlerweile rund 68 Prozent des gesamten Traffics im Chrome Browser auf Android und Windows über HTTPS vermittelt. Ein Wert, welcher sicher noch steigerungsfähig ist. Dass Google seine Marktmacht zur Umsetzung technischer Standards mit dem Ziel der Verbesserung der Nutzererfahrung einsetzt ist ein richtiger Schritt. Erst vor dem Hintergrund drohender Traffic- oder Umsatzverluste war so manches Unternehmen bereit, in schnellere Technologie oder sichere Lizenzen zu investieren. Um für zukünftige Entwicklungen gerüstet zu sein, sollte man neue Technologien wie AMP (Accelerated Mobile Pages), mobile Checkoutprozesse, oder Frameworks mit Prerendering zum Vorladen von Inhalten im Auge behalten. Diese Neuerungen können dabei helfen, vor allem die Wahrnehmung der Ladegeschwindigkeit beim User über alle Plattformen hinweg zu verbessern.

2) Das ganze Leben ist ein Quiz

Jetzt wird es kompliziert für alle, die in Mathematik nicht aufgepasst haben. Die späte Erkenntnis, in der Schule zwischen Integralrechnung und Stochastik irgendwann den Faden verloren zu haben, rächt sich im Zeitalter der Algorithmen. Erst recht, für Menschen im Berufsfeld des Online Marketings. Banal gesagt ist so ein Algorithmus lediglich eine wohl geordnete Kette von Entscheidungen zur strukturierten Lösung eines Problems. Die entscheidende Neuerung der letzten Jahre ist das Erscheinen der künstlichen Intelligenz und des Maschinellen Lernens. Heutzutage werden die einzelnen Glieder der Algorithmuskette nicht mehr von Menschen, sondern von Programmen zusammengefügt. Stellt man einer Suchmaschine eine Frage, so wird diese Information entgegengenommen, mittels semantischer Analysen ihr zentrales Informationsobjekt (Entität) und ihre Intention ermittelt, sowie das empirisch passendste Ergebnis (Ranking) im richtigen Kontext (z.B. lokal und mobil) zurückgegeben. Eine Gruppe von sieben Google-Ingenieuren hat auf der ICLR-Konferenz in Vancouver nun ein Forschungsprojekt vorgestellt, in welchem das Frage-Antwort-Prinzip auf den Kopf gestellt wird. Die Forscher nutzten dafür Aufgaben aus der beliebten US-Quizshow „Jeopardy“. In dieser Show müssen die Kandidaten seit 1964 die richtigen Fragen auf komplexe Antworten finden. In ihrer Studie nutzten die Google-Ingenieure dem Umstand, dass bei Jeopardy-Aufgaben Informationsdefizite und Unsicherheiten bestehen, welche erst durch die Formulierung der passenden Frage aufgelöst werden können. Die Frage muss also so lange angepasst werden, bis die vorgegebenen Informationen in ihrer Kombination und ihrem Kontext Sinn machen. Das menschliche Gehirn leistet diese Arbeit in Sekundenschnelle und kann dabei auf einen umfangreichen Satz an intellektuellen und sozialen Hilfsmitteln zurückgreifen. Stellt man aber einer Suchmaschine eine Jeopardy-Frage, wie beispielsweise: „Wie die Bibel war diese islamische Schrift zwischen 1926 und 1956 in der Sowjetunion verboten“, so erhält man keine passende Antwort. Google liefert einen Wikipedia Eintrag über die Sowjetunion, hat also diesen Suchbegriff als Entität, als zentrales Informationsobjekt erkannt, und greift damit zu kurz. Microsofts Suchmaschine Bing kommt der aus menschlicher Sicht naheliegenden Antwort „Was ist der Koran?“ ein wenig näher, kann aber auch kein zufriedenstellendes Ergebnis liefern. An dem kleinen Trick mit den Jeopoardy-Fragen erkennt man, was den Suchmaschinen bis heute die größten Kopfschmerzen bereitet, obwohl es als Qualitätsmerkmal moderner Suchsysteme vermarktet wird: Das präzise Erkennen der Intention des Suchenden. Was SEOs in Unternehmen und Agenturen aufwändig erarbeiten, soll seitens der Suchmaschinen zuverlässig automatisiert werden. Zu diesem Zweck wurde von den Google-Forschern ein System maschinellen Lernens entwickelt, welches mögliche Antworten auf die Jeopardy-Frage in vielen unterschiedlichen Versionen reformuliert, bevor diese an den eigentlichen Kernalgoritmus weitergegeben werden. Die erhaltenen Antworten werden in einem zweiten Schritt aggregiert und mit den Ausgangsfragen abgeglichen. Erst nach diesen zwei Zwischenschritten wird ein Ergebnis präsentiert. Der selbstlernende Algorithmus erhielt im Anschluss die Auflösung, ob seine Antwort richtig oder falsch war. Mit dieser Methode und einem großen Datensatz wurde das KI-System in der Folge trainiert. Das Ergebnis der Trainings war, dass das System gelernt hatte selbstständig vielschichtige Fragen zu bekannten Antworten zu ERSTELLEN. Dieser Meilenstein geht weit darüber hinaus, die durch den Einfluss von Voice und Visual Search immer komplexeren Suchanfragen nur zu VERSTEHEN. Obwohl diese Studie von Google durchgeführt wurde, kann man davon ausgehen, dass auch Microsoft, Yandex und Baidu an entsprechenden Technologien arbeiten, die Erkenntnis der Dinge weiter zu automatisieren und in nicht allzu ferner Zukunft komplexe Inhalte automatisiert und individualisiert zu erstellen. Welche Auswirkungen dies für die Vielfalt und Transparenz im Netz hat, können wir zum jetzigen Zeitpunkt noch gar nicht abschätzen.

3) Google Assistant gibt den Ton an

Passend zum Thema der automatischen Inhaltserstellung gibt es auch noch ein Update zu Googles unheimlicher Präsentation zweier Telefonate zwischen dem Google Assistant und der arbeitenden Bevölkerung. Im Mai hatte der Suchmaschinenriese aus Mountain View auf seiner Entwicklerkonferenz „IO“ ein Video präsentiert, ein welchem eine KI-Erweiterung des Google Assistant namens „Duplex“ selbstständig und menschliches Sprachverhalten perfekt imitierend, Reservierungen in einem Friseursalon und einem Restaurant beauftragt hat. Die menschlichen Gesprächspartner waren während der Unterhaltung offensichtlich nicht in der Lage zu erkennen, dass sie in der Ausübung ihrer Tätigkeit gerade mit einer Maschine interagierten. Die enge Zusammenarbeit mit Robotern und künstlichen Systemen ist die für Industriearbeiter der westlichen Welt schon lange nichts Neues mehr. Nun kommt diese Entwicklung aber auch in der Dienstleistungsgesellschaft und damit in unserem Alltag an. Das Google-Szenario wirkte auf den ersten Blick verblüffend und überzeugend. Mit dem leichten Schauder des Unheimlichen stellten sich aber zugleich auch einige drängende Fragen. Vor allem der Umstand, dass sich Duplex gegenüber den menschlichen Gesprächspartnern nicht als Maschine identifiziert hatte, wurde kontrovers diskutiert. Nun hat Google reagiert und ein neues Video veröffentlicht, in dem sich der Google Assistant zu Beginn des Gesprächs zu erkennen gibt, und ähnlich wie eine Bandansage im Callcenter die Aufzeichnung des Telefonats zur Qualitätssicherung ankündigt. Mit einigem Abstand aber muss man sich fragen, ob dieses Entgegenkommen der künstlichen Intelligenz nicht völlig überflüssig ist. Den Anweisungen des Google Assistant folgt der Restaurantmitarbeiter im Video dann auch brav, ganz als ob er mit einem Menschen sprechen würde, es besteht kein Unterschied. Im Search Marketing versuchen wir, die Intentionen von Zielgruppen und Konsumenten in den von Suchmaschinen erzeugten Inhalten (Ergebnisseiten) im Sinne des eigenen Interesses zu reflektieren. Im Voice Search kommandieren wir eine Maschine mit Befehlen und werden erst einigen Jahren erfahren, wie uns das verändern wird. Und im Google-Zukunftsszenario einer unsichtbaren, allgegenwärtigen Orientierungs-, Lösungs- und Komfortmaschinerie ist der Mensch Objekt und Subjekt der Technologie zugleich. Mit seinen Daten hat er das System geschaffen, gefüttert und trainiert, dann durfte er sich kurz als dessen Herrscher fühlen. Ob wir jedoch noch merken werden, wann es kippt, ob wir den Zeitpunkt der Auslieferung erkennen werden, dass kann und muss nach Lage der Dinge ernsthaft bezweifelt werden.

Dieser Beitrag erschien zuerst bei Internet World Business.

SEO News

Wer denkt, die SEO-News im Juni würden sich nur mit den Auswirkungen von Googles Mobile Index beschäftigen, der irrt. Hier warten wir lieber noch ein wenig ab. Zum Start des Sommers beschäftigen wir uns daher mit der Rückkehr eines mächtigen Tools, den Voraussetzungen für gute SEO-Arbeit und einer Branche in der Fake-News-Falle.

1) Die Rückkehr der Google Bildersuche

Der Bildersturm ist abgeblasen. Nach einer langen juristischen Auseinandersetzung mit der Bildagentur Getty Images hat die Suchmaschine Google entscheidende Veränderungen an seiner populären Bildersuche vorgenommen. Wie positiv sich diese Änderungen auf Websitebetreiber ausgewirkt haben, zeigt eine Studie des amerikanischen Search-Experten Anthony Mueller. Doch von Anfang an. Im Januar 2013 änderte Google die Funktionalität seiner Bildersuche dahingehend, dass sich jeder Nutzer die gefundene Bilddatei direkt anschauen und herunterladen konnte. Entscheidend war dabei, dass die Datei auf Servern der Suchmaschine zwischengespeichert wurde und der Nutzer mit Hilfe des „View Image“-Buttons auf diese Datei zugreifen konnten. Als Konsequenz kam es kaum mehr zu Klicks auf die Seiten von Inhaltsanbietern und Rechteinhabern, der organische Traffic aus der Bildersuche brach teilweise um mehr als 70 Prozent ein. Besonders kritisch war diese Entwicklung für Webseiten, die sich wie beispielsweise bei Mode- oder Möbelhändlern auf das visuell geprägte Feld der Inspiration fokussieren, und mit großem Aufwand zur eine Optimierung ihrer Bildinhalte betrieben hatten. Gerade für E-Commerce-Betreiber brach nicht nur der Traffic sondern auch der Umsatz ein. Drei Jahre später reichte die traditionsreiche Bildagentur Getty Images eine Wettbewerbsklage bei der Europäischen Kommission ein, „Old Europe“ sollte es mal wieder regeln, so schien es. Das Vorgehen von Getty sollte von Erfolg gekrönt sein und so verschwand der „View Image“-Button Anfang 2018 aus der Google Bildersuche. Der interessierte Nutzer muss also die Originalseite besuchen, um auf die Originaldatei zuzugreifen. Aus diesem Grund hat der gut vernetzte Search-Experte Mueller bei rund 60 großen Unternehmen weltweit angefragt, ob sie ein knappes halbes Jahr nach der Umstellung bereits Auswirkungen in ihrem Website-Traffic erkennen können. Das Ergebnis: Im Schnitt sind die Besuche aus der Google-Bildersuche um 37 Prozent gestiegen. Während der Datenlage zufolge Impressions und Rankingpositionen in der Bildersuche relativ stabil geblieben sind, hat sich der Clickthrough bei allen befragten Unternehmen dramatisch erhöht. Auch Conversions aus der Bildersuche sind laut der Studie um rund 10 Prozent gestiegen. Natürlich kann der geschulte User noch immer auf andere Suchmaschinen wie Microsofts „Bing“ oder „Duck Duck Go“ ausweichen. Beide Suchmaschinen hatten den direkten Zugriff auf Bilddateien nie abgeschafft. Aufgrund von Googles Marktmacht sei aber jetzt genau der richtige Zeitpunkt, die Optimierung von Bildinhalten neu zu priorisieren um das neue Wachstumspotential auszuschöpfen, so der Autor. Derzeit stellt die Textsuche noch die dominante Methode zur Informationsbeschaffung dar. Insbesondere im Einzelhandel aber zeichnet sich ein Paradigmenwechsel zur visuellen Suche ab.

2) Erfolgreicher Arbeiten mit smarten SEO-Zielen

Dank des Internets sind Kontakte und Wirkung von Werbung heute so messbar wie nie zuvor in der Geschichte. Die digitale Revolution der Werbung steckt zwar nicht mehr in den Kinderschuhen, am Ende ihrer Entwicklung ist sie aber auch noch lange nicht angekommen. Für digitale Kampagnen ist es ein Leichtes, passende Kennzahlen zur Wirkungs- und Erfolgsmessung zu definieren und technisch keine besondere Herausforderung, entsprechende Kampagnendaten auch zu erhalten. Im Bereich der Suchmaschinenoptimierung stellt sich die Definition von Zielen nicht ganz so einfach dar. So bietet Google für die organische Suche schon seit vielen Jahren keine Performancedaten auf Keyword-Ebene mehr an. Marketingverantwortliche und SEO-Experten stehen daher immer wieder vor der Herausforderung, ein SEO KPI-Konzept zu entwerfen, welches den Optimierungserfolg sichtbar macht und damit vor allem das Buy-In der Budgetverantwortlichen eines Unternehmens für professionelle SEO-Arbeit sichert. Search-Guru Rand Fishkin hat daher ein paar Regeln zur Zielformulierung von SEO-Maßnahmen zusammengestellt, die für Werbetreibende und Unternehmen gleichermaßen interessant sind. Der Kernsatz ist laut Fishkin, dass man die Unternehmensziele an den Anfang eines SEO-Konzeptes stellen muss. Diese übergeordneten, meist monetären Erwartungen bricht man in einem zweiten Schritt auf Marketingziele herunter, z.B. indem man Anforderungen an unterschiedliche Kommunikationskanäle entlang der Customer Journey definiert. Erst an diesem Punkt kommen eigentliche SEO-Ziele ins Blickfeld, die sich in einem letzten Schritt mit Hilfe von nur sechs Metriken abbilden lassen. Diese KPIs sind Rankingpositionen, Besucher aus der organischen Suche (unterteilt in Markensuchen und generische Suchintentionen), die Repräsentation des Unternehmens mit verschiedenen Treffern auf der Ergebnisseite eines Suchbegriffs, Suchvolumen, Linkqualität- und –anzahl, sowie direkter Traffic über Linkreferrals. Sein Konzept testet Fishkin an zwei unterschiedlichen Kundenbeispielen durch. Ein reiner online Schuhversender hat beispielsweise ein recht simples Unternehmensziel, z.B. die Umsätze in der Kernzielgruppe um 30 Prozent zu steigern. Im Marketingplan würde dann festgelegt, dieses Wachstum aufgrund der hohen Wahrscheinlichkeit von Conversions am Ende der Customer Journey zu generieren, so Fishkin. Ein daraus abgeleitetes SEO-Ziel kann als Wachstum des organischen Traffic um 70 Prozent definiert werden. Um dieses Ziel zu erreichen werden dann umsetzbare SEO-Maßnahmen ergriffen und durchgeführt. Dagegen stellt Fishkin ein Beispiel für lokales SEO ohne einen Bezug zu E-Commerce, in welchem ein Theater mehr Besucher aus dem nahen Umland anziehen möchte. In einem Marketingplan würde man nun die Regionen definieren, in denen man das Zielpublikum ansprechen möchte. Der SEO-Plan würde in diesem Fall den Aufbau von lokalen Landingpages, die Nutzung von Theaterkritiken und Blogs sowie weitere inhaltlich und lokal getriebene Maßnahmen umfassen. Der Vorteil einer solchen Top-Down Herangehensweise liegt in der Ausrichtung einzelner, oft schwer fassbarerer SEO-Maßnahmen an den großen Richtlinien im Unternehmen. Mehr Wertschätzung und schnellere Umsetzung für die mühevolle SEO-Arbeit seien der Lohn, so Fishkin.

3) Fake News bedrohen die Existenz der SEO-Branche

Haben Sie jetzt auch einen Schreck bekommen beim Lesen der Überschrift? Gut, denn ihre Aufmerksamkeit zu erlangen, war genau das Ziel der plakativ überspitzten Formulierung. Gewiss, solche reißerischen Überschriften liest man auf SEO-Blogs selten, aber die Konkurrenz der Informationen macht auch vor der Search-Branche nicht halt. Obwohl im Jahresturnus totgesagt („SEO is dead!“), entwickeln sich Angebot und Nachfrage nach Optimierungsdienstleistungen seit über 15 Jahren stetig positiv. Einen großen Anteil daran hat sicherlich die intensive Veröffentlichungstätigkeit der Protagonisten. Aus dem Hobby Einzelner entwickelten sich mit der Zeit zuerst spezialisierte Agenturen, bevor die Suchmaschinenoptimierung dann ihren Weg auch in Inhouse-Teams von Unternehmen fand. Auf diesem Weg wurde permanent getestet, ausprobiert und verglichen, das SEO-Wissen konstant erweitert, und vor allem wurde darüber geschrieben. SEO-Blogs dienen also zum einen als unerschöpfliche Quelle für Informationen, quasi ein globaler SEO-Erfahrungsschatz, die Basis des Erfolgs. Zum anderen sind Artikel zu Search-Themen auch Eigenwerbung und Kundenakquise für Dienstleister und Agenturen. John Müller, bekannter Senior Webmaster Trends Analyst bei Google, hat nun Kritik an einigen SEO-Blogs geübt. Manche würden Meldungen als Click-Bait nutzen. Ausgangspunkt dafür war ein Bericht über einen angeblichen Fehler in einem SEO-Plugin für WordPress. Im Zuge der Diskussion über das Tool wurden auf einigen SEO-Seiten Informationen verkürzt dargestellt und wichtige Stellungnahmen von Google durch John Müller nicht weitergegeben. Dieser forderte nun, dass Artikel zu komplexen Search-Themen alle Perspektiven beleuchten sollten. Es gehe darum, mit ausgewogener Berichterstattung einen langfristigen Wert zu schaffen. Der Versuchung, kurzfristig Klicks erzielen zu wollen, solle man nicht erliegen. Ziel müsse es sein, Wissen zu vermitteln, so Müller. Es wird deutlich, dass sich die Search-Szene selbst den Gesetzen der digitalen Aufmerksamkeit nicht entziehen kann. Geschwindigkeit scheint eine eigene Währung darzustellen und es wird angenommen, dass der Leser im Netz keine Zeit für die Auseinandersetzung mit Details mehr hat. Die eigenen Methoden gefährden damit auch den kollektiven Erfahrungsschatz der Branche. In einer sich immer komplexer entwickelnden Search-Welt darf man gerade den Blick für Details nicht aus den Augen verlieren und muss sich die Zeit für eine gründliche Aufarbeitung der Themen nehmen. Das beispielsweise russische Troll-Farmen mit aktiver SEO-Arbeit die Existenz unserer Demokratie bedrohen, ist ein Thema, welches noch auf seine gründliche Aufarbeitung wartet.

Dieser Beitrag erschien zuerst bei Internet World Business.

SEO News

Der Frühling ist nun endgültig ausgebrochen und treibt selbst den hartgesottensten Online Marketeer in die Sonne vor die Tür. Klar, dass man dabei wichtige Trends und Entwicklungen verpassen könnte. Daher haben wir die wichtigsten SEO-News für den Mai zusammengefasst. Diesmal betrachten wir die Entwicklung des Suchmarktes, Googles Angriff auf den E-Commerce und mögliche Schattenseiten der Sprachassistenten auf unser Verhalten.

1) Der Markt für Suchmaschinen wird erwachsen

Die Dominanz von Google im Suchmarkt in Frage zu stellen, ist gerade mal wieder schwer angesagt. Der Facebook-Datenschutz-Skandal lässt viele Kritiker des Systems Google hoffen, dass so langsam ein etwas größerer Teil der Onlinegemeinde erkennt, dass „gratis“ im Internet eben nicht „umsonst“ bedeutet, und in der Konsequenz die Nutzerzahlen der Suchmaschine aus Mountain View zumindest nicht mehr weiterwachsen. Unterstützt werden kann diese Vermutung durch den Trend, dass viele Nutzer ihre Shopping-Suche lieber gleich direkt beim Konkurrenten Amazon beginnen. Grund genug also, einmal mehr den Fragen nachzugehen: Verliert Google Marktanteile und wo finden Suchen im Internet überhaupt statt? Licht ins Dunkel bringt eine Studie der amerikanischen Datensammler von Jumpshot. SEO-Veteran Rand Fishkin hat deren Analyse von US-Clickstream-Daten, also Referrer-Daten auf Serverebene und anonymisierte Klickprotokolle aus Webapplikationen der Jahre 2015 bis 2018, interpretiert und ist dabei auf überraschende Erkenntnisse gestoßen. Entgegen dem vermuteten Trend wächst zwar die Summe von Suchanfragen auf Amazon, weil aber zugleich die Gesamtmenge aller Suchanfragen zugenommen hat, lag der Amazon Marktanteil über den gesamten Untersuchungszeitraum bei konstant rund 2,3 Prozent. Eine detaillierte Betrachtung der unterschiedlichen Google-Dienste, wie der Bildersuche oder Google Maps, zeigt, dass diese Spezialdienste aufgrund von Technik- und Designanpassungen Suchanfragen verlieren. Allerdings verschieben sich diese Suchen nur hin zur universellen Google Websuche. Das Unternehmen aus Mountain View ist also erfolgreich darin, unterschiedliche Services für Suchende auf Mobilgeräten und Desktop in seiner zentralen Suchergebnisseite zu integrieren. Googles Marktanteil hat sich daher auch zwischen 2015 und 2018 um 1,5 Punkte auf rund 90 Prozent steigern können, die Konkurrenz scheint komplett abgehängt. Wie bei Amazon hat sich der Such-Share von YouTube, Pinterest, Facebook und Twitter kaum verändert. Auch Microsofts Suchmaschine Bing und Yahoo haben trotz Zuwächsen an Suchanfragen keine Marktanteile gewinnen können. Fishkins Fazit fällt entsprechend pragmatisch aus: Die Suchmaschinenindustrie weise im Jahr 2018 einen hohen Reifegrad auf, in dem sich eine Handvoll starker Player erfolgreich am Markt etablieren konnten. Die Dominanz Googles wird aber auch auf Jahre hinaus nicht in Gefahr kommen, da alle Verfolger gleichermaßen von einem weiter dynamisch wachsenden Suchvolumen profitieren, so der SEO-Experte. Auch wenn der Riese aus Mountain View scheinbar unbeschädigt alle Datenskandale hinter sich lässt, die Tatsache, dass Amazon, Bing & Co. es schaffen, das Tempo des Marktführers erfolgreich mitzugehen, sei die wirklich wichtige Erkenntnis hinter den Jumpshot-Zahlen, so Fishkin. Diese Einschätzung deckt sich im Übrigen auch mit dem Phänomen, dass das Wachstum mobiler Suchanfragen nicht zu Lasten der klassischen Desktopsuchen geht. Vielmehr findet die mobile-Expansion auch als Wachstum statt, während Desktopsuchen auf unverändert hohem Niveau nicht an Relevanz verloren haben.

2) Google will wissen, was Sie letzten Sommer gekauft haben

Im wachsenden Segment der transaktionalen Shopping-Suchanfragen steht Googles Marktmacht auf tönernen Füßen. Zwar hat man in Mountain View erfolgreich Google Shopping als Vermittlungsplattform etablieren können, die gesamte Wertschöpfungskette inklusive des Bezahlvorgangs zu kontrollieren, blieb bislang bis auf zaghafte Vorstöße jedoch ein Wunschdenken. Genauer gesagt: Google weiß, was die Menschen suchen, aber nur Amazon weiß, was Millionen von Menschen wirklich kaufen. Doch das soll sich nun ändern. Mit einem in den USA gestarteten Feature namens „Google Shopping Actions“ kann für Produkte teilnehmender Einzelhändler eine Kaufoption direkt in den Google Suchergebnissen angezeigt werden. Das Feature richtet sich an Einzelhändler, die ihre Produkte über die Google Suche, den lokalen Lieferdienst Google Express und im Google Assistant auf Mobiltelefonen sowie Sprachassistenten verkaufen wollen. Anstatt auf andere Verkaufsplattformen wie Amazon ausweichen zu müssen, kann der Nutzer nun Produkte künftig direkt über Google beziehen. Mit den Google Shopping Actions werde der Einkauf vereinfacht und zentralisiert, so Google. Durch einen zentralen Warenkorb und einen Bezahlvorgang über den Google Account werde das Einkaufserlebnis für Nutzer der Suchmaschine einfach und sicher abgewickelt werden können, kündigte das Unternehmen an. Neben der klassischen Suche über das Google Suchfeld soll der Einkauf auch via Spracheingabe möglich sein, um so im Zeitalter der Sprachassistenten konkurrenzfähig zu sein und zu bleiben. Das mit einer direkten Shoppingfunktion auch Daten einer neuen Qualität in Mountain View gesammelt und individuellen Nutzern zugeordnet werden können, ist natürlich die andere Seite der Medaille.

3) Alexa und das Zeitalter der Verrohung

„Mama! Mach jetzt das Licht im Wohnzimmer an!“. Jedes Kind, das mit diesen Worten seinen Willen durchzusetzen versucht, wird wohl kläglich scheitern. Es ist ein fester Bestandteil der Erziehung, dass man einen Wunsch an eine andere Person höflich als Frage formuliert und das kleine Wörtchen „Bitte“ der mit Abstand wichtigste Teil jeder Willensäußerung zu sein hat. Aber diese eherne Gewissheit ist in Gefahr. Und das nicht aufgrund der vagen Vermutung, dass Kinder heutzutage keinen Anstand mehr von ihren Eltern vermittelt bekommen würden. Als viel stärkerer Katalysator könnte sich erweisen, dass der hochdigitalisierte Nachwuchs schon in jungen Jahren ein ganzes Arsenal willfähriger, widerspruchsloser Helfer und Assistenten kommandiert, die eben nicht mit verletzten Gefühlen oder Abweisung reagieren, wenn man sie im barschen Kommandoton auffordert, etwas sofort in die Tat umzusetzen. Im amerikanischen Magazin „Atlantic“ sorgt sich der Autor Ken Gordon um die Auswirkungen dieser Entwicklung auf kommende Generationen. Zwar seien präzise Kommandos zentraler Teil der Steuerung von Software, es mache aber einen großen Unterschied, ob diese still per Tastatur an ein System übermittelt würden, oder ob man einen vermenschlichten Maschinenassistenten mit Sprachbefehlen kommandiere, so Gordon. Die Gefahr bestehe, dass die Klaglosigkeit, mit der Alexa, Cortana, Siri & Co das Fehlen von „Bitte“ oder „Danke“ hinnähmen, einen emotionalen blinden Fleck in jungen Menschen hinterlassen könnte. Letztlich sei ein Sprachbefehl zwar nur eine andere Form von Programmierung, „die eigene Autorität sprachlich zu artikulieren, und das immer und immer wieder, kann sich auf Dauer aber als problematisch erweisen“, so Gordon. Noch ist es aber zu früh, um eine Prognose zu wagen, wie sich unser Miteinander verändern wird, wenn Künstliche Intelligenz und Roboter fester Bestandteil unserer Familien, Arbeitsteams und letztlich der Gesellschaft werden.

Dieser Beitrag erschien zuerst bei Internet World Business.

SEO News

Der Osterhase hat uns 2018 den lang erwarteten Mobile-First-Index von Google gebracht. Nun gilt es abzuwarten und zu schauen, welche Konsequenzen sich für die Optimierung digitaler Assets daraus ergeben. Man wird also mit Sicherheit noch viel zu diesem Thema hören. In der Zwischenzeit geht es in den SEO-News für April um kurze Klicks, den Geschwindigkeitswettlauf im E-Commerce und einen neuen (Search-) Blick auf die Welt.

1) Google bietet Abkürzung für Suchende

Der Mensch an sich ist faul, das ist keine besonders neue Erkenntnis. Nur bei der Suche im Internet legt der Homo Sapiens eine besonders hartnäckige Emsigkeit an den Tag. Dass nämlich eine Suchabfrage unmittelbar zu einem befriedigenden Ergebnis führt ist keinesfalls die Regel. Im Durschnitt kehrt der Suchende fünf Mal zur Suchergebnisseite zurück, um entweder seinen Suchbegriff zu verfeinern, oder ein anderes Ergebnis aufzurufen. Diese Klicks zurück zu den Ergebnissen von Google oder Bing werden „Short Clicks“ genannt. Wenn man so will, ist es die vornehmste Aufgabe der Suchmaschinenoptimierung, genau diese Short Clicks überflüssig zu machen, indem man die Inhalte von Webseiten bestmöglich auf die Intentionen der Suchenden abstimmt. Auch Google will die Sucherfahrung seiner Nutzer verbessern und beschleunigen und hat nun ein Feature ausgerollt, das schon seit einiger Zeit auf mobilen Geräten und in den USA getestet worden ist. Kehrt man mit einem Short Click auf Google zurück, so öffnet sich unter dem ersten Suchergebnis eine Box mit der Überschrift “Andere suchten auch nach”. Diese Box enthält eine Liste von Links mit ähnlichen Suchanfragen, die sich deutlich von der bestehenden Liste alternativer Suchanfragen am Ende der Suchergebnisseite unterscheidet. Der globale Rollout der Short Click-Box zeigt, dass Google das Phänomen unzufriedener Suchender ernst nimmt und darauf reagiert. Es ist ein weiterer Hinweis in die Richtung, dass Short Clicks als negatives Nutzersignal herangezogen werden. Die Suchmaschinenoptimierung muss daher weiterhin versuchen, den Short Click überflüssig und das Leben für Suchende noch ein wenig einfacher zu machen.

2) Geschwindigkeit zählt im Rennen um die E-Commerce-Krone

Es ist Frühjahr und die Konferenzsaison der Branche läuft auf Hochtouren. Vergleicht man die Top Themen der internationalen Branchen-Leitmesse „Search Marketing Expo“ (SMX) in Nordamerika und Europa, so fällt auf, dass das Thema Accelerated Mobile Pages (AMP) in den USA einen deutlich größeren Stellenwert einnimmt, als in unseren Gefilden. Jenseits des Atlantiks setzen Websitebetreiber und verstärkt auch E-Commerce-Anbieter auf die Technologie eines abgespeckten HTML-Protokolls. Man verspricht sich davon in erster Linie eine bessere Nutzererfahrung und mehr Konversionen durch schnellere Ladezeiten. Vertreter von Google haben auch auf der diesjährigen Online Marketing Rockstars-Konferenz in Hamburg darauf hingewiesen, das schnelle Ladezeiten der entscheidende Faktor im Wettbewerb sind, insbesondere mit dem Platzhirschen Amazon. Passend zu diesem Thema hat der US-Search Experte Eric Enge eine Studie zu den Vorteilen der AMP-Technologie veröffentlicht. Darin versucht der Autor mit vier großen Mythen aufzuräumen, die mutmaßlich viele Unternehmen vom Einsatz der Technologie abhalten. Zunächst weist Enge darauf hin, dass sich AMP nicht nur für News-Publisher eignet, auch wenn hierfür kürzlich erst das Stories-Format auf der AMP-Plattform implementiert wurde (wir berichteten). Stattdessen zeigt er an Beispielen aus Indien, dass gerade in Märkten, die stark von der Nutzung mobiler Endgeräte geprägt sind, die verbesserte Geschwindigkeit im E-Commerce zu signifikant höheren Konversionsraten führt. Darüber hinaus erklärt Enge, dass man keinesfalls auf Designfeatures verzichten muss, wenn man sich für AMP entscheidet. Das von den großen Suchmaschinenbetreibern empfohlene, responsive Websitedesign zeige gerade im Vergleich mit AMP große Schwächen, so der Autor. Laut Enge müsse man für die Konzeption und Umsetzung einer optimalen AMP-User Experience mehr Ressourcen einplanen, da es bislang noch zu wenig Use Cases in diesem Bereich gäbe. Ausdrücklich warnt die Studie vor halbherzigen AMP-Implementierungen, diese würden die Nutzung auf mobilen Geräten erschweren und elementare Funktionen, wie beispielsweise die Navigation, unnötig komplizieren. Ladegeschwindigkeit sollte zwar schon jetzt ein Hauptpfeiler einer jeden SEO-Strategie sein. Will man im Wettbewerb mit globalen Marktteilnehmern bestehen, sollte aber auch Deutschland dem Einsatz der AMP-Technologie mehr als nur einen kurzen Moment seiner Aufmerksamkeit gönnen.

3) Leben durch die Linse – Visual Search ist da

„Alexa! Kann ich dir mal schnell etwas zeigen?“. Wer denkt, er könne die neue Garde der Sprachassistenten wie ein Familienmitglied behandeln, merkt schnell, dass zur vollen Integration der intelligenten Lautsprecher in unsere Gesellschaft noch etwas Entscheidendes fehlt: Sie haben keine Augen. Doch diese Lücke wird sich sehr bald schließen, das Zauberwort heißt „Visual Search“. Getrieben von einer immer tieferen Integration von Künstlicher Intelligenz, ist die Interpretation von visuellen Informationen und das Erkennen von Gegenständen keine technologische Hürde mehr. Als jüngsten Beweis kann man den Start von „Google Lens“ heranziehen. Das Tool zur visuellen Suche hatte vor einigen Monaten exklusiv auf den Google-eigenen „Pixel“-Smartphones das Licht der Welt erblickt. „Google Lens“ erlaubt es dem Nutzer, ein Foto per Knopfdruck untersuchen zu lassen. Die Suchmaschine erkennt dann selbstständig die abgebildeten Dinge, z.B. Sehenswürdigkeiten wie den Eiffelturm und spielt relevante Informationen wie Anfahrt, Öffnungszeiten, Eintrittspreise und Erfahrungsberichte zu. Besonders gut funktioniert Lens mit Text. Zugegeben, Texterkennung ist wahrlich kein neues Feature, aber Google ist in der Lage, beispielsweise abfotografierte Visitenkarten als Adressformat zu erkennen und die Fotoinformationen in eine entsprechende Kontaktdatei umzuwandeln. Und die Suchmaschine aus Mountain View ist nicht das einzige Unternehmen, dass in diesem Bereich investiert: Auch Microsoft hat vor wenigen Wochen seiner Suchmaschine Bing ein KI-Paket spendiert, welches ebenfalls einige neue Features für die Visuelle Suche enthielt (auch darüber haben wir schon berichtet). Und die populäre Plattform Pinterest hat sich schon immer als visuelles Entdeckungstool verstanden und rückt mit der Einführung seiner neuen „Pinterest Lens“-App die visuelle Suche in den Mittelpunkt der Nutzererfahrung. Nicht nur werden gescannte Bilder in ihre Attribute wie Farbe, Beschaffenheit, Funktion zerlegt, darüber hinaus kann Pinterest Lens aus einer Bildersuche auch Shoppinglinks für ausgewählte Marken generieren. Dass alle großen Internetkonzerne die visuelle Suche ins Visier nehmen ist kein Zufall. Laut dem Marktforschungsinstitut Gartner werden schon 2019 rund 50 Prozent aller mobilen Suchen entweder durch Sprache oder visuell ausgelöst. Es handelt sich also bei den neuen, kontextgetriebenen Suchen um ein Wachstumssegment, welches dem intuitiven, menschlichen Verhalten entgegenkommt. Ob sich die Versprechungen als Umsatztreiber im E-Commerce jedoch so schnell bewahrheiten werden, bleibt abzuwarten. Fest steht jedoch, dass der Suchmaschinenoptimierung eine steile Lernkurve abseits von Keywords und Content bevorsteht.

Dieser Beitrag erschien zuerst bei Internet World Business.

SEO News

Nachdem uns die Eiseskälte im Februar fest im Griff hatte, starten wir jetzt durch in den SEO-Frühling. Passend dazu lauten die heißen Themen des Monats März: AMP, Backlinks und Bing.

1) Google befreit „Stories“ aus App-Gefangenschaft

Das populäre Informations- und Unterhaltungsformat der „Stories“ bricht auf zu neuen Ufern. Ursprünglich von Snapchat erfunden nach seinem großen Erfolg schnell von Facebook und Instagram adaptiert, fristete die handliche Multimedia-Galerie ihr Dasein in den geschlossenen Systemen von Smartphone-Apps und Social Media-Welten. Nun aber will Google die Stories aus ihrer Isolation befreien. Zu diesem Zweck hat die Suchmaschine ein Stories-Format für das abgespeckte HTML-Protokoll „Accelerated Mobile Pages“ (AMP) entwickelt und auf der diesjährigen AMP-Konferenz in Amsterdam vorgestellt. Ziel ist es, die erzählerischen Möglichkeiten der Stories mit den technologischen Vorteilen von AMP, wie den schnellen Ladezeiten und der optimalen Darstellung auf allen Plattformen und Geräten, zu verbinden. Das neue Format unterstützt Videos, Bilder, GIF-Animationen und Links. In einem ersten Showcase zeigten Publisher wie CNN, Hearst und Mashable drei Anwendungsbeispiele für Stories im „offenen“ Internet. Da schnelle Ladezeiten und plattformunabhängige User Experience zwei wichtige Rankingfaktoren für Suchmaschinen sind, lohnt es für News-Publisher und Content-Produzenten, einen genauen Blick auf die Möglichkeiten der AMP-Stories zu werfen. Darüber hinaus hat sich bereits in der Vergangenheit öfters gezeigt, dass die Suchmaschine aus Mountain View die von ihr präferierten Technologien zumindest zeitweise in ihren Suchergebnissen privilegiert behandelt. So geschehen beispielsweise mit dem Markup für strukturierte Daten. Ob sich durch die Einführung der Stories auch die Verbreitung der AMP-Technologie schneller durchsetzen wird, bleibt jedoch abzuwarten. Denn den Vorteilen stehen bislang auch Einschränkungen im Feature-Set und der Implementation von Tracking gegenüber.

2) Von wegen oldschool: SEO-Erfolg mit Backlinks

Eine Website auf ein Plus an organischer Reichweite in der passenden Zielgruppe zu optimieren ist ein komplexes Unterfangen. Die Explosion von Rankingfaktoren und –signalen über immer neue Plattformen hinweg sowie die Ausdehnung der Suchfunktion auf neue Interfaces wie Sprache und Bild hat dazu geführt, dass man als SEO-Manager bei der Konzeption eines Projektes die Qual der Wahl des richtigen Ansatzes hat. Zeit also, sich an die Ursprünge unseres Gewerks zu erinnern und eine ordentliche Backlinkkampagne in den Blick zu nehmen. Der US-Kolumnist Andrew Dennis zeigt in einem Beitrag für den Search Blog „Searchengineland“, dass man mit dem Einsatz von Brand Mentions und kluger Wettbewerbsanalyse eine substantielle Reichweiten-Starthilfe sogar für brandneue Domains geben kann. In seinem Beispiel beschreibt Dennis eine Offline-Marke mit relativ kleinem Footprint im digitalen Marketing, welche allerdings in ihrer Nischenbranche eine hohe Aufmerksamkeit für Nachrichten und Blogs erreichen kann. Diese Ausgangslage treffe auf viele Firmen aus den Branchen IT-Sicherheit, MINT-Bildung, Payment, Fitness oder Hotellerie zu, insbesondere Startups, so Dennis. In einem ersten Schritt wurden gezielt sogenannte Brand Mentions generiert, also unverlinkte, Erwähnungen der Marke auf Drittseiten in möglichst positiven Kontext. Durch die Einbindung der richtigen Verantwortlichen konnten viele Brand Mentions über die PR- und Personalabteilung, sowie Branchenverbände, Presseinterviews und Charity-Engagement erlangt werden. In einem zweiten Schritt wurde das Backlinkprofil der erfolgreichsten Wettbewerber analysiert, deren wichtigste Linkquellen automatisch auch für das zu optimierende Unternehmen relevant waren. Ohne größeren Aufwand habe man zahlreiche Portale und Verzeichnisse identifizieren können, auf denen man auch ohne teuren Content einen Backlink habe gewinnen können, so der Autor. Der Aufwand von Linkanalyse und Brand Mentions-Aufbau habe über einen Zeitraum von sechs Monaten insgesamt 64 neue Links und einen Anstieg des organischen Traffics um 43 Prozent zur Folge gehabt. Dieses Beispiel ist an sich nichts Außergewöhnliches, verdeutlicht aber, wie man in unserer trendgetriebenen SEO-Welt mit klassischer Analyse und gesundem Menschenverstand relativ einfach überzeugende Resultate erzielen kann.

3) Bing achtet jetzt auf Ausgewogenheit

Die Menschheit hat sich bereits so sehr an die Nutzung von Suchmaschinen als Helfer für fast alle Aspekte des Lebens gewöhnt, dass es an der Zeit ist, die Perspektive der Maschine (in diesem Falle der Suchmaschine) kritisch zu hinterfragen. Nachdem Amazon angekündigt hat, seiner Sprachassistentin Alexa eine eigene Meinung zu spendieren (wir berichteten) hat Microsoft seiner Suchmaschine Bing nun ein neues Feature hinzugefügt: Die Multi-Perspektiven Antwort. Was zunächst einmal sehr akademisch klingt, macht bei genauer Betrachtung durchaus Sinn. Auf die Frage, ob beispielsweise eine Sitzung Hot Yoga gut für den Körper sei, gibt es wie so oft widersprüchliche Sichtweisen. Sowohl die Pro- also auch die Kontrapositionen werden nun von Bing in einem übersichtlichen Kasten innerhalb der Suchergebnisseite aufgelistet und gegenübergestellt, ähnlich der Featured Snippet Box bei Google. Hinter der Auswahl der Perspektiven steht laut Microsoft ein selbstlernendes, neuronales Netzwerk, welches seriöse Inhalte von vertrauenswürdigen, hochwertigen Seiten verwendet. Eine weitere Voraussetzung für einen Platz in der Antwortbox ist nach Angaben des Unternehmens die Indexierbarkeit der Inhalte auf ihrer Originalseite, wo dieser prominent und ablenkungsfrei zugänglich sein müsse. Erste Beispiele der Multi-Perspektiven Antwort sind in den USA hauptsächlich bei Themen aus dem Bereich Gesundheit und Ernährung sichtbar. Microsoft kündigte jedoch an, das Feature zunächst in Großbritannien und dann in weiteren Märkten auszurollen und in diesem Zuge auch auf weitere Themenbereich auszudehnen.

Dieser Beitrag erschien zuerst bei Internet World Business.