Beiträge

Endlich Sommerloch. Doch eine künstliche Intelligenz kennt kein Hitzefrei und kann daher auch mitten im Stau am Brenner das perfekte Kindermädchen im Auto geben. Vorausgesetzt der Sprachassistent hat auch etwas zu erzählen. Genau darum geht es in unseren SEO News für den Monat August. Und natürlich darf auch das notorische Sommerlochmonster nicht fehlen.

1) Ein Sprechzettel für Google Home

Das Zwiegespräch mit der Maschine bleibt ein Thema. Nachdem wir vergangenen Monat über automatisierte Sprachbefehle des Google Assistant an die Erwerbsbevölkerung berichtet haben, gibt es aus Mountain View nun eine handfeste Erleichterung für Content Publisher auf ihrem Weg in die Welt der Sprachassistenten. Mit „Speakable“ hat Google erstmal ein semantisches Markup zur Auszeichnung von Textausschnitten zur Sprachausgabe veröffentlicht. Die Auszeichnungen wurden über die Brancheninitiative „Schema.org“ zur Verfügung gestellt und befinden sich nach Angaben des Unternehmens noch in der Beta-Phase. Mit „Speakable“ können Nachrichtenanbieter und andere Content Publisher einen kurzen und auf Sprachausgabe optimierten Abschnitt eines Textes direkt für die Nutzung durch den Google Assistant bereitstellen. Ähnlich wie ein Teaser sollte der Text maximal zwei bis drei Sätze lang sein, sodass sich für die Ausgabe beim Assistenten eine Sprechzeit von 20 bis 30 Sekunden ergibt, rät Google. Für den optimalen Einsatz solle der Inhalt des Textes das Thema informativ und in kurzen Sätzen darstellen, auch Überschriften dürften verwendet werden, hieß es weiter. Bei der Auswahl der Inhalte muss sichergestellt werden, dass keine technischen Informationen wie Bildunterschriften sowie Datums- oder Quellenangaben das Nutzererlebnis beeinträchtigen können. Der optimierte Einsatz von Markup rückt für Suchmaschinenoptimierer im Zeitalter von künstlicher Intelligenz und der Multiplikation von Ausgabeplattformen immer stärker in den Fokus. Mit Hilfe dieser standardisierten Zusatzinformationen im Quelltext kann sichergestellt werden, dass alle an Auswahl und Darstellung der Suchergebisse beteiligten Systeme die Daten zuverlässig erfassen und optimal verarbeiten können. Das „Speakable“-Feature ist zunächst nur für die englische Sprache im US-amerikanischen Markt verfügbar. Den Start in weiteren Märkten plant Google jedoch nur unter der Voraussetzung, dass „eine hinreichende Anzahl von Publishern Speakable implementieren“, so das Unternehmen. Der SEO-Branche wird die Arbeit also so schnell nicht ausgehen.

2) Mehr Möglichkeiten für Amazons Alexa

Denkt man über die Zukunft der digitalen Suche nach, so verschiebt sich der Fokus langsam von der Analyse von Anfragen und Intentionen zur Reflektion über Antworten und Ausgabesysteme. Die entscheidende Herausforderung für eine gelungene Mensch-Maschine-Kommunikation im Wechsel zwischen interaktiven Displays, augmentierter Realität und Sprachassistenten wird es sein, das bestmögliche Ergebnis für jeden Kanal bereit zu stellen. Gibt es eine Antwort, mehrere Antworten oder beginnt mit der ersten Frage sogar eine Konversation zwischen Suchsystem und Suchendem? Im Prinzip läuft es mit den virtuellen Assistenten ähnlich wie mit dem Berater im stationären Geschäft: Will man ein schnelles Ergebnis haben oder ein komplettes Verkaufsgespräch beginnen? Will der Nutzer nur in Ruhe stöbern oder benötigt er die Hilfe eines Verkäufers? Reicht eine kurze Antwort oder muss der Suchende seine Anfrage mehrfach nachspezifizieren, bis er zum passenden Ergebnis kommt? Die US-amerikanische Firma „Yext“ hat nun eine Kooperation mit Amazon vorgestellt, die es erlaubt, sogenannte NAP-Daten (Name, Adresse und Telefonnummer), sowie Öffnungszeiten lokaler Unternehmen direkt zur Verarbeitung durch den Sprachassistenten Alexa zu importieren. Das Unternehmen aus New York teilte gegenüber Journalisten jedoch mit, dass für die Zukunft eine noch tiefere Integration ihrer Schnittstelle mit Amazon Alexa geplant sei. Ob damit auch Produktdaten und -kataloge gemeint sind, blieb zunächst offen. Die Automatisierung des Datenaustauschs zwischen den Inhabern digitaler Angebote und Suchsystemen mit dem Ziel einer optimalen Nutzererfahrung am Ausgabepunkt und valider Messbarkeit des Erfolgs ist schon heute einen Schlüssel zum Erfolg im digitalen Retailgeschäft. Für Googles Shoppingfunktion PLA (Product Listing Ads) oder auch den Einsatz auf Preissuchmaschinen und Affiliate Netzwerken ist die Bereitstellung und Optimierung von Datenfeeds ein zentraler Mechanismus. In der Amazon-Welt entstehen die dafür notwendigen Schnittstellen und Tools erst nach und nach. Dabei liegt genau hier das derzeit größte Potential, um vom Wachstum der digitalen Sprachassistenten zu profitieren.

3) Ein SEO Kaninchen auf SERP-Raubzug

Erinnern Sie sich noch Lotti die schnappende Schildkröte, Yvonne die flüchtige Kuh oder den Brillenkaiman Sammy? Wie gut, dass es Suchmaschinen gibt, die einem die Möglichkeit geben, das Schicksal der unzähligen Sommerlochtiere noch einmal zu erleben. Und das viele Jahrzehnte nachdem wir gebannt mit ihnen durch die mehr oder weniger nachrichtenlose Ferienzeit gefiebert haben. Neu aber ist, dass ein virtuelles Kaninchen die weltgrößte Suchmaschine Google in die Knie zwingt. Publiziert wurde die Geschichte unter dem Namen „Rabbit Bug“ vom spanischen Programmiererkollektiv „La SEOMafia“. Nach deren Angaben handelt es sich um das gezielte, manipulative Einfügen eines Tabellenformats in den Quelltext einer Website. Der Bug bestehe darin, dass Google beim Ausspielen des Suchergebnisses diese Formatierung nicht interpretieren könne, was zum plötzlichen Abbruch der Suchergebnisanzeige nach dem manipulierten Eintrag führe, hieß es. Dieser Fehler konnte auf einer rankenden Seite für das Keyword „Conejos“ (spanisch für Kaninchen) implementiert werden, sodass als Ergebnis nur der eine, manipulierte Suchtreffer angezeigt wurde. Man mag sich gar nicht vorstellen, welch traumhafte Klickraten sich auf diese Weise erzielen lassen könnten. Es ist auch in der inzwischen recht erwachsenen SEO-Branche immer wieder eine Freude zu sehen, wie ein paar kreative Geister den Laden ein wenig aufmischen. Letztendlich wurde sogar Googles SEO-Verbindungsoffizier John Müller auf den Rabbit Bug aufmerksam und meldete auf Twitter augenzwinkernd, er habe die Sichtung des Kaninchens intern weitergegeben. Dem Kaninchen droht nun das Schicksal aller Sommerlochtierchen. Am Ende wurden die meisten eingefangen oder erlegt.

Dieser Beitrag erschien zuerst bei Internet World Business.

Der Sommer ist nun endgültig da, die Nächte sind lang und das gibt uns genug Zeit dafür, uns mit den grundsätzlichen Fragen des Lebens zu beschäftigen. Daher geht es in den SEO News des Monats Juli nicht nur um bevorstehende Google-Updates sondern auch um das Quiz der Erkenntnis und die zukünftige Hackordnung auf unserem Planeten.

1) Schnell und sicher zu guten Rankings

Wieder einmal ist Google am Komfort und der Sicherheit der Internetnutzer gelegen. Die Firma, welche nach eigenen Angaben niemals böse sein will, bringt im Juli gleich zwei Updates auf die Straße, von deren Auswirkungen Internetnutzer und Webseitenbetreiber gleichermaßen profitieren sollen. Beide Änderungen sind seit langem angekündigt und in Teilen bereits umgesetzt. In einem ersten Schritt wird die Ladegeschwindigkeit von mobilen Seiten zum offiziellen Rankingfaktor. Bereits in den ersten zehn Grundregeln von Google zur Qualität einer Seite wurde die Ladegeschwindigkeit als Qualitätskriterium gelistet. Es hat nur sehr lange gedauert, bis daraus nun wirklich ein Ranking Faktor wurde. Damals war der Schritt auf Grundlage von Studien erfolgt, wonach sich langsame Webseiten direkt auf deren Clickthrough- und Konversionsraten auswirken. Auch auf den Veranstaltungen der Search-Konferenzsaison 2018 wurde das Argument der Geschwindigkeit von Google-Vertretern wie ein Mantra wiederholt. Mit der sukzessiven Einführung des Mobile First Index (wir berichteten), wird dieser Schritt nun auch für den mobilen Bereich offiziell nachgeholt. Webseitenbetreiber sollten ihre Domains mit den hauseigenen Tools „Page Speed Report“ und „LightHouse“ analysieren und entsprechende Maßnahmen für mobile Webseiten umsetzen, so Google. Neben dem Speed Update macht Google im Juli auch Ernst mit seiner Ankündigung, Webseiten im Chrome Browser als unsicher („non-secure“) zu markieren, welche zum Stichtag nicht auf das verschlüsselte HTTPS-Protokoll umgestellt wurden. Auch dieser Schritt markiert den Endpunkt einer Kampagne, die bereits vor mehr als zwei Jahren begonnen hatte. 2016 hatte Google bereits mit einem kleinen Ranking-Boost für gesicherte Webseiten mit der Aufklärungsarbeit begonnen. Diese war nach eigenen Angaben von Erfolg gekrönt. So wird nach Angaben des Unternehmens mittlerweile rund 68 Prozent des gesamten Traffics im Chrome Browser auf Android und Windows über HTTPS vermittelt. Ein Wert, welcher sicher noch steigerungsfähig ist. Dass Google seine Marktmacht zur Umsetzung technischer Standards mit dem Ziel der Verbesserung der Nutzererfahrung einsetzt ist ein richtiger Schritt. Erst vor dem Hintergrund drohender Traffic- oder Umsatzverluste war so manches Unternehmen bereit, in schnellere Technologie oder sichere Lizenzen zu investieren. Um für zukünftige Entwicklungen gerüstet zu sein, sollte man neue Technologien wie AMP (Accelerated Mobile Pages), mobile Checkoutprozesse, oder Frameworks mit Prerendering zum Vorladen von Inhalten im Auge behalten. Diese Neuerungen können dabei helfen, vor allem die Wahrnehmung der Ladegeschwindigkeit beim User über alle Plattformen hinweg zu verbessern.

2) Das ganze Leben ist ein Quiz

Jetzt wird es kompliziert für alle, die in Mathematik nicht aufgepasst haben. Die späte Erkenntnis, in der Schule zwischen Integralrechnung und Stochastik irgendwann den Faden verloren zu haben, rächt sich im Zeitalter der Algorithmen. Erst recht, für Menschen im Berufsfeld des Online Marketings. Banal gesagt ist so ein Algorithmus lediglich eine wohl geordnete Kette von Entscheidungen zur strukturierten Lösung eines Problems. Die entscheidende Neuerung der letzten Jahre ist das Erscheinen der künstlichen Intelligenz und des Maschinellen Lernens. Heutzutage werden die einzelnen Glieder der Algorithmuskette nicht mehr von Menschen, sondern von Programmen zusammengefügt. Stellt man einer Suchmaschine eine Frage, so wird diese Information entgegengenommen, mittels semantischer Analysen ihr zentrales Informationsobjekt (Entität) und ihre Intention ermittelt, sowie das empirisch passendste Ergebnis (Ranking) im richtigen Kontext (z.B. lokal und mobil) zurückgegeben. Eine Gruppe von sieben Google-Ingenieuren hat auf der ICLR-Konferenz in Vancouver nun ein Forschungsprojekt vorgestellt, in welchem das Frage-Antwort-Prinzip auf den Kopf gestellt wird. Die Forscher nutzten dafür Aufgaben aus der beliebten US-Quizshow „Jeopardy“. In dieser Show müssen die Kandidaten seit 1964 die richtigen Fragen auf komplexe Antworten finden. In ihrer Studie nutzten die Google-Ingenieure dem Umstand, dass bei Jeopardy-Aufgaben Informationsdefizite und Unsicherheiten bestehen, welche erst durch die Formulierung der passenden Frage aufgelöst werden können. Die Frage muss also so lange angepasst werden, bis die vorgegebenen Informationen in ihrer Kombination und ihrem Kontext Sinn machen. Das menschliche Gehirn leistet diese Arbeit in Sekundenschnelle und kann dabei auf einen umfangreichen Satz an intellektuellen und sozialen Hilfsmitteln zurückgreifen. Stellt man aber einer Suchmaschine eine Jeopardy-Frage, wie beispielsweise: „Wie die Bibel war diese islamische Schrift zwischen 1926 und 1956 in der Sowjetunion verboten“, so erhält man keine passende Antwort. Google liefert einen Wikipedia Eintrag über die Sowjetunion, hat also diesen Suchbegriff als Entität, als zentrales Informationsobjekt erkannt, und greift damit zu kurz. Microsofts Suchmaschine Bing kommt der aus menschlicher Sicht naheliegenden Antwort „Was ist der Koran?“ ein wenig näher, kann aber auch kein zufriedenstellendes Ergebnis liefern. An dem kleinen Trick mit den Jeopoardy-Fragen erkennt man, was den Suchmaschinen bis heute die größten Kopfschmerzen bereitet, obwohl es als Qualitätsmerkmal moderner Suchsysteme vermarktet wird: Das präzise Erkennen der Intention des Suchenden. Was SEOs in Unternehmen und Agenturen aufwändig erarbeiten, soll seitens der Suchmaschinen zuverlässig automatisiert werden. Zu diesem Zweck wurde von den Google-Forschern ein System maschinellen Lernens entwickelt, welches mögliche Antworten auf die Jeopardy-Frage in vielen unterschiedlichen Versionen reformuliert, bevor diese an den eigentlichen Kernalgoritmus weitergegeben werden. Die erhaltenen Antworten werden in einem zweiten Schritt aggregiert und mit den Ausgangsfragen abgeglichen. Erst nach diesen zwei Zwischenschritten wird ein Ergebnis präsentiert. Der selbstlernende Algorithmus erhielt im Anschluss die Auflösung, ob seine Antwort richtig oder falsch war. Mit dieser Methode und einem großen Datensatz wurde das KI-System in der Folge trainiert. Das Ergebnis der Trainings war, dass das System gelernt hatte selbstständig vielschichtige Fragen zu bekannten Antworten zu ERSTELLEN. Dieser Meilenstein geht weit darüber hinaus, die durch den Einfluss von Voice und Visual Search immer komplexeren Suchanfragen nur zu VERSTEHEN. Obwohl diese Studie von Google durchgeführt wurde, kann man davon ausgehen, dass auch Microsoft, Yandex und Baidu an entsprechenden Technologien arbeiten, die Erkenntnis der Dinge weiter zu automatisieren und in nicht allzu ferner Zukunft komplexe Inhalte automatisiert und individualisiert zu erstellen. Welche Auswirkungen dies für die Vielfalt und Transparenz im Netz hat, können wir zum jetzigen Zeitpunkt noch gar nicht abschätzen.

3) Google Assistant gibt den Ton an

Passend zum Thema der automatischen Inhaltserstellung gibt es auch noch ein Update zu Googles unheimlicher Präsentation zweier Telefonate zwischen dem Google Assistant und der arbeitenden Bevölkerung. Im Mai hatte der Suchmaschinenriese aus Mountain View auf seiner Entwicklerkonferenz „IO“ ein Video präsentiert, ein welchem eine KI-Erweiterung des Google Assistant namens „Duplex“ selbstständig und menschliches Sprachverhalten perfekt imitierend, Reservierungen in einem Friseursalon und einem Restaurant beauftragt hat. Die menschlichen Gesprächspartner waren während der Unterhaltung offensichtlich nicht in der Lage zu erkennen, dass sie in der Ausübung ihrer Tätigkeit gerade mit einer Maschine interagierten. Die enge Zusammenarbeit mit Robotern und künstlichen Systemen ist die für Industriearbeiter der westlichen Welt schon lange nichts Neues mehr. Nun kommt diese Entwicklung aber auch in der Dienstleistungsgesellschaft und damit in unserem Alltag an. Das Google-Szenario wirkte auf den ersten Blick verblüffend und überzeugend. Mit dem leichten Schauder des Unheimlichen stellten sich aber zugleich auch einige drängende Fragen. Vor allem der Umstand, dass sich Duplex gegenüber den menschlichen Gesprächspartnern nicht als Maschine identifiziert hatte, wurde kontrovers diskutiert. Nun hat Google reagiert und ein neues Video veröffentlicht, in dem sich der Google Assistant zu Beginn des Gesprächs zu erkennen gibt, und ähnlich wie eine Bandansage im Callcenter die Aufzeichnung des Telefonats zur Qualitätssicherung ankündigt. Mit einigem Abstand aber muss man sich fragen, ob dieses Entgegenkommen der künstlichen Intelligenz nicht völlig überflüssig ist. Den Anweisungen des Google Assistant folgt der Restaurantmitarbeiter im Video dann auch brav, ganz als ob er mit einem Menschen sprechen würde, es besteht kein Unterschied. Im Search Marketing versuchen wir, die Intentionen von Zielgruppen und Konsumenten in den von Suchmaschinen erzeugten Inhalten (Ergebnisseiten) im Sinne des eigenen Interesses zu reflektieren. Im Voice Search kommandieren wir eine Maschine mit Befehlen und werden erst einigen Jahren erfahren, wie uns das verändern wird. Und im Google-Zukunftsszenario einer unsichtbaren, allgegenwärtigen Orientierungs-, Lösungs- und Komfortmaschinerie ist der Mensch Objekt und Subjekt der Technologie zugleich. Mit seinen Daten hat er das System geschaffen, gefüttert und trainiert, dann durfte er sich kurz als dessen Herrscher fühlen. Ob wir jedoch noch merken werden, wann es kippt, ob wir den Zeitpunkt der Auslieferung erkennen werden, dass kann und muss nach Lage der Dinge ernsthaft bezweifelt werden.

Dieser Beitrag erschien zuerst bei Internet World Business.

Wer denkt, die SEO-News im Juni würden sich nur mit den Auswirkungen von Googles Mobile Index beschäftigen, der irrt. Hier warten wir lieber noch ein wenig ab. Zum Start des Sommers beschäftigen wir uns daher mit der Rückkehr eines mächtigen Tools, den Voraussetzungen für gute SEO-Arbeit und einer Branche in der Fake-News-Falle.

1) Die Rückkehr der Google Bildersuche

Der Bildersturm ist abgeblasen. Nach einer langen juristischen Auseinandersetzung mit der Bildagentur Getty Images hat die Suchmaschine Google entscheidende Veränderungen an seiner populären Bildersuche vorgenommen. Wie positiv sich diese Änderungen auf Websitebetreiber ausgewirkt haben, zeigt eine Studie des amerikanischen Search-Experten Anthony Mueller. Doch von Anfang an. Im Januar 2013 änderte Google die Funktionalität seiner Bildersuche dahingehend, dass sich jeder Nutzer die gefundene Bilddatei direkt anschauen und herunterladen konnte. Entscheidend war dabei, dass die Datei auf Servern der Suchmaschine zwischengespeichert wurde und der Nutzer mit Hilfe des „View Image“-Buttons auf diese Datei zugreifen konnten. Als Konsequenz kam es kaum mehr zu Klicks auf die Seiten von Inhaltsanbietern und Rechteinhabern, der organische Traffic aus der Bildersuche brach teilweise um mehr als 70 Prozent ein. Besonders kritisch war diese Entwicklung für Webseiten, die sich wie beispielsweise bei Mode- oder Möbelhändlern auf das visuell geprägte Feld der Inspiration fokussieren, und mit großem Aufwand zur eine Optimierung ihrer Bildinhalte betrieben hatten. Gerade für E-Commerce-Betreiber brach nicht nur der Traffic sondern auch der Umsatz ein. Drei Jahre später reichte die traditionsreiche Bildagentur Getty Images eine Wettbewerbsklage bei der Europäischen Kommission ein, „Old Europe“ sollte es mal wieder regeln, so schien es. Das Vorgehen von Getty sollte von Erfolg gekrönt sein und so verschwand der „View Image“-Button Anfang 2018 aus der Google Bildersuche. Der interessierte Nutzer muss also die Originalseite besuchen, um auf die Originaldatei zuzugreifen. Aus diesem Grund hat der gut vernetzte Search-Experte Mueller bei rund 60 großen Unternehmen weltweit angefragt, ob sie ein knappes halbes Jahr nach der Umstellung bereits Auswirkungen in ihrem Website-Traffic erkennen können. Das Ergebnis: Im Schnitt sind die Besuche aus der Google-Bildersuche um 37 Prozent gestiegen. Während der Datenlage zufolge Impressions und Rankingpositionen in der Bildersuche relativ stabil geblieben sind, hat sich der Clickthrough bei allen befragten Unternehmen dramatisch erhöht. Auch Conversions aus der Bildersuche sind laut der Studie um rund 10 Prozent gestiegen. Natürlich kann der geschulte User noch immer auf andere Suchmaschinen wie Microsofts „Bing“ oder „Duck Duck Go“ ausweichen. Beide Suchmaschinen hatten den direkten Zugriff auf Bilddateien nie abgeschafft. Aufgrund von Googles Marktmacht sei aber jetzt genau der richtige Zeitpunkt, die Optimierung von Bildinhalten neu zu priorisieren um das neue Wachstumspotential auszuschöpfen, so der Autor. Derzeit stellt die Textsuche noch die dominante Methode zur Informationsbeschaffung dar. Insbesondere im Einzelhandel aber zeichnet sich ein Paradigmenwechsel zur visuellen Suche ab.

2) Erfolgreicher Arbeiten mit smarten SEO-Zielen

Dank des Internets sind Kontakte und Wirkung von Werbung heute so messbar wie nie zuvor in der Geschichte. Die digitale Revolution der Werbung steckt zwar nicht mehr in den Kinderschuhen, am Ende ihrer Entwicklung ist sie aber auch noch lange nicht angekommen. Für digitale Kampagnen ist es ein Leichtes, passende Kennzahlen zur Wirkungs- und Erfolgsmessung zu definieren und technisch keine besondere Herausforderung, entsprechende Kampagnendaten auch zu erhalten. Im Bereich der Suchmaschinenoptimierung stellt sich die Definition von Zielen nicht ganz so einfach dar. So bietet Google für die organische Suche schon seit vielen Jahren keine Performancedaten auf Keyword-Ebene mehr an. Marketingverantwortliche und SEO-Experten stehen daher immer wieder vor der Herausforderung, ein SEO KPI-Konzept zu entwerfen, welches den Optimierungserfolg sichtbar macht und damit vor allem das Buy-In der Budgetverantwortlichen eines Unternehmens für professionelle SEO-Arbeit sichert. Search-Guru Rand Fishkin hat daher ein paar Regeln zur Zielformulierung von SEO-Maßnahmen zusammengestellt, die für Werbetreibende und Unternehmen gleichermaßen interessant sind. Der Kernsatz ist laut Fishkin, dass man die Unternehmensziele an den Anfang eines SEO-Konzeptes stellen muss. Diese übergeordneten, meist monetären Erwartungen bricht man in einem zweiten Schritt auf Marketingziele herunter, z.B. indem man Anforderungen an unterschiedliche Kommunikationskanäle entlang der Customer Journey definiert. Erst an diesem Punkt kommen eigentliche SEO-Ziele ins Blickfeld, die sich in einem letzten Schritt mit Hilfe von nur sechs Metriken abbilden lassen. Diese KPIs sind Rankingpositionen, Besucher aus der organischen Suche (unterteilt in Markensuchen und generische Suchintentionen), die Repräsentation des Unternehmens mit verschiedenen Treffern auf der Ergebnisseite eines Suchbegriffs, Suchvolumen, Linkqualität- und –anzahl, sowie direkter Traffic über Linkreferrals. Sein Konzept testet Fishkin an zwei unterschiedlichen Kundenbeispielen durch. Ein reiner online Schuhversender hat beispielsweise ein recht simples Unternehmensziel, z.B. die Umsätze in der Kernzielgruppe um 30 Prozent zu steigern. Im Marketingplan würde dann festgelegt, dieses Wachstum aufgrund der hohen Wahrscheinlichkeit von Conversions am Ende der Customer Journey zu generieren, so Fishkin. Ein daraus abgeleitetes SEO-Ziel kann als Wachstum des organischen Traffic um 70 Prozent definiert werden. Um dieses Ziel zu erreichen werden dann umsetzbare SEO-Maßnahmen ergriffen und durchgeführt. Dagegen stellt Fishkin ein Beispiel für lokales SEO ohne einen Bezug zu E-Commerce, in welchem ein Theater mehr Besucher aus dem nahen Umland anziehen möchte. In einem Marketingplan würde man nun die Regionen definieren, in denen man das Zielpublikum ansprechen möchte. Der SEO-Plan würde in diesem Fall den Aufbau von lokalen Landingpages, die Nutzung von Theaterkritiken und Blogs sowie weitere inhaltlich und lokal getriebene Maßnahmen umfassen. Der Vorteil einer solchen Top-Down Herangehensweise liegt in der Ausrichtung einzelner, oft schwer fassbarerer SEO-Maßnahmen an den großen Richtlinien im Unternehmen. Mehr Wertschätzung und schnellere Umsetzung für die mühevolle SEO-Arbeit seien der Lohn, so Fishkin.

3) Fake News bedrohen die Existenz der SEO-Branche

Haben Sie jetzt auch einen Schreck bekommen beim Lesen der Überschrift? Gut, denn ihre Aufmerksamkeit zu erlangen, war genau das Ziel der plakativ überspitzten Formulierung. Gewiss, solche reißerischen Überschriften liest man auf SEO-Blogs selten, aber die Konkurrenz der Informationen macht auch vor der Search-Branche nicht halt. Obwohl im Jahresturnus totgesagt („SEO is dead!“), entwickeln sich Angebot und Nachfrage nach Optimierungsdienstleistungen seit über 15 Jahren stetig positiv. Einen großen Anteil daran hat sicherlich die intensive Veröffentlichungstätigkeit der Protagonisten. Aus dem Hobby Einzelner entwickelten sich mit der Zeit zuerst spezialisierte Agenturen, bevor die Suchmaschinenoptimierung dann ihren Weg auch in Inhouse-Teams von Unternehmen fand. Auf diesem Weg wurde permanent getestet, ausprobiert und verglichen, das SEO-Wissen konstant erweitert, und vor allem wurde darüber geschrieben. SEO-Blogs dienen also zum einen als unerschöpfliche Quelle für Informationen, quasi ein globaler SEO-Erfahrungsschatz, die Basis des Erfolgs. Zum anderen sind Artikel zu Search-Themen auch Eigenwerbung und Kundenakquise für Dienstleister und Agenturen. John Müller, bekannter Senior Webmaster Trends Analyst bei Google, hat nun Kritik an einigen SEO-Blogs geübt. Manche würden Meldungen als Click-Bait nutzen. Ausgangspunkt dafür war ein Bericht über einen angeblichen Fehler in einem SEO-Plugin für WordPress. Im Zuge der Diskussion über das Tool wurden auf einigen SEO-Seiten Informationen verkürzt dargestellt und wichtige Stellungnahmen von Google durch John Müller nicht weitergegeben. Dieser forderte nun, dass Artikel zu komplexen Search-Themen alle Perspektiven beleuchten sollten. Es gehe darum, mit ausgewogener Berichterstattung einen langfristigen Wert zu schaffen. Der Versuchung, kurzfristig Klicks erzielen zu wollen, solle man nicht erliegen. Ziel müsse es sein, Wissen zu vermitteln, so Müller. Es wird deutlich, dass sich die Search-Szene selbst den Gesetzen der digitalen Aufmerksamkeit nicht entziehen kann. Geschwindigkeit scheint eine eigene Währung darzustellen und es wird angenommen, dass der Leser im Netz keine Zeit für die Auseinandersetzung mit Details mehr hat. Die eigenen Methoden gefährden damit auch den kollektiven Erfahrungsschatz der Branche. In einer sich immer komplexer entwickelnden Search-Welt darf man gerade den Blick für Details nicht aus den Augen verlieren und muss sich die Zeit für eine gründliche Aufarbeitung der Themen nehmen. Das beispielsweise russische Troll-Farmen mit aktiver SEO-Arbeit die Existenz unserer Demokratie bedrohen, ist ein Thema, welches noch auf seine gründliche Aufarbeitung wartet.

Dieser Beitrag erschien zuerst bei Internet World Business.

Der Frühling ist nun endgültig ausgebrochen und treibt selbst den hartgesottensten Online Marketeer in die Sonne vor die Tür. Klar, dass man dabei wichtige Trends und Entwicklungen verpassen könnte. Daher haben wir die wichtigsten SEO-News für den Mai zusammengefasst. Diesmal betrachten wir die Entwicklung des Suchmarktes, Googles Angriff auf den E-Commerce und mögliche Schattenseiten der Sprachassistenten auf unser Verhalten.

1) Der Markt für Suchmaschinen wird erwachsen

Die Dominanz von Google im Suchmarkt in Frage zu stellen, ist gerade mal wieder schwer angesagt. Der Facebook-Datenschutz-Skandal lässt viele Kritiker des Systems Google hoffen, dass so langsam ein etwas größerer Teil der Onlinegemeinde erkennt, dass „gratis“ im Internet eben nicht „umsonst“ bedeutet, und in der Konsequenz die Nutzerzahlen der Suchmaschine aus Mountain View zumindest nicht mehr weiterwachsen. Unterstützt werden kann diese Vermutung durch den Trend, dass viele Nutzer ihre Shopping-Suche lieber gleich direkt beim Konkurrenten Amazon beginnen. Grund genug also, einmal mehr den Fragen nachzugehen: Verliert Google Marktanteile und wo finden Suchen im Internet überhaupt statt? Licht ins Dunkel bringt eine Studie der amerikanischen Datensammler von Jumpshot. SEO-Veteran Rand Fishkin hat deren Analyse von US-Clickstream-Daten, also Referrer-Daten auf Serverebene und anonymisierte Klickprotokolle aus Webapplikationen der Jahre 2015 bis 2018, interpretiert und ist dabei auf überraschende Erkenntnisse gestoßen. Entgegen dem vermuteten Trend wächst zwar die Summe von Suchanfragen auf Amazon, weil aber zugleich die Gesamtmenge aller Suchanfragen zugenommen hat, lag der Amazon Marktanteil über den gesamten Untersuchungszeitraum bei konstant rund 2,3 Prozent. Eine detaillierte Betrachtung der unterschiedlichen Google-Dienste, wie der Bildersuche oder Google Maps, zeigt, dass diese Spezialdienste aufgrund von Technik- und Designanpassungen Suchanfragen verlieren. Allerdings verschieben sich diese Suchen nur hin zur universellen Google Websuche. Das Unternehmen aus Mountain View ist also erfolgreich darin, unterschiedliche Services für Suchende auf Mobilgeräten und Desktop in seiner zentralen Suchergebnisseite zu integrieren. Googles Marktanteil hat sich daher auch zwischen 2015 und 2018 um 1,5 Punkte auf rund 90 Prozent steigern können, die Konkurrenz scheint komplett abgehängt. Wie bei Amazon hat sich der Such-Share von YouTube, Pinterest, Facebook und Twitter kaum verändert. Auch Microsofts Suchmaschine Bing und Yahoo haben trotz Zuwächsen an Suchanfragen keine Marktanteile gewinnen können. Fishkins Fazit fällt entsprechend pragmatisch aus: Die Suchmaschinenindustrie weise im Jahr 2018 einen hohen Reifegrad auf, in dem sich eine Handvoll starker Player erfolgreich am Markt etablieren konnten. Die Dominanz Googles wird aber auch auf Jahre hinaus nicht in Gefahr kommen, da alle Verfolger gleichermaßen von einem weiter dynamisch wachsenden Suchvolumen profitieren, so der SEO-Experte. Auch wenn der Riese aus Mountain View scheinbar unbeschädigt alle Datenskandale hinter sich lässt, die Tatsache, dass Amazon, Bing & Co. es schaffen, das Tempo des Marktführers erfolgreich mitzugehen, sei die wirklich wichtige Erkenntnis hinter den Jumpshot-Zahlen, so Fishkin. Diese Einschätzung deckt sich im Übrigen auch mit dem Phänomen, dass das Wachstum mobiler Suchanfragen nicht zu Lasten der klassischen Desktopsuchen geht. Vielmehr findet die mobile-Expansion auch als Wachstum statt, während Desktopsuchen auf unverändert hohem Niveau nicht an Relevanz verloren haben.

2) Google will wissen, was Sie letzten Sommer gekauft haben

Im wachsenden Segment der transaktionalen Shopping-Suchanfragen steht Googles Marktmacht auf tönernen Füßen. Zwar hat man in Mountain View erfolgreich Google Shopping als Vermittlungsplattform etablieren können, die gesamte Wertschöpfungskette inklusive des Bezahlvorgangs zu kontrollieren, blieb bislang bis auf zaghafte Vorstöße jedoch ein Wunschdenken. Genauer gesagt: Google weiß, was die Menschen suchen, aber nur Amazon weiß, was Millionen von Menschen wirklich kaufen. Doch das soll sich nun ändern. Mit einem in den USA gestarteten Feature namens „Google Shopping Actions“ kann für Produkte teilnehmender Einzelhändler eine Kaufoption direkt in den Google Suchergebnissen angezeigt werden. Das Feature richtet sich an Einzelhändler, die ihre Produkte über die Google Suche, den lokalen Lieferdienst Google Express und im Google Assistant auf Mobiltelefonen sowie Sprachassistenten verkaufen wollen. Anstatt auf andere Verkaufsplattformen wie Amazon ausweichen zu müssen, kann der Nutzer nun Produkte künftig direkt über Google beziehen. Mit den Google Shopping Actions werde der Einkauf vereinfacht und zentralisiert, so Google. Durch einen zentralen Warenkorb und einen Bezahlvorgang über den Google Account werde das Einkaufserlebnis für Nutzer der Suchmaschine einfach und sicher abgewickelt werden können, kündigte das Unternehmen an. Neben der klassischen Suche über das Google Suchfeld soll der Einkauf auch via Spracheingabe möglich sein, um so im Zeitalter der Sprachassistenten konkurrenzfähig zu sein und zu bleiben. Das mit einer direkten Shoppingfunktion auch Daten einer neuen Qualität in Mountain View gesammelt und individuellen Nutzern zugeordnet werden können, ist natürlich die andere Seite der Medaille.

3) Alexa und das Zeitalter der Verrohung

„Mama! Mach jetzt das Licht im Wohnzimmer an!“. Jedes Kind, das mit diesen Worten seinen Willen durchzusetzen versucht, wird wohl kläglich scheitern. Es ist ein fester Bestandteil der Erziehung, dass man einen Wunsch an eine andere Person höflich als Frage formuliert und das kleine Wörtchen „Bitte“ der mit Abstand wichtigste Teil jeder Willensäußerung zu sein hat. Aber diese eherne Gewissheit ist in Gefahr. Und das nicht aufgrund der vagen Vermutung, dass Kinder heutzutage keinen Anstand mehr von ihren Eltern vermittelt bekommen würden. Als viel stärkerer Katalysator könnte sich erweisen, dass der hochdigitalisierte Nachwuchs schon in jungen Jahren ein ganzes Arsenal willfähriger, widerspruchsloser Helfer und Assistenten kommandiert, die eben nicht mit verletzten Gefühlen oder Abweisung reagieren, wenn man sie im barschen Kommandoton auffordert, etwas sofort in die Tat umzusetzen. Im amerikanischen Magazin „Atlantic“ sorgt sich der Autor Ken Gordon um die Auswirkungen dieser Entwicklung auf kommende Generationen. Zwar seien präzise Kommandos zentraler Teil der Steuerung von Software, es mache aber einen großen Unterschied, ob diese still per Tastatur an ein System übermittelt würden, oder ob man einen vermenschlichten Maschinenassistenten mit Sprachbefehlen kommandiere, so Gordon. Die Gefahr bestehe, dass die Klaglosigkeit, mit der Alexa, Cortana, Siri & Co das Fehlen von „Bitte“ oder „Danke“ hinnähmen, einen emotionalen blinden Fleck in jungen Menschen hinterlassen könnte. Letztlich sei ein Sprachbefehl zwar nur eine andere Form von Programmierung, „die eigene Autorität sprachlich zu artikulieren, und das immer und immer wieder, kann sich auf Dauer aber als problematisch erweisen“, so Gordon. Noch ist es aber zu früh, um eine Prognose zu wagen, wie sich unser Miteinander verändern wird, wenn Künstliche Intelligenz und Roboter fester Bestandteil unserer Familien, Arbeitsteams und letztlich der Gesellschaft werden.

Dieser Beitrag erschien zuerst bei Internet World Business.

Im Online Marketing dreht sich alles um Geschwindigkeit. Daher beschäftigen wir uns im November bereits mit dem neuen Jahr und der Frage, was sich 2018 alles ändern wird. SEO wird beerdigt und Roboter übernehmen die Weltherrschaft? So schlimm wird es nicht kommen, aber ein Fünkchen Wahrheit steckt dahinter. Finden Sie es heraus in den aktuellen SEO-News.

1) Google startet seinen Mobile-First-Index (ein wenig)

Die Einführung des Mobile-First-Index wird das bestimmende Thema für SEOs im Jahre 2018 werden. Die Suchmaschine aus Mountain View hatte bereits vor einem Jahr angekündigt, zukünftig die mobilen Versionen von Webseiten zu erfassen und anstatt der Desktopversion als Referenz für Inhalte und Rankings zu verwenden. Es wird jedoch zu keinem großen Knall an einem bestimmten Tag kommen, die Umstellung werde vielmehr sukzessive und begleitet von umfangreichen Tests durchgeführt, so Google. Nun hat Google-Sprecher John Mueller bekannt gegeben, dass man begonnen habe, erste Webseiten im Testbetrieb auf den Mobilen Index umzustellen. Es sei zwar noch zu früh, von einem offiziellen Start des Regelbetriebs zu sprechen, es handle sich vielmehr um eine erste Testphase. Die von vielen Webmastern Mitte Oktober beobachteten Veränderungen in Rankings stünden jedoch nicht in Verbindung mit diesen Tests, so Mueller.

2) Das SEO Expertenorakel 2018

Der Blick in die SEO-Glaskugel fasziniert die Search-Branche jedes Jahr aufs Neue. Auch für 2018 haben namhafte Experten ihre Voraussagen darüber getroffen, was die dominierenden Trends in den kommenden 12 Monaten sein werden. Einig ist man sich darüber, dass Googles Umstellung auf den Mobile-First-Index, die rasant ansteigende Nutzung von Sprachassistenten und der Siegeszug der künstlichen Intelligenz gravierende Veränderungen auf der technologischen Seite des Searchmarketings mit sich bringen werden. Unternehmen und Webmaster sollten diese Veränderungen genau beobachten. Schnell verschärfen wird sich dagegen der Kampf um den organischen Traffic. Da Google verstärkt selber als Publisher auftritt und mit den sogenannten Featured Snippets zahlreiche Informationen bereits auf seiner eigenen Suchergebnisseite ausliefert, bleiben der Einsatz strukturierter Daten, die tiefgehende Analyse von Inhalten und Nutzerverhalten sowie der Fokus auf eine gute User Experience wichtigste Handlungsfelder, so die Experten. Aaron Wall von SEO Book vermutet sogar, dass Googles Dominanz in der Suche abnehmen wird, und Nutzer verstärkt auf spezialisierte Suchsysteme ausweichen werden. Zusammenfassend wandelt SEO-Experte John Lincoln einen alten Klassiker leicht ab: „Das alte SEO ist tot – Willkommen im neuen Zeitalter. Es wird 100 Mal besser und viel aufregender.“

3) Microsoft und Google setzen auf menschliche Unterstützung

Kaum ein Tag vergeht, an dem nicht von der unaufhaltsamen Ausbreitung der künstlichen Intelligenz und deren Auswirkungen auf das Online Marketing geschrieben wird. Auch die großen Suchanbieter Google und Microsoft setzen auf den Einsatz lernender Maschinen. Aber wenn man genau hinschaut, gibt es auch einen entgegengesetzten Trend: Microsofts Suchmaschine Bing hatte erst im August bekannt gegeben, dass es für die Qualitätssicherung seiner direkten Antworten zukünftig verstärkt auf die Zusammenarbeit mit seinen Nutzern in der „Bing Distill“-Community setzten will (wir berichteten). Anfang Oktober hatte nun auch Google zur zweiten Konferenz seiner „Local Guide“-Community nach San Francisco geladen. Nach Angaben des Konzerns umfasst die organisierte Nutzergemeinschaft bereits rund 50 Millionen Teilnehmer weltweit, die vor allem Einträge auf Google Maps überprüfen und korrigieren. Darüber hinaus werden täglich fast 700.000 neue Einträge von den Local Guides selbst verfasst. Dies sei vor allem in Entwicklungsländern eine wichtige Hilfe, da Informationen von lokalen Geschäften und Dienstleistungen in diesen Ländern nur schwer automatisiert erfasst und überprüft werden könnten, so Google. Ob sich dieser Trend verfestigt, oder der Mensch lediglich eine Brückentechnologie darstellt, bis die künstliche Intelligenz in ihren Fähigkeiten aufgeholt hat, bleibt abzuwarten.

4) Wie künstliche Intelligenz die Suchmaschinenoptimierung verändern wird

Das Search Marketing steht vor großen Veränderungen und im Kern dreht es sich dabei um die Auswirkungen der Integration von künstlicher Intelligenz und maschinellem Lernen in die Technologie der großen Plattformen. In Bezug auf die organische Suche bedeutet dies laut SEO-Veteran und Experte Kristopher Jones, dass Keyword Rankings zukünftig keinen dramatischen Veränderungen mehr unterliegen und dass es keinen übergeordneten, allgemein gültigen Algorithmus mehr geben wird. Vielmehr werden für unterschiedliche Suchanfragen spezialisierte, dynamische Algorithmen in einer Vielzahl von Varianten zum Einsatz kommen. Ziel der Suchanbieter sei es letztlich, mit technologischer Hilfe die genaue Nutzerintention präziser zu erfassen und bessere Ergebnisse liefern zu können, so Jones. Die klassische Keyword-Analyse und technisches SEO würden daher mittelfristig obsolet, meint der Suchexperte. Als Antwort auf die Herausforderungen der künstlichen Intelligenz schlägt Jones eine Kombination aus User Experience Optimierung, strikter Ausrichtung von Inhalten an Nutzerintentionen und den Einsatz natürlicher Sprachmuster für Voice Search vor. Darüber hinaus würden auch Suchmaschinenoptimierer nicht darum umhinkommen, eigene Analysetools auf der Basis künstlicher Intelligenz zu entwickeln. Agenturen und Werbetreibende müssten starke Antworten auf die technologischen Herausforderungen entwickeln, um vom Fortschritt nicht überrollt zu werden.

 

Dieser Beitrag erschien zuerst bei Internet World Business.

Warum es bei Suchmaschinenwerbung künftig mehr auf den Zusammenhang ankommt

Die Zeiten, in denen Suchmaschinenwerbung (SEA) aus Kategorienkonten und generischen Kampagnen mit Tausenden von Ad Groups und Keywords bestand, gehen dem Ende entgegen. Exzessives Keywording erweist sich inzwischen sogar eher als kontraproduktiv. Genauso könnten Sie einem Münchner Maßkrug-Fan die Vorteile eines kleinen Kölschs ans Herz legen – reine Zeitverschwendung. Der maßgebliche Grund für die Abkehr von der absoluten Schlagwortdominanz: Google hat in der Vergangenheit seine Keyword-Optionen kontinuierlich erweitert. Dadurch wird der Kontext, in dem ein Keyword auftaucht, immer relevanter.

Ursprünglich wurde in der Planung von SEA-Kampagnen darauf geachtet, möglichst exakte Schlüsselwörter auszuwählen – auch aufgrund des strengen Regelwerks von Google. Allerdings hat Google das Angebot seiner Keywordoptionen „Exact Match“ und „Phrase Match“ bereits seit geraumer Zeit aufgeweicht. Um potentielle Kunden nicht durch das Raster fallen zu lassen, führen seitdem auch falsch geschriebene Schlüsselwörter, regionale Sprachvarianten (z. B. Tram statt Straßenbahn) oder Abkürzungen zur Auslieferung einer Anzeige. Ziel dieser Maßnahme war es nicht nur, mehr Klicks und damit auch mehr Geld für Google zu generieren.

Schließlich ist jeder User anders und damit auch die Art und Weise, wie er sich ausdrückt und welche Anzeigen er als für sich persönlich relevant erachtet. Hinzukommt ein sich veränderndes Nutzerverhalten durch den steigenden Gebrauch von Sprachassistenten. Bereits über ein Fünftel der Anfragen kommen mittlerweile laut Google auf Android-Smartphones über die Spracheingabe. Die Konsequenz für das SEA-Geschäft: Dynamische Suchanzeigen (DSA) werden immer attraktiver.

Der zentrale Vorteil dynamischer Suchanzeigen: höhere Reichweite, weniger manueller Aufwand

Bei dynamischen Suchanzeigen werden keine Keywords mehr gebucht, stattdessen werden die ausgespielten Texte (halb-)automatisiert erstellt – bis auf Schlüsselwörter, die dezidiert nicht bedient werden sollen (die sogenannten Negatives). Keywords werden in Zusammenhang mit Dynamic Search Ads nur noch im Sinne einer negativen Ausschlussprobe verwendet, also um die Granularität der Kampagnen zu gewähren. Stattdessen gleicht Google bei DSAs Suchanfragen mit den Inhalten einer Webseite oder Datenfeeds ab. Tritt der Fall ein, dass dort relevante Informationen in Bezug auf die Suchanfrage vorhanden sind, steuert Google nach Freigabe der Kampagne – automatisch und ohne gebuchte Keywords – eine Anzeige aus. Dabei wird sowohl die Wortkombination des Anzeigentitels als auch die URL der Zielseite individuell auf Basis des Wortlauts der Suchanfrage generiert.

Ein Beispiel: Ein Nutzer fährt bald in den Urlaub in die Schweiz und möchte sich neue Wanderschuhe besorgen. Er gibt in das Google-Suchfenster die Worte „Wanderschuhe Herren“ ein, woraufhin – auf Basis der Inhalte des Webshops – eine Anzeige mit dem Titel „Wanderschuhe Herren“ generiert wird. Den Text für die Anzeige zieht sich Google aus dem Produktdatenfeed oder den Texten auf der Seite. Weil Datenfeeds oftmals auf den für alle Webshops gleichen Herstellerangaben beruhen, lässt sich ohne Optimierung der Inhalte keine Differenzierung in der Headline der Textanzeige erzielen. Unternehmen müssen deshalb festlegen, welche Art der Argumentation (Preis, Auswahl, Versand, Promotion o. Ä.) ausgewählt werden soll. Die nutzer- und nachfragebezogene Optimierung von Inhalten im Webshop und Datenfeed ist dabei der Schlüssel zu höheren Konversionsraten im Wettbewerb der Suchanzeigen.

Mit den Dynamic Search Ads lassen sich bereits sehr gute Ergebnisse erzielen. Grund dafür: Durch die Ausweitung der Targeting-Optionen auf Datenfeeds und neue Möglichkeiten in der textlichen Ausgestaltung können Anzeigen sehr genau ausgesteuert werden, ohne Google in der Auslieferung zu reduzieren und hochrelevanten Traffic gegebenenfalls nicht zu bekommen bzw. mehr für diesen Traffic zu bezahlen. Je genauer und relevanter die Anzeige – desto wahrscheinlicher auch der Klick des potentiellen Produktkäufers.

Diese Teilautomatisierung im System von Google bedeutet aber ganz und gar nicht, Google einen Freifahrtschein zu erteilen bzw. den Suchmaschinengiganten alleine entscheiden zu lassen, was ausgeliefert wird. Das Gegenteil ist der Fall: Agenturen müssen das komplexe Handwerk der Dynamic Search Ads beherrschen. Das bedeutet: Sie müssen negative Ausschlussproben festlegen, bei denen garantiert keine Werbung ausgeliefert wird. Beim Wanderstiefel-Beispiel von oben könnten das die Kombination mit den Begriffen „Absturz“, „Bergunfall“ o. Ä. sein. Sie müssen thematisch klar strukturierte Kampagnen aufsetzen und Datenfeeds bzw. die Struktur und URLs der Webseite optimieren.

Außerdem ist es notwendig, die Qualität der Kampagnen laufend zu überwachen, die Auslieferung beständig nachzusteuern und Gebote bzw. die Regeln dafür kontinuierlich zu überprüfen. Die Aufgaben auf Agenturseite verschieben sich also.

Besonders die E-Commerce-Branche kann von den dynamischen Suchanzeigen profitieren. Online-Shops verfügen häufig über ein großes und wechselndes Produktangebot und umfangreiche Inhalte wie z. B. Produktdatenfeeds, auf die beim Generieren der dynamischen Anzeigen zurückgegriffen werden kann. Die Kampagnen können – trotz der Freiheiten, die DSAs bieten – gut kontrolliert werden, da die Option besteht, die Anzeigen sowohl auf Basis der ganzen Webseite als auch auf Basis bestimmter Kategorien zu schalten. Und auch einen logistischen Vorteil haben die dynamischen Suchanzeigen: Da sich gerade bei Online-Shops das Angebot in der Regel oft ändert, war bisher bei klassischen Suchmaschinenanzeigen ein hoher Aufwand nötig. Durch das halbautomatische Erstellen der DSAs wird dieser erheblich minimiert.

Die Arbeit von Suchmaschinenwerbern wird sich in Zukunft also ändern: Wir werden nicht wie bisher das Gros der Arbeit in Keywordsets und das Texten von Varianten stecken, sondern werden für unsere SEA-Kampagnen dynamische Suchanzeigen einsetzen, die ihre Infos automatisiert aus Datenfeeds und Webseiten ziehen. Die Aufgabe der Agenturen wird darin bestehen, sich noch viel mehr als heute mit der reinen Kampagnenoptimierung auseinanderzusetzen, um die Qualität und damit den langfristigen Erfolg zu sichern. Darüber hinaus rücken Website-Optimierung und Datenfeed-Optimierung immer mehr in den Mittelpunkt.

Zuerst erschienen bei Adzine

Suchmaschinen machen keine Ferien. Daher präsentieren wir pünktlich zum Sommerloch die wichtigsten SEO-News des Monats Juli – mit neuer Konkurrenz für Amazons Alexa, positiven Neuigkeiten für Bing und natürlich spannenden Google-Updates.

1. Mobile Google Suche ermöglicht direkten Kontakt mit potentiellen Kunden

Nach ersten Tests im November vergangenen Jahres startet Google in den USA nun offiziell die Funktion, dass Nutzer Unternehmen direkt aus den Suchergebnissen auf mobilen Endgeräten kontaktieren können. Nach einer lokalen Suche (z.B. nach einem Restaurant, Frisör etc.) können sie zukünftig per Messaging App direkt das Geschäft ihrer Wahl anschreiben. Für Anbieter ist die neue Funktion über den Google MyBusiness-Account schnell aktiviert. Die Kommunikation läuft entweder über die Google-Messaging-App “Allo” auf Android-Geräten oder direkt in der nativen Messaging-App auf iOS.

2. Videos auf Google und YouTube: Neue Studie erklärt Unterschiede im Ranking

Fokussiere ich mich bei der Optimierung meiner Bewegtbildinhalte auf Google oder YouTube? Eine Hilfestellung bei dieser Entscheidung bietet eine neue Studie aus den USA. Durch eine umfassende Rankinganalyse konnte diese zeigen, dass sich die Algorithmen beider Suchmaschinen aufgrund unterschiedlicher Nutzerintentionen und Monetarisierungsmodelle deutlich unterscheiden. Im Ergebnis ist der Inhalt des Videos entscheidend: Während in der klassischen Google-Suche vor allem informative Inhalte wie Anleitungen, Seminare oder Reviews hohe Sichtbarkeiten erreichen, kann man bei YouTube mit Unterhaltungsinhalten und Serienformaten hohe Rankings erzielen. Interessante Lektüre für jeden SEO.

3. Bing baut Marktanteile bei Desktop-Suchen aus

Für erfolgreiche Suchmaschinenoptimierung ist es wichtig, sich nicht alleine auf den Marktführer Google zu verlassen. Um die eigene Zielgruppe zu erreichen, muss man das vielfältige Spektrum von allgemeinen und spezialisierten Suchsystemen genau beobachten. Dazu zählt natürlich auch Microsofts Suchmaschine Bing, welche nach eigener Aussage eine deutlich ältere und zahlungskräftigere Zielgruppe bedient als Konkurrent Google. Nach neuesten Zahlen der Marktforscher von Comscore konnte Bing, getrieben von einer stärkeren Integration der Suchmaschine im aktuellen Betriebssystem Windows 10 und seiner Sprachsuche „Cortana“, im ersten Halbjahr 2017 seinen europäischen Marktanteil bei Desktopsuchen auf neun Prozent ausbauen, in Deutschland auf zwölf Prozent, in den USA sogar auf 33 Prozent. Je nach Publikum und Zielmarkt lohnt es sich also, das Unternehmen aus Redmond im Blick zu behalten.

4. Bing erweitert Ergebnisanzeige für Markensuchen

Und gleich noch einmal Bing: In der Vergangenheit hat sich gezeigt, dass auch Google sich nicht scheut, neue Features von Microsofts Suchmaschine zu kopieren. Beispielsweise bei der Bildersuche konnte sich Bing mit neuen Darstellungsformen auf Suchergebnisseiten profilieren. Seit kurzem zeigt Bing in den USA bei der Suche nach Markenbegriffen zusätzlich zu den bekannten Sitelinks auch direkte Einstiegspunkte für „Beliebte Inhalte“ in Form von Screenshots und Bildern an. Ob dieses Feature für den Nutzer einen Mehrwert bietet, ist zwar fraglich, der Aufmerksamkeitssteigerung und damit einer potentiell höheren Klickrate dient es ganz bestimmt.

5. Konkurrenz für Google und Amazon: Samsung und Facebook planen eigenen smarten Lautsprecher

Bisher wird der Markt der smarten Lautsprecher vor allem von Amazon und Google kontrolliert, wobei der Handelsriese derzeit mit Echo inklusive Alexa eine dominierende Rolle einnimmt. Jetzt sollen auch Samsung und Facebook den Einstieg in diesen Markt vorbereiten. Samsung setzt dabei auf den in der Entwicklung befindlichen Sprachassistenten Bixby und positioniert sich einmal mehr als Konkurrenz zu Google. Facebook will angeblich im ersten Quartal 2018 ein entsprechendes Angebot auf den Markt bringen. Diese Entwicklungen unterstreichen den Trend, dass SEO angesichts der rasanten (Weiter-)Entwicklungen von Sprachsuche und der vielfältigeren Endgerätelandschaft in Zukunft deutlich an Komplexität zunehmen wird.

Dieser Artikel wurde auf internetworld.de veröffentlicht.

Auf dem Google Global Performance Summit vor einigen Tagen wurden in San Francisco einige spannende Änderungen beim Suchmaschinengiganten aus Kalifornien vorgestellt: Neben Neuerungen bei lokalen Suchanzeigen und wichtigen Erweiterungen des Google Display Netzwerks (GDN) bietet Google ab sofort auch erweiterte Werbe- und Darstellungsmöglichkeiten bei den klassischen Suchanzeigen, sogenannte Extended Text Ads (ETA).

Plan.Net Performance hat die neuen Google-Formate als eine der ersten Agenturen in Deutschland für einen Kunden getestet und dabei aufschlussreiche Erfahrungen sammeln können.

Endlich mehr Platz mit Google Extended Text Ads

25/35/35 war bis dato das festgesetzte Zeichenlimit für Titel, Text und URL, wenn es um die Kreation von Textanzeigen in der Google Suche ging. Diese Begrenzung konnte den Werbungtreibenden bisweilen in arge Bedrängnis bringen konnte, beispielweise wenn man eine „Tierhalterhaftpflichtversicherung“ (33 Zeichen) bewerben wollte. Seit vergangener Woche bietet Google nun ausgewählten Advertisern mehr Freiheit: Zwei Headlines von jeweils 30 Zeichen sowie eine 80 Zeichen umfassende Textzeile bieten ausreichend Raum für den Einsatz von USPs und Call-to-Actions. Die Domain der Anzeigen-URL generiert sich nun zudem automatisch aus der hinterlegten Ziel-URL, dazu kommen zwei Felder für die individuelle Definition des URL-Pfades.

Dass die Anzeigenkreation durch die Erweiterung der Zeichenlimits leichter geworden ist, ist aber nur bedingt richtig. Während Advertiser im alten Format dazu gezwungen waren, sich auf die wichtigsten Informationen zu beschränken, besteht nun Gefahr, unnötige Textfüller zu verwenden und somit vom eigentlichen Kern abzulenken.

Adwords_Änderung

Ist dies ein logischer Ausgleich, nachdem erst vor wenigen Wochen sämtliche Anzeigen in der rechten Spalte neben den Suchergebnissen abgeschaltet wurden? Zugegeben, für diejenigen die sich jahrelang an die Anzeigen auf der rechten Seite sowie die linksbündige Darstellung gewöhnt hatten, sah die Google-Suchergebnisseite seit Februar fast ein bisschen leer aus.

Die erweiterten Textanzeigen sind seit Montag, den 23.05.2016, live. Die ersten Resultate sind vielversprechend und bestätigen den erwarteten Uplift in den Kernmetriken (höhere Klickraten bei leicht gesunkenem CPC). Google selbst prognostiziert einen Uplift der Klickrate von bis zu 20 Prozent. Da das neue Format während der Betaphase nur eingeschränkt ausgespielt wird und bisher nur wenige Advertiser freigeschaltet sind, wird sich der tatsächliche Effekt wohl erst in ein paar Monaten zeigen.

An Googles Strategie, die Premium-Positionen weiter zu stärken, hat sich unterdessen nichts geändert. So werden die erweiterten Textanzeigen, wie andere Erweiterungen auch, verstärkt auf den Premium-Positionen 1 bis 3 ausgespielt. Der Wettbewerb wird nicht geringer.

GDN: Cross-exchange for Display Remarketing Campaigns und Responsive Ads

Über das Google Display Netzwerk (GDN) können Werbungtreibende klassische Display-Anzeigen auf einer Vielzahl von teilnehmenden Websites und Blogs publizieren.  Unter dem Stichwort „Cross-exchange for Display Remarketing Campaigns“ ermöglicht Google seinen Kunden nun, Remarketing-Kampagnen über zusätzliche Inventar-Quellen auszuweiten. Bislang griff Google hierzu lediglich auf die DoubleClick Ad Exchange zurück. DoubleClick gehört ebenfalls zum Google-Konzern.

Ein wesentlicher Unterschied zwischen dem GDN und gängigen Ad Exchanges ist das Gebotsverfahren. Während im GDN meist nur Kosten anfallen, wenn ein Werbemittel auch tatsächlich geklickt wird (CPC – Cost per Click), lassen sich die Ad Exchanges in der Regel für jede Werbeeinblendung (CPM –  Cost per Mille) vergüten. Mit der Ausweitung des GDNs auf zusätzliche Ad Exchanges geht Google also ein gewisses Risiko ein, könnte man meinen. Theoretisch stimmt das auch, zumal Google die Werbeleistung nun höchstwahrscheinlich selber auf CPM-Basis einkauft und seinen Kunden auf CPC-Basis anbietet. Allerdings wäre es nicht Google, wenn sie nicht genau wüssten, was sie tun.

Die neu hinzugewonnene Reichweite beschränkt sich ausschließlich auf Remarketing-Kampagnen. Die hier generierten Klickraten sind erfahrungsgemäß um ein Vielfaches höher als bei Kampagnen mit anderen Targeting-Optionen. CTRs von 0,20 Prozent und höher für Standard-Formate sind nicht unüblich. Mit der höheren zu erwartenden CTR ist Google auch in der Lage entsprechend höhere CPMs zu zahlen, beziehungsweise die eigene Marge zu sichern. Dass dieses Einkaufsmodell sehr erfolgreich seien kann, haben andere Anbieter wie Criteo längst bewiesen.

Folgende Tabelle zeigt den Einfluss der CTR auf das Verhältnis von CTR und CPM:

VerhätlnisCTR-CPM

Die Erweiterung von Remarketing-Kampagnen im GDN auf zusätzliche Ad Exchanges stellt also nicht unbedingt eine Kannibalisierung dar, sondern ist vielmehr eine für Google sinnvolle Ergänzung.

Eine weitere Neuankündigung sind „Responsive Ads for Display“, also Werbeanzeigen, die sich individuell dem jeweiligen Content anpassen, in welchem sie platziert werden. Damit lassen sich im GDN auch Werbeplätze belegen, die keinem der gängigen Format-Standards folgen. Gerade bei Sonderformaten hat sich DoubleClick in der Vergangenheit als nicht sehr flexibler Partner dargestellt. „Responsive Ads for Display“ dürften sich vor allem auf Mobile Devices positiv auswirken und native Werbeintegrationen ermöglichen. Google stellt sich hier Schritt für Schritt für eine „Mobile First“-Welt auf und wird durch die Anpassungen die Reichweite deutlich ausbauen.

Was die Neuerung tatsächlich bringt, wird sich wohl nur durch einen Test ausführlich beantworten lassen. Mit der immer größer werdenden „Spielwiese“  Google wachsen zunehmend jedoch auch die Überschneidungen mit anderen Bereichen des Marketings. Umso wichtiger wird es, alle Maßnahmen im Rahmen einer übergreifenden  Strategie entsprechend zu bewerten und aufeinander abzustimmen.

Mehr Werbemöglichkeiten in der lokalen Suche

Schließlich wurden in San Francisco auch Neuerung für lokale Suchanzeigen, sogenannte (LSA) angekündigt. So wird es für Werbungtreibende zukünftig möglich sein, seine Anzeigen auf mobilen Endgeräte und dem Google Kartendienst optisch stärker hervorzuheben. „Promoted Pins“ setzen das Unternehmenslogo bei der Navigation über Google Maps prominent in Szene. Sucht ein potentieller Kunde unterwegs nach Dienstleistungen oder Produkten und klickt auf einen solchen Pin, sollen zukünftig neben den üblichen Anzeigentexten auch aktuelle Informationen zu Angeboten oder Promotions verfügbar sein. Google reagiert mit dieser Neuerung auf den ungebrochenen Trend zur mobilen Nutzung seiner Dienste. Nach eigenen Aussagen bezieht sich bereits mehr als ein Drittel aller mobilen Suchanfragen direkt auf lokale Dienstleistungen, wie Cafés, Restaurants oder Geschäfte. Darüber hinaus wachsen mobile Anfragen mit lokalem Bezug um 50 Prozent schneller als die Gesamtheit aller mobilen Suchanfragen weltweit.

Google verändert sein Gesicht als Werbeplattform vor dem Hintergrund steigender Konkurrenz und eines sich rasant ändernden Nutzungsverhaltens. Vor allem Facebook hat es verstanden, von der zunehmenden Mobilisierung der Internetnutzung zu profitieren. Für Werbungtreibende und Agenturen bedeutet dies, Entwicklungen und Neuerungen genau zu beobachten und den Mut aufzubringen, Experimente zu wagen und eingefahrene Wege zu hinterfragen.

Warum heißt es eigentlich Suchmaschine und nicht Findemaschine? Warum googeln Leute Google? Warum schreibt jemand aus Media über Search? Allesamt berechtigte Fragen, wobei ich die ersten beiden Fragen links liegen lasse und mich lieber auf die letzte konzentriere. Die Antwort darauf ist ebenso banal wie die eingangs erwähnten Fragen: Weil Search im Grunde nichts anderes ist, als eine werbliche Customer Journey in einem geschlossen Raum, in dem man gut durchlüftet. Wenn jetzt die Fragezeichen noch größer werden, dann kann man schon mal überlegen, ob Google eine Antwort hätte.

Suchmaschinenmarketing ist in der Handhabung viel zu komplex, als dass ich hier als versierter Laie etwas dazu sagen könnte. Es ist eine eigene Wissenschaft, die jedoch grundsätzlich ökonomischen Regeln folgt. Alles dreht sich um AIDA, wenn die Reise von generischen Begriffen zu Brand Keywords geht. Es geht um den Grenznutzen, wenn ich mir die Frage stelle, bis wohin ich mein Budget skalieren sollte. Dabei sind die Kosten des letzten zusätzlichen Click/Sale/etc. die Basis meines zukünftigen Handelns – und nicht der Durchschnitt. Und ja, es geht um das Recht des Stärkeren. Wer bekannter ist, seine Seiten hübsch optimiert hält (hier ist Finanzkraft sicherlich nicht hinderlich) und auch sonst sein Handwerk gut macht, wird überproportional profitieren. Im Grunde ist Suche also Werbeökonomie im Mikrokosmos. Allerdings ist der von mir sogenannte Mikrokosmos inzwischen eine monopolistische Milliardenindustrie.

Doch damit nicht genug: Darüber hinaus ist er einerseits ein Auffangbecken für erzeugtes Interesse durch anderweitige werbliche Maßnahmen und somit als Medium nahe am Kauf. Andererseits ist er – wie oben beschrieben – ein kompletter Sales-Funnel in sich. Diese Vielseitigkeit macht den Kanal so schwer greifbar bzw. lässt ihn nicht so simpel verorten oder auf ein schickes Strategie-Chart packen.

Hinzu kommt, dass es nicht nur eine gute Sales-Story aus Mountain View ist, wenn es heißt, dass auch Non-Brand-Search den Werbungtreibenden zu Diensten sein kann. Diese Botschaft können wir mit Erkenntnissen aus unserem Haus bestätigen, da gerade in diesem Bereich positive Werbewirkungsbeiträge und inkrementelles Umsatzwachstum auf der Habenseite der sympathischen Datenkrake zu verbuchen sind. Ob und inwieweit die Wirkungsbeiträge allerdings effizienter oder effektiver als andere Mediakanäle sind, kann nur im Einzelfall beurteilt werden.

Dabei steckt der Teufel im Detail: Denn ein bloßes Schielen auf Online-Attributionen greift insbesondere bei Multichannel-Anbietern mit hohem Offline-Werbe- und Umsatzanteil deutlich zu kurz und führt schlimmstenfalls zu Fehlallokationen. Hier können nur aufwendige Modellings Abhilfe schaffen, um die inhärente Eigenwirkung von Search von der lediglich Orientierung stiftenden Durchleitfunktion zu trennen.

Wie wird es aber nun zukünftig weitergehen? Der Mensch wird fauler, die Suche noch mobiler (androider) und zunehmend via Spracheingabe genutzt. Dadurch lernt Google mehr über uns, als manchem lieb sein mag. Dennoch wird das Gros der Menschen die Annehmlichkeiten persönlicher Suchergebnisse zu schätzen wissen, womit sich die Relevanz auch bei generischen (Non-Brand-)Suchen erhöhen wird. Das führt letztlich zu einer zielgerichteteren Inspirationsphase und das wiederum sind gute Karten für einen weiteren Bedeutungszuwachs des Kanals. Zudem ist Google ja nicht unbedingt für Stillstand bekannt und man darf sich fröhlich auf weitere Neuerungen einstellen.

Dieser Artikel wurde auf lead-digital.de veröffentlicht.

Google löst Apple laut „BrandZ“-Studie als wertvollste Marke ab – und das ist gut so, denn Konkurrenz belebt bekanntlich das Geschäft und, sind wir ehrlich, es war auch höchste Zeit, dass Apple vom Thron gestoßen wird: Wo sind die großen Innovationen seit der Einführung des iPad? Das Erfolgskonzept von Apple, das Reduzieren auf elementare Features, die Vereinfachung durch Bevormundung, geht heute einfach nicht mehr auf. Und die ehemalige und anfangs sicherlich sogar berechtigte Arroganz im Marktauftritt von Apple kommt inzwischen auch nicht mehr so gut an.

Auch die älteren Zielgruppen haben dazugelernt und wollen nicht dogmatisch an ein geschlossenes System gebunden sein; Apple war das bislang egal. iAds – unterm Strich gescheitert. iRadio – nicht wirklich. B2B-Appstore – noch immer nicht vorhanden. Größere Displays, NFC – bislang verschlafen.
Google agierte hier in jüngster Zeit wesentlich dynamischer, und das nicht nur auf sein Smartphone-Betriebssystem Android oder die Nexus-Geräte bezogen: Google hat viele smarte Services gestartet und sich dabei in die User hineingedacht. Google Music, Google Movies oder Google Now zum Beispiel.

Das alles – zuzüglich der Marktstellung im Bereich Suche und den daraus resultierenden Werbeeinnahmen – sind Punkte, die nun dazu führen, dass Apple überholt wird: Das Ausruhen auf der Poleposition, das Ignorieren von Kundenwünschen, das Fehlen von Innovationen und eine arrogante Kommunikationspolitik gegenüber Endverbrauchern und Business-Partnern führt dazu, dass Apple vom Markt bzw. den Kunden abgestraft wird.
Der Kauf von „Beats“ wird diesen Trend momentan nicht stoppen – ein Kopfhörersystem ist austauschbar. Android verbreitet sich rasant und unterstützt bereits den Trend für „Wearables“. Und auch Microsoft erhöht den Druck mit der zwar langsamen aber doch kontinuierlich zunehmenden Verbreitung von Windows Mobile.
Die Erwartungen an das iPhone 6 werden täglich höher – es bleibt offen, ob Apple dem schlussendlich gerecht werden kann.

Für uns als Agentur bestätigt sich, was wir bereits über einen längeren Zeitraum beobachten konnten: Google ist derzeit der dynamischere und innovativere Partner. Positiv ausgedrückt: Apple, gib endlich wieder Gas!