Beiträge

In immer höherer Schlagzahl fordern neue Technologien, Geräte und Inhaltsformate Suchmaschinenexperten rund um die Welt heraus, aber nun kommt Hilfe von unerwarteter Seite. Mit welchen kleinen Helferlein wir bei der Strategieentwicklung und dem Tagesgeschäft künftig rechnen müssen, verraten wir Ihnen in den SEO-News für den Monat März.

Die Fraggles sind zurück

Die Fraggles sind los und sie erobern in kleinen Schritten die Google-Welt von morgen. Um eine mögliche Verwirrung gleich zu Beginn zu verhindern: Es handelt sich dabei nicht um die kleinen, laut Wikipedia rund 65 cm großen, humanoiden Höhlenbewohner mit einer Vorliebe für Radieschen aus der gleichnamigen Fernsehserie des Jahres 1983.

Die Fraggles, die uns Suchmaschinenoptimierer seit geraumer Zeit beschäftigen, sind zwar auch klein und überaus dynamisch; es handelt sich dabei aber vielmehr um Inhaltsfragmente, die von Google identifiziert, isoliert und in unzähligen Kombinationen über die sich ausbreitende Landschaft von Plattformen, Geräten und Technologien verstreut werden können.

Geprägt hat den Begriff der Fraggles die US-amerikanische Expertin für mobiles Marketing, Cindy Krum aus Denver im US-Bundesstaat Colorado. Entsprechend ihrer Beobachtungen hat sie das Kunstwort aus den Begriffen „Fragment“ und „Handle“ zusammengesetzt. Frei übersetzt könnte man dies mit „Fragmentierte Ansatzpunkte“ ins Deutsche bringen. „Fraggles“ sind laut Krum Googles Antwort auf tiefgreifende Veränderungen im Nutzungsverhalten und dem technologischen Grundgerüst von Webseiten, Progressive Web Apps (PWA), personalisierten Webdiensten und Datenfeeds.

Die Gemeinsamkeit dieser digitalen Assets besteht darin, dass der Großteil ihrer Inhalte lediglich einer einzigen URL zugeordnet ist. Die treibenden Kräfte hinter diesem Trend sind einerseits die Anpassung an die Bedürfnisse des mobilen Zeitalters und andererseits serverbasierte Technologien wie Java Script oder Ajax, die individualisierte Inhalte dynamisch herstellen können.

Google, Bing und Co. passen ihre Indexierung an

In der Folge, so Krum, werde die feste Zuordnung von Inhalt und URL aufgehoben und Suchmaschinen indexierten zunehmend nur noch Inhaltsfragmente einzelner Webseiten, Feeds oder Apps. Anstatt ganze Webseiten Seite für Seite zu indexieren, bestehe die Herausforderung für Google, Bing und Co. vielmehr darin, die relevantesten Inhaltsfragmente aus dem großen Meer von klassischem Html, dynamischem JavaScript und endlosen Strömen von XML zu fischen, so Krum. Der seit rund einem Jahr aktive Mobile First Index von Google ist ihrer Meinung nach nichts anderes, als ein großes Schleppnetz für Fraggles aller Art.

Und tatsächlich macht die Theorie der Fragmente Sinn, wenn man die Entwicklung der Suchergebnisse aller großen Anbieter über die vergangenen zwei Jahre betrachtet. Insbesondere auf mobilen Geräten experimentieren sowohl Google als auch Microsoft mit immer neuen Darstellungsformen und -formaten. Von der integrierten Karten- und Bewertungsanzeige lokaler Suchergebnisse, über die umfassende Abbildung von Menschen, Orten und Markenim Knowledge Graph, bis hin zu konkreten Antworten auf häufig gestellte Fragen im Features Snippet.

Suchmaschinen als universelle Assistenten der Zukunft

Die Suchmaschinen passen ihre Ergebnisanzeige dabei immer genauer an den Nutzungskontext und die Suchintention ihrer User an. Im heraufziehenden Zeitalter der Sprachassistenten wird diese Entwicklung ihre Fortsetzung finden. Der virtuelle Anruf des computergenerierten Google Assistant beim Friseur ist dabei nur der vorläufige Höhepunkt der Ausdifferenzierung von Suchmaschinen zu allgegenwärtigen und universellen Antwort- und Assistenzsystemen.

In solchen Systemen sind Relevanz und Konsumierbarkeit unmittelbar miteinander verknüpft. Auf dem Smartphone, dem Fernseher oder im Auto will und kann niemand mehr auf einer Ergebnisseite nach der passenden Antwort suchen, geschweige denn, sich durch eine Webseite scrollen. Der wirkliche Vorteil des Fraggles-Konzepts ist die Unmittelbarkeit und Flexibilität von kleinen Informationsfragmenten in den unzähligen Kombinationen von Gerätepräferenz und Nutzungssituationen.

Fraggles zeigen die steigende Bedeutung der Customer Journey für Google

Darüber hinaus fügen sich Fraggles nahtlos in Googles strategische Neuausrichtung von Suchergebnissen entlang von User Journeys ein. Zum 20-jährigen Jubiläum der Suchmaschine kündigte Google an, Suchaktivitäten nicht länger als Aneinanderreihung einzelner Fragestellungen begreifen zu wollen, sondern aus Kontext und Historie die möglichst exakte Intention des Nutzers und dessen Position entlang der Customer Journey ermitteln zu wollen. Unterstützt von Künstlicher Intelligenz bedeutet dies, dass Suchergebnisse nun stärker als Konversationspunkt denn als Ergebnisdienst verstanden werden. Auch in diesem Szenario können Fragmente als Teil einer Produktinformation, eines konkreten Kaufangebots oder einer speziellen Fragestellung in der Post-Purchase-Phase zum Einsatz kommen.

Für SEOs bedeutet dies zunächst, einen eigenen Ansatz im Umgang mit Sprachsuche und visuellen Suchanfragen konsequent weiter zu denken. Der Einsatz von Markups für strukturierte Daten und Sprachantworten (Google Speakable) muss zum Standardrepertoire gehören, genau wie die nach Intentionen entlang der Customer Journey organisierte Keyword-Analyse.

Dieser Beitrag wurde zuerst bei Internet World Business veröffentlicht.

SEO News

Der Sommer ist nun endgültig da, die Nächte sind lang und das gibt uns genug Zeit dafür, uns mit den grundsätzlichen Fragen des Lebens zu beschäftigen. Daher geht es in den SEO News des Monats Juli nicht nur um bevorstehende Google-Updates sondern auch um das Quiz der Erkenntnis und die zukünftige Hackordnung auf unserem Planeten.

1) Schnell und sicher zu guten Rankings

Wieder einmal ist Google am Komfort und der Sicherheit der Internetnutzer gelegen. Die Firma, welche nach eigenen Angaben niemals böse sein will, bringt im Juli gleich zwei Updates auf die Straße, von deren Auswirkungen Internetnutzer und Webseitenbetreiber gleichermaßen profitieren sollen. Beide Änderungen sind seit langem angekündigt und in Teilen bereits umgesetzt. In einem ersten Schritt wird die Ladegeschwindigkeit von mobilen Seiten zum offiziellen Rankingfaktor. Bereits in den ersten zehn Grundregeln von Google zur Qualität einer Seite wurde die Ladegeschwindigkeit als Qualitätskriterium gelistet. Es hat nur sehr lange gedauert, bis daraus nun wirklich ein Ranking Faktor wurde. Damals war der Schritt auf Grundlage von Studien erfolgt, wonach sich langsame Webseiten direkt auf deren Clickthrough- und Konversionsraten auswirken. Auch auf den Veranstaltungen der Search-Konferenzsaison 2018 wurde das Argument der Geschwindigkeit von Google-Vertretern wie ein Mantra wiederholt. Mit der sukzessiven Einführung des Mobile First Index (wir berichteten), wird dieser Schritt nun auch für den mobilen Bereich offiziell nachgeholt. Webseitenbetreiber sollten ihre Domains mit den hauseigenen Tools „Page Speed Report“ und „LightHouse“ analysieren und entsprechende Maßnahmen für mobile Webseiten umsetzen, so Google. Neben dem Speed Update macht Google im Juli auch Ernst mit seiner Ankündigung, Webseiten im Chrome Browser als unsicher („non-secure“) zu markieren, welche zum Stichtag nicht auf das verschlüsselte HTTPS-Protokoll umgestellt wurden. Auch dieser Schritt markiert den Endpunkt einer Kampagne, die bereits vor mehr als zwei Jahren begonnen hatte. 2016 hatte Google bereits mit einem kleinen Ranking-Boost für gesicherte Webseiten mit der Aufklärungsarbeit begonnen. Diese war nach eigenen Angaben von Erfolg gekrönt. So wird nach Angaben des Unternehmens mittlerweile rund 68 Prozent des gesamten Traffics im Chrome Browser auf Android und Windows über HTTPS vermittelt. Ein Wert, welcher sicher noch steigerungsfähig ist. Dass Google seine Marktmacht zur Umsetzung technischer Standards mit dem Ziel der Verbesserung der Nutzererfahrung einsetzt ist ein richtiger Schritt. Erst vor dem Hintergrund drohender Traffic- oder Umsatzverluste war so manches Unternehmen bereit, in schnellere Technologie oder sichere Lizenzen zu investieren. Um für zukünftige Entwicklungen gerüstet zu sein, sollte man neue Technologien wie AMP (Accelerated Mobile Pages), mobile Checkoutprozesse, oder Frameworks mit Prerendering zum Vorladen von Inhalten im Auge behalten. Diese Neuerungen können dabei helfen, vor allem die Wahrnehmung der Ladegeschwindigkeit beim User über alle Plattformen hinweg zu verbessern.

2) Das ganze Leben ist ein Quiz

Jetzt wird es kompliziert für alle, die in Mathematik nicht aufgepasst haben. Die späte Erkenntnis, in der Schule zwischen Integralrechnung und Stochastik irgendwann den Faden verloren zu haben, rächt sich im Zeitalter der Algorithmen. Erst recht, für Menschen im Berufsfeld des Online Marketings. Banal gesagt ist so ein Algorithmus lediglich eine wohl geordnete Kette von Entscheidungen zur strukturierten Lösung eines Problems. Die entscheidende Neuerung der letzten Jahre ist das Erscheinen der künstlichen Intelligenz und des Maschinellen Lernens. Heutzutage werden die einzelnen Glieder der Algorithmuskette nicht mehr von Menschen, sondern von Programmen zusammengefügt. Stellt man einer Suchmaschine eine Frage, so wird diese Information entgegengenommen, mittels semantischer Analysen ihr zentrales Informationsobjekt (Entität) und ihre Intention ermittelt, sowie das empirisch passendste Ergebnis (Ranking) im richtigen Kontext (z.B. lokal und mobil) zurückgegeben. Eine Gruppe von sieben Google-Ingenieuren hat auf der ICLR-Konferenz in Vancouver nun ein Forschungsprojekt vorgestellt, in welchem das Frage-Antwort-Prinzip auf den Kopf gestellt wird. Die Forscher nutzten dafür Aufgaben aus der beliebten US-Quizshow „Jeopardy“. In dieser Show müssen die Kandidaten seit 1964 die richtigen Fragen auf komplexe Antworten finden. In ihrer Studie nutzten die Google-Ingenieure dem Umstand, dass bei Jeopardy-Aufgaben Informationsdefizite und Unsicherheiten bestehen, welche erst durch die Formulierung der passenden Frage aufgelöst werden können. Die Frage muss also so lange angepasst werden, bis die vorgegebenen Informationen in ihrer Kombination und ihrem Kontext Sinn machen. Das menschliche Gehirn leistet diese Arbeit in Sekundenschnelle und kann dabei auf einen umfangreichen Satz an intellektuellen und sozialen Hilfsmitteln zurückgreifen. Stellt man aber einer Suchmaschine eine Jeopardy-Frage, wie beispielsweise: „Wie die Bibel war diese islamische Schrift zwischen 1926 und 1956 in der Sowjetunion verboten“, so erhält man keine passende Antwort. Google liefert einen Wikipedia Eintrag über die Sowjetunion, hat also diesen Suchbegriff als Entität, als zentrales Informationsobjekt erkannt, und greift damit zu kurz. Microsofts Suchmaschine Bing kommt der aus menschlicher Sicht naheliegenden Antwort „Was ist der Koran?“ ein wenig näher, kann aber auch kein zufriedenstellendes Ergebnis liefern. An dem kleinen Trick mit den Jeopoardy-Fragen erkennt man, was den Suchmaschinen bis heute die größten Kopfschmerzen bereitet, obwohl es als Qualitätsmerkmal moderner Suchsysteme vermarktet wird: Das präzise Erkennen der Intention des Suchenden. Was SEOs in Unternehmen und Agenturen aufwändig erarbeiten, soll seitens der Suchmaschinen zuverlässig automatisiert werden. Zu diesem Zweck wurde von den Google-Forschern ein System maschinellen Lernens entwickelt, welches mögliche Antworten auf die Jeopardy-Frage in vielen unterschiedlichen Versionen reformuliert, bevor diese an den eigentlichen Kernalgoritmus weitergegeben werden. Die erhaltenen Antworten werden in einem zweiten Schritt aggregiert und mit den Ausgangsfragen abgeglichen. Erst nach diesen zwei Zwischenschritten wird ein Ergebnis präsentiert. Der selbstlernende Algorithmus erhielt im Anschluss die Auflösung, ob seine Antwort richtig oder falsch war. Mit dieser Methode und einem großen Datensatz wurde das KI-System in der Folge trainiert. Das Ergebnis der Trainings war, dass das System gelernt hatte selbstständig vielschichtige Fragen zu bekannten Antworten zu ERSTELLEN. Dieser Meilenstein geht weit darüber hinaus, die durch den Einfluss von Voice und Visual Search immer komplexeren Suchanfragen nur zu VERSTEHEN. Obwohl diese Studie von Google durchgeführt wurde, kann man davon ausgehen, dass auch Microsoft, Yandex und Baidu an entsprechenden Technologien arbeiten, die Erkenntnis der Dinge weiter zu automatisieren und in nicht allzu ferner Zukunft komplexe Inhalte automatisiert und individualisiert zu erstellen. Welche Auswirkungen dies für die Vielfalt und Transparenz im Netz hat, können wir zum jetzigen Zeitpunkt noch gar nicht abschätzen.

3) Google Assistant gibt den Ton an

Passend zum Thema der automatischen Inhaltserstellung gibt es auch noch ein Update zu Googles unheimlicher Präsentation zweier Telefonate zwischen dem Google Assistant und der arbeitenden Bevölkerung. Im Mai hatte der Suchmaschinenriese aus Mountain View auf seiner Entwicklerkonferenz „IO“ ein Video präsentiert, ein welchem eine KI-Erweiterung des Google Assistant namens „Duplex“ selbstständig und menschliches Sprachverhalten perfekt imitierend, Reservierungen in einem Friseursalon und einem Restaurant beauftragt hat. Die menschlichen Gesprächspartner waren während der Unterhaltung offensichtlich nicht in der Lage zu erkennen, dass sie in der Ausübung ihrer Tätigkeit gerade mit einer Maschine interagierten. Die enge Zusammenarbeit mit Robotern und künstlichen Systemen ist die für Industriearbeiter der westlichen Welt schon lange nichts Neues mehr. Nun kommt diese Entwicklung aber auch in der Dienstleistungsgesellschaft und damit in unserem Alltag an. Das Google-Szenario wirkte auf den ersten Blick verblüffend und überzeugend. Mit dem leichten Schauder des Unheimlichen stellten sich aber zugleich auch einige drängende Fragen. Vor allem der Umstand, dass sich Duplex gegenüber den menschlichen Gesprächspartnern nicht als Maschine identifiziert hatte, wurde kontrovers diskutiert. Nun hat Google reagiert und ein neues Video veröffentlicht, in dem sich der Google Assistant zu Beginn des Gesprächs zu erkennen gibt, und ähnlich wie eine Bandansage im Callcenter die Aufzeichnung des Telefonats zur Qualitätssicherung ankündigt. Mit einigem Abstand aber muss man sich fragen, ob dieses Entgegenkommen der künstlichen Intelligenz nicht völlig überflüssig ist. Den Anweisungen des Google Assistant folgt der Restaurantmitarbeiter im Video dann auch brav, ganz als ob er mit einem Menschen sprechen würde, es besteht kein Unterschied. Im Search Marketing versuchen wir, die Intentionen von Zielgruppen und Konsumenten in den von Suchmaschinen erzeugten Inhalten (Ergebnisseiten) im Sinne des eigenen Interesses zu reflektieren. Im Voice Search kommandieren wir eine Maschine mit Befehlen und werden erst einigen Jahren erfahren, wie uns das verändern wird. Und im Google-Zukunftsszenario einer unsichtbaren, allgegenwärtigen Orientierungs-, Lösungs- und Komfortmaschinerie ist der Mensch Objekt und Subjekt der Technologie zugleich. Mit seinen Daten hat er das System geschaffen, gefüttert und trainiert, dann durfte er sich kurz als dessen Herrscher fühlen. Ob wir jedoch noch merken werden, wann es kippt, ob wir den Zeitpunkt der Auslieferung erkennen werden, dass kann und muss nach Lage der Dinge ernsthaft bezweifelt werden.

Dieser Beitrag erschien zuerst bei Internet World Business.

SEO News

Wer denkt, die SEO-News im Juni würden sich nur mit den Auswirkungen von Googles Mobile Index beschäftigen, der irrt. Hier warten wir lieber noch ein wenig ab. Zum Start des Sommers beschäftigen wir uns daher mit der Rückkehr eines mächtigen Tools, den Voraussetzungen für gute SEO-Arbeit und einer Branche in der Fake-News-Falle.

1) Die Rückkehr der Google Bildersuche

Der Bildersturm ist abgeblasen. Nach einer langen juristischen Auseinandersetzung mit der Bildagentur Getty Images hat die Suchmaschine Google entscheidende Veränderungen an seiner populären Bildersuche vorgenommen. Wie positiv sich diese Änderungen auf Websitebetreiber ausgewirkt haben, zeigt eine Studie des amerikanischen Search-Experten Anthony Mueller. Doch von Anfang an. Im Januar 2013 änderte Google die Funktionalität seiner Bildersuche dahingehend, dass sich jeder Nutzer die gefundene Bilddatei direkt anschauen und herunterladen konnte. Entscheidend war dabei, dass die Datei auf Servern der Suchmaschine zwischengespeichert wurde und der Nutzer mit Hilfe des „View Image“-Buttons auf diese Datei zugreifen konnten. Als Konsequenz kam es kaum mehr zu Klicks auf die Seiten von Inhaltsanbietern und Rechteinhabern, der organische Traffic aus der Bildersuche brach teilweise um mehr als 70 Prozent ein. Besonders kritisch war diese Entwicklung für Webseiten, die sich wie beispielsweise bei Mode- oder Möbelhändlern auf das visuell geprägte Feld der Inspiration fokussieren, und mit großem Aufwand zur eine Optimierung ihrer Bildinhalte betrieben hatten. Gerade für E-Commerce-Betreiber brach nicht nur der Traffic sondern auch der Umsatz ein. Drei Jahre später reichte die traditionsreiche Bildagentur Getty Images eine Wettbewerbsklage bei der Europäischen Kommission ein, „Old Europe“ sollte es mal wieder regeln, so schien es. Das Vorgehen von Getty sollte von Erfolg gekrönt sein und so verschwand der „View Image“-Button Anfang 2018 aus der Google Bildersuche. Der interessierte Nutzer muss also die Originalseite besuchen, um auf die Originaldatei zuzugreifen. Aus diesem Grund hat der gut vernetzte Search-Experte Mueller bei rund 60 großen Unternehmen weltweit angefragt, ob sie ein knappes halbes Jahr nach der Umstellung bereits Auswirkungen in ihrem Website-Traffic erkennen können. Das Ergebnis: Im Schnitt sind die Besuche aus der Google-Bildersuche um 37 Prozent gestiegen. Während der Datenlage zufolge Impressions und Rankingpositionen in der Bildersuche relativ stabil geblieben sind, hat sich der Clickthrough bei allen befragten Unternehmen dramatisch erhöht. Auch Conversions aus der Bildersuche sind laut der Studie um rund 10 Prozent gestiegen. Natürlich kann der geschulte User noch immer auf andere Suchmaschinen wie Microsofts „Bing“ oder „Duck Duck Go“ ausweichen. Beide Suchmaschinen hatten den direkten Zugriff auf Bilddateien nie abgeschafft. Aufgrund von Googles Marktmacht sei aber jetzt genau der richtige Zeitpunkt, die Optimierung von Bildinhalten neu zu priorisieren um das neue Wachstumspotential auszuschöpfen, so der Autor. Derzeit stellt die Textsuche noch die dominante Methode zur Informationsbeschaffung dar. Insbesondere im Einzelhandel aber zeichnet sich ein Paradigmenwechsel zur visuellen Suche ab.

2) Erfolgreicher Arbeiten mit smarten SEO-Zielen

Dank des Internets sind Kontakte und Wirkung von Werbung heute so messbar wie nie zuvor in der Geschichte. Die digitale Revolution der Werbung steckt zwar nicht mehr in den Kinderschuhen, am Ende ihrer Entwicklung ist sie aber auch noch lange nicht angekommen. Für digitale Kampagnen ist es ein Leichtes, passende Kennzahlen zur Wirkungs- und Erfolgsmessung zu definieren und technisch keine besondere Herausforderung, entsprechende Kampagnendaten auch zu erhalten. Im Bereich der Suchmaschinenoptimierung stellt sich die Definition von Zielen nicht ganz so einfach dar. So bietet Google für die organische Suche schon seit vielen Jahren keine Performancedaten auf Keyword-Ebene mehr an. Marketingverantwortliche und SEO-Experten stehen daher immer wieder vor der Herausforderung, ein SEO KPI-Konzept zu entwerfen, welches den Optimierungserfolg sichtbar macht und damit vor allem das Buy-In der Budgetverantwortlichen eines Unternehmens für professionelle SEO-Arbeit sichert. Search-Guru Rand Fishkin hat daher ein paar Regeln zur Zielformulierung von SEO-Maßnahmen zusammengestellt, die für Werbetreibende und Unternehmen gleichermaßen interessant sind. Der Kernsatz ist laut Fishkin, dass man die Unternehmensziele an den Anfang eines SEO-Konzeptes stellen muss. Diese übergeordneten, meist monetären Erwartungen bricht man in einem zweiten Schritt auf Marketingziele herunter, z.B. indem man Anforderungen an unterschiedliche Kommunikationskanäle entlang der Customer Journey definiert. Erst an diesem Punkt kommen eigentliche SEO-Ziele ins Blickfeld, die sich in einem letzten Schritt mit Hilfe von nur sechs Metriken abbilden lassen. Diese KPIs sind Rankingpositionen, Besucher aus der organischen Suche (unterteilt in Markensuchen und generische Suchintentionen), die Repräsentation des Unternehmens mit verschiedenen Treffern auf der Ergebnisseite eines Suchbegriffs, Suchvolumen, Linkqualität- und –anzahl, sowie direkter Traffic über Linkreferrals. Sein Konzept testet Fishkin an zwei unterschiedlichen Kundenbeispielen durch. Ein reiner online Schuhversender hat beispielsweise ein recht simples Unternehmensziel, z.B. die Umsätze in der Kernzielgruppe um 30 Prozent zu steigern. Im Marketingplan würde dann festgelegt, dieses Wachstum aufgrund der hohen Wahrscheinlichkeit von Conversions am Ende der Customer Journey zu generieren, so Fishkin. Ein daraus abgeleitetes SEO-Ziel kann als Wachstum des organischen Traffic um 70 Prozent definiert werden. Um dieses Ziel zu erreichen werden dann umsetzbare SEO-Maßnahmen ergriffen und durchgeführt. Dagegen stellt Fishkin ein Beispiel für lokales SEO ohne einen Bezug zu E-Commerce, in welchem ein Theater mehr Besucher aus dem nahen Umland anziehen möchte. In einem Marketingplan würde man nun die Regionen definieren, in denen man das Zielpublikum ansprechen möchte. Der SEO-Plan würde in diesem Fall den Aufbau von lokalen Landingpages, die Nutzung von Theaterkritiken und Blogs sowie weitere inhaltlich und lokal getriebene Maßnahmen umfassen. Der Vorteil einer solchen Top-Down Herangehensweise liegt in der Ausrichtung einzelner, oft schwer fassbarerer SEO-Maßnahmen an den großen Richtlinien im Unternehmen. Mehr Wertschätzung und schnellere Umsetzung für die mühevolle SEO-Arbeit seien der Lohn, so Fishkin.

3) Fake News bedrohen die Existenz der SEO-Branche

Haben Sie jetzt auch einen Schreck bekommen beim Lesen der Überschrift? Gut, denn ihre Aufmerksamkeit zu erlangen, war genau das Ziel der plakativ überspitzten Formulierung. Gewiss, solche reißerischen Überschriften liest man auf SEO-Blogs selten, aber die Konkurrenz der Informationen macht auch vor der Search-Branche nicht halt. Obwohl im Jahresturnus totgesagt („SEO is dead!“), entwickeln sich Angebot und Nachfrage nach Optimierungsdienstleistungen seit über 15 Jahren stetig positiv. Einen großen Anteil daran hat sicherlich die intensive Veröffentlichungstätigkeit der Protagonisten. Aus dem Hobby Einzelner entwickelten sich mit der Zeit zuerst spezialisierte Agenturen, bevor die Suchmaschinenoptimierung dann ihren Weg auch in Inhouse-Teams von Unternehmen fand. Auf diesem Weg wurde permanent getestet, ausprobiert und verglichen, das SEO-Wissen konstant erweitert, und vor allem wurde darüber geschrieben. SEO-Blogs dienen also zum einen als unerschöpfliche Quelle für Informationen, quasi ein globaler SEO-Erfahrungsschatz, die Basis des Erfolgs. Zum anderen sind Artikel zu Search-Themen auch Eigenwerbung und Kundenakquise für Dienstleister und Agenturen. John Müller, bekannter Senior Webmaster Trends Analyst bei Google, hat nun Kritik an einigen SEO-Blogs geübt. Manche würden Meldungen als Click-Bait nutzen. Ausgangspunkt dafür war ein Bericht über einen angeblichen Fehler in einem SEO-Plugin für WordPress. Im Zuge der Diskussion über das Tool wurden auf einigen SEO-Seiten Informationen verkürzt dargestellt und wichtige Stellungnahmen von Google durch John Müller nicht weitergegeben. Dieser forderte nun, dass Artikel zu komplexen Search-Themen alle Perspektiven beleuchten sollten. Es gehe darum, mit ausgewogener Berichterstattung einen langfristigen Wert zu schaffen. Der Versuchung, kurzfristig Klicks erzielen zu wollen, solle man nicht erliegen. Ziel müsse es sein, Wissen zu vermitteln, so Müller. Es wird deutlich, dass sich die Search-Szene selbst den Gesetzen der digitalen Aufmerksamkeit nicht entziehen kann. Geschwindigkeit scheint eine eigene Währung darzustellen und es wird angenommen, dass der Leser im Netz keine Zeit für die Auseinandersetzung mit Details mehr hat. Die eigenen Methoden gefährden damit auch den kollektiven Erfahrungsschatz der Branche. In einer sich immer komplexer entwickelnden Search-Welt darf man gerade den Blick für Details nicht aus den Augen verlieren und muss sich die Zeit für eine gründliche Aufarbeitung der Themen nehmen. Das beispielsweise russische Troll-Farmen mit aktiver SEO-Arbeit die Existenz unserer Demokratie bedrohen, ist ein Thema, welches noch auf seine gründliche Aufarbeitung wartet.

Dieser Beitrag erschien zuerst bei Internet World Business.

SEO News

Der Frühling ist nun endgültig ausgebrochen und treibt selbst den hartgesottensten Online Marketeer in die Sonne vor die Tür. Klar, dass man dabei wichtige Trends und Entwicklungen verpassen könnte. Daher haben wir die wichtigsten SEO-News für den Mai zusammengefasst. Diesmal betrachten wir die Entwicklung des Suchmarktes, Googles Angriff auf den E-Commerce und mögliche Schattenseiten der Sprachassistenten auf unser Verhalten.

1) Der Markt für Suchmaschinen wird erwachsen

Die Dominanz von Google im Suchmarkt in Frage zu stellen, ist gerade mal wieder schwer angesagt. Der Facebook-Datenschutz-Skandal lässt viele Kritiker des Systems Google hoffen, dass so langsam ein etwas größerer Teil der Onlinegemeinde erkennt, dass „gratis“ im Internet eben nicht „umsonst“ bedeutet, und in der Konsequenz die Nutzerzahlen der Suchmaschine aus Mountain View zumindest nicht mehr weiterwachsen. Unterstützt werden kann diese Vermutung durch den Trend, dass viele Nutzer ihre Shopping-Suche lieber gleich direkt beim Konkurrenten Amazon beginnen. Grund genug also, einmal mehr den Fragen nachzugehen: Verliert Google Marktanteile und wo finden Suchen im Internet überhaupt statt? Licht ins Dunkel bringt eine Studie der amerikanischen Datensammler von Jumpshot. SEO-Veteran Rand Fishkin hat deren Analyse von US-Clickstream-Daten, also Referrer-Daten auf Serverebene und anonymisierte Klickprotokolle aus Webapplikationen der Jahre 2015 bis 2018, interpretiert und ist dabei auf überraschende Erkenntnisse gestoßen. Entgegen dem vermuteten Trend wächst zwar die Summe von Suchanfragen auf Amazon, weil aber zugleich die Gesamtmenge aller Suchanfragen zugenommen hat, lag der Amazon Marktanteil über den gesamten Untersuchungszeitraum bei konstant rund 2,3 Prozent. Eine detaillierte Betrachtung der unterschiedlichen Google-Dienste, wie der Bildersuche oder Google Maps, zeigt, dass diese Spezialdienste aufgrund von Technik- und Designanpassungen Suchanfragen verlieren. Allerdings verschieben sich diese Suchen nur hin zur universellen Google Websuche. Das Unternehmen aus Mountain View ist also erfolgreich darin, unterschiedliche Services für Suchende auf Mobilgeräten und Desktop in seiner zentralen Suchergebnisseite zu integrieren. Googles Marktanteil hat sich daher auch zwischen 2015 und 2018 um 1,5 Punkte auf rund 90 Prozent steigern können, die Konkurrenz scheint komplett abgehängt. Wie bei Amazon hat sich der Such-Share von YouTube, Pinterest, Facebook und Twitter kaum verändert. Auch Microsofts Suchmaschine Bing und Yahoo haben trotz Zuwächsen an Suchanfragen keine Marktanteile gewinnen können. Fishkins Fazit fällt entsprechend pragmatisch aus: Die Suchmaschinenindustrie weise im Jahr 2018 einen hohen Reifegrad auf, in dem sich eine Handvoll starker Player erfolgreich am Markt etablieren konnten. Die Dominanz Googles wird aber auch auf Jahre hinaus nicht in Gefahr kommen, da alle Verfolger gleichermaßen von einem weiter dynamisch wachsenden Suchvolumen profitieren, so der SEO-Experte. Auch wenn der Riese aus Mountain View scheinbar unbeschädigt alle Datenskandale hinter sich lässt, die Tatsache, dass Amazon, Bing & Co. es schaffen, das Tempo des Marktführers erfolgreich mitzugehen, sei die wirklich wichtige Erkenntnis hinter den Jumpshot-Zahlen, so Fishkin. Diese Einschätzung deckt sich im Übrigen auch mit dem Phänomen, dass das Wachstum mobiler Suchanfragen nicht zu Lasten der klassischen Desktopsuchen geht. Vielmehr findet die mobile-Expansion auch als Wachstum statt, während Desktopsuchen auf unverändert hohem Niveau nicht an Relevanz verloren haben.

2) Google will wissen, was Sie letzten Sommer gekauft haben

Im wachsenden Segment der transaktionalen Shopping-Suchanfragen steht Googles Marktmacht auf tönernen Füßen. Zwar hat man in Mountain View erfolgreich Google Shopping als Vermittlungsplattform etablieren können, die gesamte Wertschöpfungskette inklusive des Bezahlvorgangs zu kontrollieren, blieb bislang bis auf zaghafte Vorstöße jedoch ein Wunschdenken. Genauer gesagt: Google weiß, was die Menschen suchen, aber nur Amazon weiß, was Millionen von Menschen wirklich kaufen. Doch das soll sich nun ändern. Mit einem in den USA gestarteten Feature namens „Google Shopping Actions“ kann für Produkte teilnehmender Einzelhändler eine Kaufoption direkt in den Google Suchergebnissen angezeigt werden. Das Feature richtet sich an Einzelhändler, die ihre Produkte über die Google Suche, den lokalen Lieferdienst Google Express und im Google Assistant auf Mobiltelefonen sowie Sprachassistenten verkaufen wollen. Anstatt auf andere Verkaufsplattformen wie Amazon ausweichen zu müssen, kann der Nutzer nun Produkte künftig direkt über Google beziehen. Mit den Google Shopping Actions werde der Einkauf vereinfacht und zentralisiert, so Google. Durch einen zentralen Warenkorb und einen Bezahlvorgang über den Google Account werde das Einkaufserlebnis für Nutzer der Suchmaschine einfach und sicher abgewickelt werden können, kündigte das Unternehmen an. Neben der klassischen Suche über das Google Suchfeld soll der Einkauf auch via Spracheingabe möglich sein, um so im Zeitalter der Sprachassistenten konkurrenzfähig zu sein und zu bleiben. Das mit einer direkten Shoppingfunktion auch Daten einer neuen Qualität in Mountain View gesammelt und individuellen Nutzern zugeordnet werden können, ist natürlich die andere Seite der Medaille.

3) Alexa und das Zeitalter der Verrohung

„Mama! Mach jetzt das Licht im Wohnzimmer an!“. Jedes Kind, das mit diesen Worten seinen Willen durchzusetzen versucht, wird wohl kläglich scheitern. Es ist ein fester Bestandteil der Erziehung, dass man einen Wunsch an eine andere Person höflich als Frage formuliert und das kleine Wörtchen „Bitte“ der mit Abstand wichtigste Teil jeder Willensäußerung zu sein hat. Aber diese eherne Gewissheit ist in Gefahr. Und das nicht aufgrund der vagen Vermutung, dass Kinder heutzutage keinen Anstand mehr von ihren Eltern vermittelt bekommen würden. Als viel stärkerer Katalysator könnte sich erweisen, dass der hochdigitalisierte Nachwuchs schon in jungen Jahren ein ganzes Arsenal willfähriger, widerspruchsloser Helfer und Assistenten kommandiert, die eben nicht mit verletzten Gefühlen oder Abweisung reagieren, wenn man sie im barschen Kommandoton auffordert, etwas sofort in die Tat umzusetzen. Im amerikanischen Magazin „Atlantic“ sorgt sich der Autor Ken Gordon um die Auswirkungen dieser Entwicklung auf kommende Generationen. Zwar seien präzise Kommandos zentraler Teil der Steuerung von Software, es mache aber einen großen Unterschied, ob diese still per Tastatur an ein System übermittelt würden, oder ob man einen vermenschlichten Maschinenassistenten mit Sprachbefehlen kommandiere, so Gordon. Die Gefahr bestehe, dass die Klaglosigkeit, mit der Alexa, Cortana, Siri & Co das Fehlen von „Bitte“ oder „Danke“ hinnähmen, einen emotionalen blinden Fleck in jungen Menschen hinterlassen könnte. Letztlich sei ein Sprachbefehl zwar nur eine andere Form von Programmierung, „die eigene Autorität sprachlich zu artikulieren, und das immer und immer wieder, kann sich auf Dauer aber als problematisch erweisen“, so Gordon. Noch ist es aber zu früh, um eine Prognose zu wagen, wie sich unser Miteinander verändern wird, wenn Künstliche Intelligenz und Roboter fester Bestandteil unserer Familien, Arbeitsteams und letztlich der Gesellschaft werden.

Dieser Beitrag erschien zuerst bei Internet World Business.

Das Thema Sicherheit bewegt die Menschen nicht nur bei der Bundestagswahl, sondern natürlich auch im Internet. Und genau hier lässt der Suchmaschinenriese Google jetzt seine Marktmacht spielen. Außerdem in den SEO-News: Trends und Neuigkeiten im B2B-Geschäft und auf dem chinesischen Markt, das Ende einer langen Beziehung sowie ein frischer Blick auf die Grundsatzfrage: Brauche ich eigentlich noch Backlinks für den SEO-Erfolg?

1) Google entzieht Symantec das Vertrauen

Google hat angekündigt, dass man den Sicherheitszertifikaten von Symantec das Vertrauen entziehen und diese Schritt für Schritt aus dem Chrome-Browser entfernen wird. Mit einem Marktanteil von rund 40 Prozent ist Symantec der bisher größte Aussteller von Sicherheitszertifikaten, z.B. zur Verifizierung gesicherter SSL-Verbindungen. Google kritisiert Symantec nun für angebliche Qualitätsmängel und wird den Produkten ab März 2018 schrittweise das Vertrauen entziehen. Nutzer des populären Chrome-Browsers werden Webseiten mit den betroffenen Zertifikaten dann nicht mehr direkt aufrufen können. Webmaster sind nun aufgefordert, schnellstmöglich eine Alternative für Symantec-Zertifikate zu implementieren.

2) Großes SEO Potential im B2B

Wachstum im organischen E-Commerce wird mit steigender Konkurrenz immer kostspieliger und aufwendiger. Kein Einzelhändler im B2C-Bereich kann es sich heutzutage noch leisten, ohne eine SEO-Strategie in den Wettbewerb zu gehen. Abseits des Massenmarktes aber birgt der B2B-Bereich noch großes Potential für Agenturen und Werbetreibende, welches sich mit vergleichsweise geringem Aufwand aktivieren lässt. SEO-Urgestein Rand Fishkin hat auf einer Konferenz in Portland sechs Tipps für erfolgreiches B2B-SEO gegeben: So kann man gerade bei Themen mit niedrigem Suchvolumen eine hohe Sichtbarkeit erreichen, wenn man Inhalte gezielt entlang des weniger durch Preis als durch Angebotseigenschaften charakterisierten Kaufentscheidungsprozesses entwickelt. So lassen sich markengetriebene Mehrfachrankings erreichen. Auch die Nutzung reichweitenstarker Portale wie Quora, Slideshare oder Linkedin bietet sich an, um hochspezialisierte Inhalte wirksam zu platzieren. Darüber hinaus lohnt die Ansprache branchenspezifischer Multiplikatoren, von denen es oft nur wenige gibt, die aber über eine vergleichsweise hohe Reichweite in der Zielgruppe verfügen. Am wichtigsten ist aber wie immer bei der Suchmaschinenoptimierung: ein langer Atem.

3) 2017: Das ist neu bei der chinesischen Suchmaschine Baidu

Zu großen Teilen kopiert Baidu, mit rund 77 Prozent Marktführer im chinesischen Suchgeschäft, die Strategien seiner amerikanischen Konkurrenz. So setzen die Chinesen mit ihrer Version der mobiloptimierten Webseiten MIP (Mobile Instant Pages) auf das gleiche Pferd wie Google mit AMP (Accelerated Mobile Pages). Auch die bevorzugte Ausspielung gesicherter HTTPS-Webseiten und die relativ neue Technologie der Progressive Web Apps (PWA) unterstreichen, dass sich Baidu als Technologieführer verstehen will. Neben einem Algorithmus-Update namens „Hurricane“, welches illegal verwendete, geschützte Inhalte abstraft, hat sich Baidu darüber hinaus auch noch einen neuen Crawler spendiert, der Layout und UX der untersuchten Seiten besser erfassen kann. Praktische SEO-Tipps für den chinesischen Markt gibt es auch: Eine Webseite sollte nicht schwerer als 128KB und URLs möglichst unter 76 Zeichen lang sein. Chinesische Schriftzeichen in der URL sollte man daher vermeiden. 404-Seiten kann man, anders als bei Google oder Bing, per XML-Datei direkt deindexieren lassen und neue Domainendungen, wie .TOP oder .WIN kategorisiert Baidu als Spam.

4) Apples Siri liebt jetzt Google (nicht mehr Bing)

Wer zukünftig auf seinem iPhone mit Siri eine Suche durchführt, wird nicht mehr auf Suchergebnisse von Microsoft Bing verwiesen, sobald keine Voice-Antwort des Apple Sprachassistenten zur Verfügung steht. Der Konzern aus dem kalifornischen Cupertino begründete den Wechsel des iPhone-Suchproviders mit der Vereinheitlichung von Suchtechnologien zwischen seinen Plattformen iPhone (Siri), Mac (Spotlight) und der internen Suche auf iOS. Die angezeigten Ergebnisse werden Webseitenlinks und Videos umfassen, so Apple. Microsofts Suchmaschine Bing hatte seit der Markteinführung des iPhone 4s im Jahre 2011 als Standardsuche hinter der Sprachassistentin Siri gedient.

5) Bing: Links noch immer ein wichtiger Rankingfaktor

Am Anfang war der Link. Mit Google begann im Jahre 1997 das Zeitalter des PageRanks, der Gewichtung einer Webseite nach Anzahl und Qualität ihrer Verlinkungsstruktur. Für viele Jahre war ein guter Backlink daher der Goldstandard im SEO-Geschäft. Unglücklicherweise nutze die Optimierungsbranche das Manipulationspotential dieser Technologie leidlich aus, so dass Suchmaschinen ab dem Jahr 2012 damit begannen, die Bewertung von Links als Rankingfaktor herunterzufahren und durch weniger manipulierbare Messgrößen, wie Social Signals, Clickstream Data oder Engagement Data zu ersetzen. Doch die Zeit der Backlinks ist noch lange nicht vorbei. Microsoft bestätigte nun, dass man mit seiner Suchmaschine Bing noch nicht an dem Punkt sei, auf Backlinks als Rankingfaktor verzichten zu können. Ebenso wie bei der Konkurrenz von Google seien ausgehende Verweise mit Nutzwert von Seiten mit hoher Autorität unverzichtbar, so Microsoft.

Dieser Beitrag erschien zuerst bei Internet World Business.