Beiträge

Der Sommer ist nun endgültig da, die Nächte sind lang und das gibt uns genug Zeit dafür, uns mit den grundsätzlichen Fragen des Lebens zu beschäftigen. Daher geht es in den SEO News des Monats Juli nicht nur um bevorstehende Google-Updates sondern auch um das Quiz der Erkenntnis und die zukünftige Hackordnung auf unserem Planeten.

1) Schnell und sicher zu guten Rankings

Wieder einmal ist Google am Komfort und der Sicherheit der Internetnutzer gelegen. Die Firma, welche nach eigenen Angaben niemals böse sein will, bringt im Juli gleich zwei Updates auf die Straße, von deren Auswirkungen Internetnutzer und Webseitenbetreiber gleichermaßen profitieren sollen. Beide Änderungen sind seit langem angekündigt und in Teilen bereits umgesetzt. In einem ersten Schritt wird die Ladegeschwindigkeit von mobilen Seiten zum offiziellen Rankingfaktor. Bereits in den ersten zehn Grundregeln von Google zur Qualität einer Seite wurde die Ladegeschwindigkeit als Qualitätskriterium gelistet. Es hat nur sehr lange gedauert, bis daraus nun wirklich ein Ranking Faktor wurde. Damals war der Schritt auf Grundlage von Studien erfolgt, wonach sich langsame Webseiten direkt auf deren Clickthrough- und Konversionsraten auswirken. Auch auf den Veranstaltungen der Search-Konferenzsaison 2018 wurde das Argument der Geschwindigkeit von Google-Vertretern wie ein Mantra wiederholt. Mit der sukzessiven Einführung des Mobile First Index (wir berichteten), wird dieser Schritt nun auch für den mobilen Bereich offiziell nachgeholt. Webseitenbetreiber sollten ihre Domains mit den hauseigenen Tools „Page Speed Report“ und „LightHouse“ analysieren und entsprechende Maßnahmen für mobile Webseiten umsetzen, so Google. Neben dem Speed Update macht Google im Juli auch Ernst mit seiner Ankündigung, Webseiten im Chrome Browser als unsicher („non-secure“) zu markieren, welche zum Stichtag nicht auf das verschlüsselte HTTPS-Protokoll umgestellt wurden. Auch dieser Schritt markiert den Endpunkt einer Kampagne, die bereits vor mehr als zwei Jahren begonnen hatte. 2016 hatte Google bereits mit einem kleinen Ranking-Boost für gesicherte Webseiten mit der Aufklärungsarbeit begonnen. Diese war nach eigenen Angaben von Erfolg gekrönt. So wird nach Angaben des Unternehmens mittlerweile rund 68 Prozent des gesamten Traffics im Chrome Browser auf Android und Windows über HTTPS vermittelt. Ein Wert, welcher sicher noch steigerungsfähig ist. Dass Google seine Marktmacht zur Umsetzung technischer Standards mit dem Ziel der Verbesserung der Nutzererfahrung einsetzt ist ein richtiger Schritt. Erst vor dem Hintergrund drohender Traffic- oder Umsatzverluste war so manches Unternehmen bereit, in schnellere Technologie oder sichere Lizenzen zu investieren. Um für zukünftige Entwicklungen gerüstet zu sein, sollte man neue Technologien wie AMP (Accelerated Mobile Pages), mobile Checkoutprozesse, oder Frameworks mit Prerendering zum Vorladen von Inhalten im Auge behalten. Diese Neuerungen können dabei helfen, vor allem die Wahrnehmung der Ladegeschwindigkeit beim User über alle Plattformen hinweg zu verbessern.

2) Das ganze Leben ist ein Quiz

Jetzt wird es kompliziert für alle, die in Mathematik nicht aufgepasst haben. Die späte Erkenntnis, in der Schule zwischen Integralrechnung und Stochastik irgendwann den Faden verloren zu haben, rächt sich im Zeitalter der Algorithmen. Erst recht, für Menschen im Berufsfeld des Online Marketings. Banal gesagt ist so ein Algorithmus lediglich eine wohl geordnete Kette von Entscheidungen zur strukturierten Lösung eines Problems. Die entscheidende Neuerung der letzten Jahre ist das Erscheinen der künstlichen Intelligenz und des Maschinellen Lernens. Heutzutage werden die einzelnen Glieder der Algorithmuskette nicht mehr von Menschen, sondern von Programmen zusammengefügt. Stellt man einer Suchmaschine eine Frage, so wird diese Information entgegengenommen, mittels semantischer Analysen ihr zentrales Informationsobjekt (Entität) und ihre Intention ermittelt, sowie das empirisch passendste Ergebnis (Ranking) im richtigen Kontext (z.B. lokal und mobil) zurückgegeben. Eine Gruppe von sieben Google-Ingenieuren hat auf der ICLR-Konferenz in Vancouver nun ein Forschungsprojekt vorgestellt, in welchem das Frage-Antwort-Prinzip auf den Kopf gestellt wird. Die Forscher nutzten dafür Aufgaben aus der beliebten US-Quizshow „Jeopardy“. In dieser Show müssen die Kandidaten seit 1964 die richtigen Fragen auf komplexe Antworten finden. In ihrer Studie nutzten die Google-Ingenieure dem Umstand, dass bei Jeopardy-Aufgaben Informationsdefizite und Unsicherheiten bestehen, welche erst durch die Formulierung der passenden Frage aufgelöst werden können. Die Frage muss also so lange angepasst werden, bis die vorgegebenen Informationen in ihrer Kombination und ihrem Kontext Sinn machen. Das menschliche Gehirn leistet diese Arbeit in Sekundenschnelle und kann dabei auf einen umfangreichen Satz an intellektuellen und sozialen Hilfsmitteln zurückgreifen. Stellt man aber einer Suchmaschine eine Jeopardy-Frage, wie beispielsweise: „Wie die Bibel war diese islamische Schrift zwischen 1926 und 1956 in der Sowjetunion verboten“, so erhält man keine passende Antwort. Google liefert einen Wikipedia Eintrag über die Sowjetunion, hat also diesen Suchbegriff als Entität, als zentrales Informationsobjekt erkannt, und greift damit zu kurz. Microsofts Suchmaschine Bing kommt der aus menschlicher Sicht naheliegenden Antwort „Was ist der Koran?“ ein wenig näher, kann aber auch kein zufriedenstellendes Ergebnis liefern. An dem kleinen Trick mit den Jeopoardy-Fragen erkennt man, was den Suchmaschinen bis heute die größten Kopfschmerzen bereitet, obwohl es als Qualitätsmerkmal moderner Suchsysteme vermarktet wird: Das präzise Erkennen der Intention des Suchenden. Was SEOs in Unternehmen und Agenturen aufwändig erarbeiten, soll seitens der Suchmaschinen zuverlässig automatisiert werden. Zu diesem Zweck wurde von den Google-Forschern ein System maschinellen Lernens entwickelt, welches mögliche Antworten auf die Jeopardy-Frage in vielen unterschiedlichen Versionen reformuliert, bevor diese an den eigentlichen Kernalgoritmus weitergegeben werden. Die erhaltenen Antworten werden in einem zweiten Schritt aggregiert und mit den Ausgangsfragen abgeglichen. Erst nach diesen zwei Zwischenschritten wird ein Ergebnis präsentiert. Der selbstlernende Algorithmus erhielt im Anschluss die Auflösung, ob seine Antwort richtig oder falsch war. Mit dieser Methode und einem großen Datensatz wurde das KI-System in der Folge trainiert. Das Ergebnis der Trainings war, dass das System gelernt hatte selbstständig vielschichtige Fragen zu bekannten Antworten zu ERSTELLEN. Dieser Meilenstein geht weit darüber hinaus, die durch den Einfluss von Voice und Visual Search immer komplexeren Suchanfragen nur zu VERSTEHEN. Obwohl diese Studie von Google durchgeführt wurde, kann man davon ausgehen, dass auch Microsoft, Yandex und Baidu an entsprechenden Technologien arbeiten, die Erkenntnis der Dinge weiter zu automatisieren und in nicht allzu ferner Zukunft komplexe Inhalte automatisiert und individualisiert zu erstellen. Welche Auswirkungen dies für die Vielfalt und Transparenz im Netz hat, können wir zum jetzigen Zeitpunkt noch gar nicht abschätzen.

3) Google Assistant gibt den Ton an

Passend zum Thema der automatischen Inhaltserstellung gibt es auch noch ein Update zu Googles unheimlicher Präsentation zweier Telefonate zwischen dem Google Assistant und der arbeitenden Bevölkerung. Im Mai hatte der Suchmaschinenriese aus Mountain View auf seiner Entwicklerkonferenz „IO“ ein Video präsentiert, ein welchem eine KI-Erweiterung des Google Assistant namens „Duplex“ selbstständig und menschliches Sprachverhalten perfekt imitierend, Reservierungen in einem Friseursalon und einem Restaurant beauftragt hat. Die menschlichen Gesprächspartner waren während der Unterhaltung offensichtlich nicht in der Lage zu erkennen, dass sie in der Ausübung ihrer Tätigkeit gerade mit einer Maschine interagierten. Die enge Zusammenarbeit mit Robotern und künstlichen Systemen ist die für Industriearbeiter der westlichen Welt schon lange nichts Neues mehr. Nun kommt diese Entwicklung aber auch in der Dienstleistungsgesellschaft und damit in unserem Alltag an. Das Google-Szenario wirkte auf den ersten Blick verblüffend und überzeugend. Mit dem leichten Schauder des Unheimlichen stellten sich aber zugleich auch einige drängende Fragen. Vor allem der Umstand, dass sich Duplex gegenüber den menschlichen Gesprächspartnern nicht als Maschine identifiziert hatte, wurde kontrovers diskutiert. Nun hat Google reagiert und ein neues Video veröffentlicht, in dem sich der Google Assistant zu Beginn des Gesprächs zu erkennen gibt, und ähnlich wie eine Bandansage im Callcenter die Aufzeichnung des Telefonats zur Qualitätssicherung ankündigt. Mit einigem Abstand aber muss man sich fragen, ob dieses Entgegenkommen der künstlichen Intelligenz nicht völlig überflüssig ist. Den Anweisungen des Google Assistant folgt der Restaurantmitarbeiter im Video dann auch brav, ganz als ob er mit einem Menschen sprechen würde, es besteht kein Unterschied. Im Search Marketing versuchen wir, die Intentionen von Zielgruppen und Konsumenten in den von Suchmaschinen erzeugten Inhalten (Ergebnisseiten) im Sinne des eigenen Interesses zu reflektieren. Im Voice Search kommandieren wir eine Maschine mit Befehlen und werden erst einigen Jahren erfahren, wie uns das verändern wird. Und im Google-Zukunftsszenario einer unsichtbaren, allgegenwärtigen Orientierungs-, Lösungs- und Komfortmaschinerie ist der Mensch Objekt und Subjekt der Technologie zugleich. Mit seinen Daten hat er das System geschaffen, gefüttert und trainiert, dann durfte er sich kurz als dessen Herrscher fühlen. Ob wir jedoch noch merken werden, wann es kippt, ob wir den Zeitpunkt der Auslieferung erkennen werden, dass kann und muss nach Lage der Dinge ernsthaft bezweifelt werden.

Dieser Beitrag erschien zuerst bei Internet World Business.

Das Thema Sicherheit bewegt die Menschen nicht nur bei der Bundestagswahl, sondern natürlich auch im Internet. Und genau hier lässt der Suchmaschinenriese Google jetzt seine Marktmacht spielen. Außerdem in den SEO-News: Trends und Neuigkeiten im B2B-Geschäft und auf dem chinesischen Markt, das Ende einer langen Beziehung sowie ein frischer Blick auf die Grundsatzfrage: Brauche ich eigentlich noch Backlinks für den SEO-Erfolg?

1) Google entzieht Symantec das Vertrauen

Google hat angekündigt, dass man den Sicherheitszertifikaten von Symantec das Vertrauen entziehen und diese Schritt für Schritt aus dem Chrome-Browser entfernen wird. Mit einem Marktanteil von rund 40 Prozent ist Symantec der bisher größte Aussteller von Sicherheitszertifikaten, z.B. zur Verifizierung gesicherter SSL-Verbindungen. Google kritisiert Symantec nun für angebliche Qualitätsmängel und wird den Produkten ab März 2018 schrittweise das Vertrauen entziehen. Nutzer des populären Chrome-Browsers werden Webseiten mit den betroffenen Zertifikaten dann nicht mehr direkt aufrufen können. Webmaster sind nun aufgefordert, schnellstmöglich eine Alternative für Symantec-Zertifikate zu implementieren.

2) Großes SEO Potential im B2B

Wachstum im organischen E-Commerce wird mit steigender Konkurrenz immer kostspieliger und aufwendiger. Kein Einzelhändler im B2C-Bereich kann es sich heutzutage noch leisten, ohne eine SEO-Strategie in den Wettbewerb zu gehen. Abseits des Massenmarktes aber birgt der B2B-Bereich noch großes Potential für Agenturen und Werbetreibende, welches sich mit vergleichsweise geringem Aufwand aktivieren lässt. SEO-Urgestein Rand Fishkin hat auf einer Konferenz in Portland sechs Tipps für erfolgreiches B2B-SEO gegeben: So kann man gerade bei Themen mit niedrigem Suchvolumen eine hohe Sichtbarkeit erreichen, wenn man Inhalte gezielt entlang des weniger durch Preis als durch Angebotseigenschaften charakterisierten Kaufentscheidungsprozesses entwickelt. So lassen sich markengetriebene Mehrfachrankings erreichen. Auch die Nutzung reichweitenstarker Portale wie Quora, Slideshare oder Linkedin bietet sich an, um hochspezialisierte Inhalte wirksam zu platzieren. Darüber hinaus lohnt die Ansprache branchenspezifischer Multiplikatoren, von denen es oft nur wenige gibt, die aber über eine vergleichsweise hohe Reichweite in der Zielgruppe verfügen. Am wichtigsten ist aber wie immer bei der Suchmaschinenoptimierung: ein langer Atem.

3) 2017: Das ist neu bei der chinesischen Suchmaschine Baidu

Zu großen Teilen kopiert Baidu, mit rund 77 Prozent Marktführer im chinesischen Suchgeschäft, die Strategien seiner amerikanischen Konkurrenz. So setzen die Chinesen mit ihrer Version der mobiloptimierten Webseiten MIP (Mobile Instant Pages) auf das gleiche Pferd wie Google mit AMP (Accelerated Mobile Pages). Auch die bevorzugte Ausspielung gesicherter HTTPS-Webseiten und die relativ neue Technologie der Progressive Web Apps (PWA) unterstreichen, dass sich Baidu als Technologieführer verstehen will. Neben einem Algorithmus-Update namens „Hurricane“, welches illegal verwendete, geschützte Inhalte abstraft, hat sich Baidu darüber hinaus auch noch einen neuen Crawler spendiert, der Layout und UX der untersuchten Seiten besser erfassen kann. Praktische SEO-Tipps für den chinesischen Markt gibt es auch: Eine Webseite sollte nicht schwerer als 128KB und URLs möglichst unter 76 Zeichen lang sein. Chinesische Schriftzeichen in der URL sollte man daher vermeiden. 404-Seiten kann man, anders als bei Google oder Bing, per XML-Datei direkt deindexieren lassen und neue Domainendungen, wie .TOP oder .WIN kategorisiert Baidu als Spam.

4) Apples Siri liebt jetzt Google (nicht mehr Bing)

Wer zukünftig auf seinem iPhone mit Siri eine Suche durchführt, wird nicht mehr auf Suchergebnisse von Microsoft Bing verwiesen, sobald keine Voice-Antwort des Apple Sprachassistenten zur Verfügung steht. Der Konzern aus dem kalifornischen Cupertino begründete den Wechsel des iPhone-Suchproviders mit der Vereinheitlichung von Suchtechnologien zwischen seinen Plattformen iPhone (Siri), Mac (Spotlight) und der internen Suche auf iOS. Die angezeigten Ergebnisse werden Webseitenlinks und Videos umfassen, so Apple. Microsofts Suchmaschine Bing hatte seit der Markteinführung des iPhone 4s im Jahre 2011 als Standardsuche hinter der Sprachassistentin Siri gedient.

5) Bing: Links noch immer ein wichtiger Rankingfaktor

Am Anfang war der Link. Mit Google begann im Jahre 1997 das Zeitalter des PageRanks, der Gewichtung einer Webseite nach Anzahl und Qualität ihrer Verlinkungsstruktur. Für viele Jahre war ein guter Backlink daher der Goldstandard im SEO-Geschäft. Unglücklicherweise nutze die Optimierungsbranche das Manipulationspotential dieser Technologie leidlich aus, so dass Suchmaschinen ab dem Jahr 2012 damit begannen, die Bewertung von Links als Rankingfaktor herunterzufahren und durch weniger manipulierbare Messgrößen, wie Social Signals, Clickstream Data oder Engagement Data zu ersetzen. Doch die Zeit der Backlinks ist noch lange nicht vorbei. Microsoft bestätigte nun, dass man mit seiner Suchmaschine Bing noch nicht an dem Punkt sei, auf Backlinks als Rankingfaktor verzichten zu können. Ebenso wie bei der Konkurrenz von Google seien ausgehende Verweise mit Nutzwert von Seiten mit hoher Autorität unverzichtbar, so Microsoft.

Dieser Beitrag erschien zuerst bei Internet World Business.