Beiträge

SEO News

Am besten geht es nur gemeinsam. Dieser Kernsatz prägt nicht nur die Botschaft des Osterfestes, sondern auch die SEO-News für den Monat April.

Warum IT-Sicherheit für die SEO-Performance so relevant ist

Gerne bezeichnen sich Suchmaschinenoptimierer als die Hausmeister ihrer Kunden. Letztlich stecken SEOs ihre Nasen in fast alle Bereiche der Organisation und des Betriebs digitaler Assets, wie Webseiten oder Apps. Als verantwortungsbewusster SEO ist man eben nicht nur als strategischer Analytiker gefordert, sondern auch als mahnender Nörgler, der neben strukturellen, inhaltlichen und technischen Problemen an irgendeinem Punkt auch mit dem Thema Sicherheit konfrontiert wird. Zwar ist das Marketing nicht für die IT-Sicherheit zuständig, allerdings zeigt sich, dass mangelndes Bewusstsein für Sicherheit im Web durchaus in der Lage ist, die Performance in Suchmaschinen negativ zu beeinflussen. Dass die Nutzung von gesicherten Client-Server-Verbindungen mit Hilfe des HTTPS-Protokolls von Suchmaschinen heutzutage als Qualitätsfaktor vorausgesetzt wird, sollte mittlerweile zum SEO-Basiswissen gehören. Mindestens genauso wichtig wie diese formale Sicherheitskomponente ist aber beispielsweise auch das Monitoring von automatisiertem Bot-Traffic auf den eigenen Servern. Die Mehrzahl der Bots hat völlig legitime Gründe für das Crawling einer Website. Bestes Beispiel ist dann auch die Indexierung einer Domain für eine Suchmaschine. Laut einer aktuellen Studie der US-amerikanischen Bot-Spezialisten „Distil Networks“ sind jedoch rund 19 Prozent aller Bots mit finsteren Absichten unterwegs. Dazu zählen das Kopieren urheberrechtlich geschützter Inhalte, das Ausspionieren potentieller Verwundbarkeiten eines Servers oder auch die Verteilung von Schadsoftware, sogenannter Malware. In Summe und auf Dauer können diese im Allgemeinen unproblematischen Bot-Angriffe dazu führen, dass die Ladegeschwindigkeit gedrosselt oder die Auslieferung von Seiten ganz und gar verhindert wird.

 Beides wirkt sich unmittelbar negativ auf die Sichtbarkeit in Suchmaschinen aus. Neben automatisierten Angriffen steht vor allem auch das Thema Hacking im Vordergrund. Unter Hacking versteht man die Veränderung von Inhalten einer Webseite durch einen nicht legitimierten Eingriff von außen, ein Hack. Nach Angaben einer Untersuchung des weltweit größten Domainhändlers „Go Daddy“ werden rund 73 Prozent aller gehackten Seiten aus reinen SEO-Gründen übernommen und verändert. Zumeist werden Seiten mit relativ hoher Autorität in einem bestimmten Themengebiet gehackt, um potentielle Besucher abzuschrecken oder illegitime Links aufzubauen. Die gravierendsten Folgen eines solchen Hacks wären nicht nur eine mögliche Abstrafung durch Suchmaschinen, inklusive des damit einhergehenden Traffic- und Sichtbarkeitsverlusts, sondern auch die direkte Schädigung von Webseitenbesuchern durch das Ausspähen persönlicher Daten (Phishing) oder deren Infektion mit Schadprogrammen über verseuchte Downloads.

Gemeinsam stark

So weitreichend die Konsequenzen mangelnder IT-Sicherheit für Marketing und Search sein können, so verbindet doch beide Bereiche auch eine große Gemeinsamkeit. Sowohl effektive Suchmaschinenoptimierung als auch umfassende IT-Sicherheit lassen sich nicht outsourcen, sondern sind das Ergebnis von geteilter Verantwortung und Teamarbeit. Wer heute noch in Silos denkt und organisiert ist wird weder auf dem einem noch auf dem anderen Gebiet wirklich erfolgreich sein können.

Dieser Beitrag wurde zuerst bei Internet World Business veröffentlicht

In immer höherer Schlagzahl fordern neue Technologien, Geräte und Inhaltsformate Suchmaschinenexperten rund um die Welt heraus, aber nun kommt Hilfe von unerwarteter Seite. Mit welchen kleinen Helferlein wir bei der Strategieentwicklung und dem Tagesgeschäft künftig rechnen müssen, verraten wir Ihnen in den SEO-News für den Monat März.

Die Fraggles sind zurück

Die Fraggles sind los und sie erobern in kleinen Schritten die Google-Welt von morgen. Um eine mögliche Verwirrung gleich zu Beginn zu verhindern: Es handelt sich dabei nicht um die kleinen, laut Wikipedia rund 65 cm großen, humanoiden Höhlenbewohner mit einer Vorliebe für Radieschen aus der gleichnamigen Fernsehserie des Jahres 1983.

Die Fraggles, die uns Suchmaschinenoptimierer seit geraumer Zeit beschäftigen, sind zwar auch klein und überaus dynamisch; es handelt sich dabei aber vielmehr um Inhaltsfragmente, die von Google identifiziert, isoliert und in unzähligen Kombinationen über die sich ausbreitende Landschaft von Plattformen, Geräten und Technologien verstreut werden können.

Geprägt hat den Begriff der Fraggles die US-amerikanische Expertin für mobiles Marketing, Cindy Krum aus Denver im US-Bundesstaat Colorado. Entsprechend ihrer Beobachtungen hat sie das Kunstwort aus den Begriffen „Fragment“ und „Handle“ zusammengesetzt. Frei übersetzt könnte man dies mit „Fragmentierte Ansatzpunkte“ ins Deutsche bringen. „Fraggles“ sind laut Krum Googles Antwort auf tiefgreifende Veränderungen im Nutzungsverhalten und dem technologischen Grundgerüst von Webseiten, Progressive Web Apps (PWA), personalisierten Webdiensten und Datenfeeds.

Die Gemeinsamkeit dieser digitalen Assets besteht darin, dass der Großteil ihrer Inhalte lediglich einer einzigen URL zugeordnet ist. Die treibenden Kräfte hinter diesem Trend sind einerseits die Anpassung an die Bedürfnisse des mobilen Zeitalters und andererseits serverbasierte Technologien wie Java Script oder Ajax, die individualisierte Inhalte dynamisch herstellen können.

Google, Bing und Co. passen ihre Indexierung an

In der Folge, so Krum, werde die feste Zuordnung von Inhalt und URL aufgehoben und Suchmaschinen indexierten zunehmend nur noch Inhaltsfragmente einzelner Webseiten, Feeds oder Apps. Anstatt ganze Webseiten Seite für Seite zu indexieren, bestehe die Herausforderung für Google, Bing und Co. vielmehr darin, die relevantesten Inhaltsfragmente aus dem großen Meer von klassischem Html, dynamischem JavaScript und endlosen Strömen von XML zu fischen, so Krum. Der seit rund einem Jahr aktive Mobile First Index von Google ist ihrer Meinung nach nichts anderes, als ein großes Schleppnetz für Fraggles aller Art.

Und tatsächlich macht die Theorie der Fragmente Sinn, wenn man die Entwicklung der Suchergebnisse aller großen Anbieter über die vergangenen zwei Jahre betrachtet. Insbesondere auf mobilen Geräten experimentieren sowohl Google als auch Microsoft mit immer neuen Darstellungsformen und -formaten. Von der integrierten Karten- und Bewertungsanzeige lokaler Suchergebnisse, über die umfassende Abbildung von Menschen, Orten und Markenim Knowledge Graph, bis hin zu konkreten Antworten auf häufig gestellte Fragen im Features Snippet.

Suchmaschinen als universelle Assistenten der Zukunft

Die Suchmaschinen passen ihre Ergebnisanzeige dabei immer genauer an den Nutzungskontext und die Suchintention ihrer User an. Im heraufziehenden Zeitalter der Sprachassistenten wird diese Entwicklung ihre Fortsetzung finden. Der virtuelle Anruf des computergenerierten Google Assistant beim Friseur ist dabei nur der vorläufige Höhepunkt der Ausdifferenzierung von Suchmaschinen zu allgegenwärtigen und universellen Antwort- und Assistenzsystemen.

In solchen Systemen sind Relevanz und Konsumierbarkeit unmittelbar miteinander verknüpft. Auf dem Smartphone, dem Fernseher oder im Auto will und kann niemand mehr auf einer Ergebnisseite nach der passenden Antwort suchen, geschweige denn, sich durch eine Webseite scrollen. Der wirkliche Vorteil des Fraggles-Konzepts ist die Unmittelbarkeit und Flexibilität von kleinen Informationsfragmenten in den unzähligen Kombinationen von Gerätepräferenz und Nutzungssituationen.

Fraggles zeigen die steigende Bedeutung der Customer Journey für Google

Darüber hinaus fügen sich Fraggles nahtlos in Googles strategische Neuausrichtung von Suchergebnissen entlang von User Journeys ein. Zum 20-jährigen Jubiläum der Suchmaschine kündigte Google an, Suchaktivitäten nicht länger als Aneinanderreihung einzelner Fragestellungen begreifen zu wollen, sondern aus Kontext und Historie die möglichst exakte Intention des Nutzers und dessen Position entlang der Customer Journey ermitteln zu wollen. Unterstützt von Künstlicher Intelligenz bedeutet dies, dass Suchergebnisse nun stärker als Konversationspunkt denn als Ergebnisdienst verstanden werden. Auch in diesem Szenario können Fragmente als Teil einer Produktinformation, eines konkreten Kaufangebots oder einer speziellen Fragestellung in der Post-Purchase-Phase zum Einsatz kommen.

Für SEOs bedeutet dies zunächst, einen eigenen Ansatz im Umgang mit Sprachsuche und visuellen Suchanfragen konsequent weiter zu denken. Der Einsatz von Markups für strukturierte Daten und Sprachantworten (Google Speakable) muss zum Standardrepertoire gehören, genau wie die nach Intentionen entlang der Customer Journey organisierte Keyword-Analyse.

Dieser Beitrag wurde zuerst bei Internet World Business veröffentlicht.

Es kann nur eine Suchmaschine geben! Diese Aussage klingt herzlich wenig nach Vielfalt und Transparenz, sondern schwer nach Monopol, Einseitigkeit und Dominanz. Aber doch ist es Realität, dass Google den globalen Suchmarkt uneingeschränkt beherrscht. Ob dies auch auf Sicht so bleiben wird, hängt nicht zuletzt vom globalen Wettbewerb ab. In den SEO-News des Monats Februar widmen wir uns den Herausforderern und ewigen Zweiten auf dem globalen Suchmarkt.

Alternativlos glücklich mit Google

Dass es sich bei Datenschutz nicht um eine Eierspeise aus dem Emsland handelt, dürfte inzwischen auch im Silicon Valley angekommen sein. Europäische und nationale Wettbewerbsbehörden haben Google und Facebook in jüngster Zeit durch spektakuläre Urteile massiv unter Druck gesetzt, was die Erhebung und Nutzung personenbezogener Daten angeht.

Aktuellen Zahlen zufolge hat Googles Muttergesellschaft Alphabet Inc. vergangenes Jahr weltweit mehr Geld für Strafzahlungen aufwenden müssen, als das Unternehmen an Steuern bezahlt hat. Die Begründung zur Durchführung eines erfolgreichen Verfahrens ist dabei immer die gleiche: Missbrauch einer marktbeherrschenden Stellung von Dienstleistungen oder Produkten im Wettbewerb.

Für oftmals quasi-monopolistische Marktanteile von Search- oder Social Media-Plattformen in der digitalen Welt gibt es viele Gründe. Aber gerade die Suchwelt kennt Beispiele, wie einstmalige Marktführer (Yahoo, Alta Vista) von einem unbekannten Konkurrenten überholt wurden (Google). Wie steht es also mit dem Wettbewerb in der organischen Suche anno 2019? Gibt es einen Kandidaten für die Zeit nach Google? Und lohnt es für SEOs, ihren Blick über den Tellerrand auf die Konkurrenz zu richten?

Man muss sich nicht lange mit Zahlen aufhalten, um Googles Marktmacht zu beschreiben, dieser liegt weltweit bei rund 90 Prozent. Erklärtes Ziel des Unternehmens ist es, den größten Datenberg der Branche mit Künstlicher Intelligenz zu einer unsichtbaren und allgegenwärtigen Orientierungs-, Lösungs- und Komfortmaschine zu  verknüpfen. Der sprachgesteuerte Google Assistant ist dabei ein wichtiger Baustein für Google. Jedoch zeigt sich ausgerechnet beim Thema Voice Search, dass die Verhältnisse vielschichtiger sind, als sie scheinen. Denn die grauschwarzen Sprachboxen sind nur die Vermittler von Informationen in einem größeren Spiel. Meist steckt nicht die Suche drin, die als Marke auf dem Gehäuse steht. So ist Microsofts Suchmaschine Bing der eigentliche Lieferant hinter den Suchergebnissen von Amazons Bestseller-Sprachassistenten Alexa. Bis Ende 2017 steckte Bing ebenfalls hinter Apples Sprachassistentin Siri. Neuerdings nutzt der Konzern aus Cupertino die Google-Ergebnisse, mit Ausnahme der Bildersuche, diese wird weiterhin von Microsoft geliefert. Da insbesondere lokale Suchen auf dem Smartphone oder im Auto zunehmend über Sprache vermittelt werden, sollte man Bing als Suchsystem weder abschreiben noch außer Acht lassen.

Der Suchmarkt wird durch Expansion vielfältiger

Da der Suchmarkt durch die technische Evolution weiter expandiert, können auch kleine Suchanbieter in ihrer Nische überraschend gute Ergebnisse vorweisen. So hat sich die Zahl der durchgeführten Suchen der auf Anonymität und den Schutz persönlicher Daten bedachten Suchmaschine „Duck Duck Go“ nach eigenen Angaben seit 2016 fast verdoppelt. Der Anbieter aus dem Mittleren Westen der USA kann nach einer Analyse des Toolanbieters SimilarWeb sogar Branchenriesen wie Bing hinter sich lassen, wenn es um Absprungraten und Engagement der User geht. Das liege unter anderem daran, dass DuckDuckGo-Nutzer in höherem Maße technikaffin und sensibilisiert für Datenschutzthemen seien, so die Studie.

Der gefallene Riese Yahoo plant kein Such-Comeback

Mit knapp vier Prozent globalem Marktanteil ist auch der ehemalige Suchpionier „Yahoo“ noch im Spiel. Dessen Suchtechnologie stammt aber schon seit vielen Jahren ebenfalls aus dem Hause Microsoft und seit das Portal 2016 an den US-amerikanischen Telekommunikationskonzern Verizon verkauft wurde, steht eine Rückkehr des 1994 gegründeten Unternehmens zu einem eigenen Suchgeschäft auch nicht mehr auf der Agenda, wenngleich der Dienst in Japan noch recht populär ist.

Ähnlich lange ist auch schon die die kleine Suchmaschine „Ask.com“ im Geschäft, die zumindest in den USA einen stabilen Marktanteil von rund vier Prozent verteidigen kann. 1996 mit einer komplett eigenen Suchtechnologie an den Start gegangen, hat sich Ask vor rund 15 Jahren jedoch in ein soziales Frage-Antwort-Portal gewandelt, das ein relativ stabiles Stammpublikum anzuziehen vermag, in Deutschland aber nicht über eine Beta-Version seines Angebots hinausgekommen ist.

Die wahren Herausforderer für Google sitzen im Fernen Osten

So muss man schon bis nach Asien schauen, um einen potentiellen Herausforderer für Google zu finden: China hat sich zu einem eigenen Suchmarkt entwickelt, der ein ähnlich großes wirtschaftliches Potential birgt wie jener im Westen. Allerdings funktioniert er unter den Bedingungen nationaler Zensur nach eigenen Regeln und westlichen Konzernen wird der Zugang systematisch verwehrt. Unternehmen wie Baidu oder Tencent stehen dem Silicon Valley jedoch in technologischer Hinsicht in nichts nach. Der Wettlauf zwischen den USA und China auf den Gebieten von Künstlicher Intelligenz und Quantencomputing wird auch für den globalen Suchmarkt richtungsweisend sein.

Nein, keine SEO-Trends 2019 an dieser Stelle – ganz bestimmt nicht. Das sollen andere besorgen. In den ersten SEO-News des neuen Jahres beschäftigen wir uns mit dem, was das Leben wirklich spannend macht: Gegensätze und Konflikte. Wer nun denkt, wir würden uns in diesem Rahmen an der laufenden Geschlechterdiskussion beteiligen, den können wir beruhigen. Es bleibt bei Search, genauer gesagt dem Antagonismus von Reichweite vs. Conversion, sowie dem ewigen Kampf SEA vs. SEO.

SEO & CRO: Eine Beziehung mit Konfliktpotential

Eine hohe Verweildauer auf der Domain, eine hohe Zahl von Seitenansichten pro Besuch, die Nutzung von Rich Media und schließlich die Konversion, beispielsweise in Form eines Kaufs oder Leads – all diese Phänomene zählt man zu positiven Nutzersignalen, welche von Suchmaschinen in der Regel mit erhöhter Sichtbarkeit honoriert werden. Und die oberste Pflicht des Suchmaschinenoptimierers ist es, diese positiven User-Signale mit relevanten Inhalten auf einer leistungsfähigen, technischen Plattform zu erzeugen. Klingt einleuchtend und kausal. Aber ist der Zusammenhang wirklich so einfach? Während man hohe Ladegeschwindigkeiten und passende Mehrwertinhalte mit klassischer SEO-Arbeit realisieren kann, bedarf es zur Erzeugung und Messung positiver Nutzersignale einer erweiterten Methode, der Conversion Rate Optimierung, kurz CRO.

Um hier voran zu kommen, entwickelt die CRO Testszenarien mit verschiedenen Layouts, Designs, Mechaniken und Inhalten. Je nach Resultat der Nutzertests kann man erfolgreiche Szenarien implementieren und der potentiellen Zielgruppe Nutzererfahrungen mit Mehrwert anbieten. In einer idealen Welt verbessert dieses Vorgehen zugleich die Sichtbarkeit in der Suche und die Performance der Webseite selbst.

Wenig untersucht wurde jedoch bislang die Wechselwirkung von SEO und CRO-Maßnahmen. In einer aktuellen Studie hat sich Will Critchlow, Gründer der renommierten britischen SEM-Agentur „Distilled“, genau dieser Frage gewidmet: In welchem Fall kann die Arbeit von SEO und CRO zu Konflikten führen und im schlimmsten Falle sogar die positiven Ergebnisse der jeweils anderen Disziplin konterkarieren? Die Antwort ist wie in den meisten Fällen kompliziert. Am Beispiel einer nicht weiter beschriebenen Webseite stellt Critchlow dar, wie sich die Betrachtung des reinen Erfolgs von getesteten und implementierten Conversion-Maßnahmen relativiert, wenn man den damit womöglich einhergehenden Verlust von organischer Sichtbarkeit in die Rechnung aufnimmt.

Dieser Effekt ist nicht linear und kann je nach Maßnahmen auf SEO bzw. CRO-Seite unterschiedlich stark ausfallen. Erst nach vielen Testzyklen wird deutlich, dass beide Maßnahmen direkten Einfluss     aufeinander haben und, dass ein positives Ergebnis in der Gesamtheit nur erreicht wird, wenn die Wechselwirkungen jeder Implementierung beurteilt und nur Änderungen, die sich in der Summe von CRO und SEO positiv auswirken, publiziert werden.

CRO-Ergebnisse werden unmittelbar in der Testumgebung sichtbar, die Auswirkungen von SEO-getriebenen Änderungen schlagen sich aber erst mit zeitlichem Verzug in der Suche nieder. Daher müssen Ergebnisse auch nach dem Roll-Out von Design- oder Inhaltsupdates permanent rückwirkend überprüft werden, um beim Vergleich von organischem Traffic und Conversion-Entwicklung die richtige Balance für das eigene Angebot und die definierte Nutzergruppe zu ermitteln.

In einem älteren Beitrag hatte Such-Guru Rand Fishkin deutlich gemacht, dass SEO und CRO nicht für jedes Webangebot gleich viel Einfluss entfalten müssen und Conversion- und Suchmaschinen-Experten gut zusammenarbeiten müssen. Das ist in der Realität allerdings oft nicht der Fall: Fishkins Erfahrung nach sorgen sich Conversion-Experten zwar um den Einfluss ihres Schaffens auf die Suchmaschinensichtbarkeit, SEO-Experten nehmen auf die möglichen negativen Auswirkungen ihrer Implementierungen auf die Usability einer Website – die natürlich auch Conversion-entscheidend ist – aber in vielen Fällen keine Rücksicht. Hier sollten wir SEOs uns an der Nase packen. Denn es ist wie immer im Leben: Achtsamkeit, Kommunikation und Kooperation aller Beteiligten in der komplexen Organisation des Betriebs kommerzieller Webseiten sichern den größten Erfolg. Einseitige Betrachtungsweisen sowie starre Hierarchien stehen einem umfassenden Produktverständnis und damit auch kommerziellen Erfolg im Wege. Darüber hinaus sind insbesondere Agenturen angehalten, ihre Dienstleistungen im Sinne des Kunden über die Bereiche SEO, CRO und Analytics hinweg zu verschränken und ihren Kunden bei dieser Integrationsleistung mit ihrer umfassenden Erfahrung und Expertise beratend zur Seite zu stehen.

Stars in der Manege: Warum klicken Menschen Suchanzeigen?

Im Englischen gibt es einen schönen Begriff, der sich kaum ins Deutsche übersetzen lässt: One-Trick-Pony. Was damit gemeint ist, erfährt der Suchmarketing-Experte bei seinem vierteljährlichen Pflichttermin, der Vorstellung der Quartalsergebnisse von Googles Mutterkonzern Alphabet Inc. Während dieser durchaus kurzweiligen knappen Stunde erhält man neben Einblicken in allerlei internationale Bilanzierungs- und Steuertrickserei (der effektive Steuersatz des Unternehmens liegt aktuell bei erschwinglichen acht Prozent), das Alphabet im abgelaufenen dritten Quartal 2018 einen Gesamtumsatz von rund 33 Mrd. US-Dollar erwirtschaftet hat. Keine Überraschung für einen Mischkonzern mit knapp 90.000 Mitarbeitern, welcher zwölf hübsche Töchter sein eigen nennt, die von Energie- und Informationsnetzen, über Bio- und Gentechnologie, Unterhaltungselektronik, selbstfahrenden Automobilen bis hin zum ewigen Leben so gut wie alles bieten, was die moderne Welt braucht, um ihr Ende noch ein wenig hinaus zu zögern.

Beim zweiten Blick fällt jedoch auf, dass von diesem Gesamtumsatz rund 88 Prozent alleine auf das Anzeigengeschäft der Suchsparte von Google entfallen, knapp 29 Mrd. US-Dollar. Dies ist einerseits zwar kein Geheimnis und bewahrt Alphabet vor der im angelsächsischen Raum immerzu drohenden Zerschlagung mächtiger Konzerne durch staatliche Wettbewerbsbehörden. Andererseits ist dies genau die Definition eines One-Trick-Ponys, dem Zirkuspferd, welches sein Publikum mit einem einzigen, erstaunlichen Trick im Rampenlicht der Manege verblüffen kann. Sollte es diesen Trick nicht mehr aufführen können, wird es für den Zirkus wertlos und muss zum Schlachter.

Googles Trick, die Auktion von hoch relevanten Werbeanzeigen am Ort der Websuche, heißt Search Engine Advertising (SEA) und funktioniert seit nunmehr 20 Jahren perfekt. Natürlich hat das Unternehmen sein einzig wirklich rentables Geschäftsmodell unablässig verfeinert und ausgebaut, hat es erfolgreich ins Zeitalter von Video und Mobile hinübergerettet und wird es mit Hilfe Künstlicher Intelligenz in Zukunft weiter auf Effizienz perfektionieren. Doch wo kein Klick, da kein Geschäft. Was also ist die Intention von Milliarden von Nutzern, die statt auf vermeintlich werbefreie, organische Suchergebnisse, auf bezahlte Google-Textanzeigen mit eindeutig kommerzieller Absicht klicken?

Keine unwichtige Frage, sind doch Konsumenten klassischer Werbung von Haus aus eher skeptisch gegenüber kommerziellen Botschaften, von denen letztlich auch der Gesamterfolg eines als mächtig erscheinenden Tech-Giganten wie Alphabet abhängt. Erstaunlich wenige Studien beschäftigen sich näher mit diesen Intentionen, da die Nutzer weltweit ja schließlich klicken, der Traffic fließt, der Trick funktioniert. Gerne wird behauptet, Google-Nutzer könnten organische von bezahlten Suchergebnissen gar nicht unterscheiden und klicken eben auf die obersten, bezahlten Positionen. Eine Darstellung, der Google erst vor wenigen Tagen erneut vehement widersprochen hat.

Ein wenig mehr Licht ins Dunkel bringt eine aktuelle Studie des Marktforschungsunternehmens „Clutch“: Eine Umfrage unter 506 Personen, die auf eine Google-Textanzeige geklickt hatten, ergab zunächst, dass 77 Prozent der Befragten tatsächlich bewusst war, dass sie einer Werbebotschaft nachgingen . Dies unterstützt die Angaben von Google und in der Tat sind die Anzeigen aus Mountain View deutlich gekennzeichnet und besser als Werbung erkennbar, als beispielsweise die Anzeigenplatzierungen von Amazons AMS-Services auf den Suchergebnis- und Produktseiten des Marktplatzriesen. Darüber hinaus sagten rund 75 Prozent der Befragten, dass Textanzeigen ihre Suche vereinfachten, sofern sie eine direkte Antwort auf ihre Suchanfrage lieferten.

Bis hierhin unterscheidet sich das Verhalten nicht sonderlich von organischen Suchintentionen. Nimmt man nun die Markenbekanntheit mit in den Fokus, so wird deutlich, dass in der Verbindung von Marke und Suchanfrage der wahre Zauber von Textanzeigen liegt. Denn mehr als ein Viertel der Befragten gaben an, auf die Anzeige aufgrund der Marke geklickt zu haben, wobei hier Vertrauen eine herausgehobene Rolle spielt. Es gilt also für Googles Kerngeschäft, was auch für jede andere, klassische Form von Werbung wahr ist: Sie muss den Kunden ernst nehmen. Reine Marketingbotschaften von der Schönwetterfront garantieren keinen Erfolg im unerbittlichen Umfeld der direkten Konkurrenz auf Suchergebnisseiten.

Die SEA-Investition wird erst dann wirklich rentabel, wenn man die Bedürfnisse und Intentionen der wie auch immer ausgesteuerten Zielgruppe ernst nimmt, relevante Antworten auf ihre Anfragen liefert und damit Markenvertrauen aufbauen oder unter Beweis stellen kann. Was das mit SEO zu tun hat? Fast alles, denn obwohl sich Googles Support für SEOs auf der ganzen Welt im Vergleich zu seiner gewaltigen SEA-Vertriebsmaschine eher stiefmütterlich verhält, hätte das Pony ohne die Basisarbeit der immerwährenden Analyse von Intentionen und Verhalten der Suchenden keine 20 Jahre durchgehalten.

Das SEO-Tagesgeschäft erbringt mehr Synergien mit dem Erfolg bezahlter Search-Kampagnen, als es sich so mancher eingestehen will. Nun steht Google kurz davor, die Zuordnung von Suchanfrage und Textanzeige seiner Künstlichen Intelligenz zu überlassen. Dynamic Search Ads (kurz: DSA) sind nur ein erster Schritt Keywords abzuschaffen und das große Kompendium menschlichen Verhaltens, welches Google über seinen organischen Index gesammelt hat, ins Zentrum seiner kommerziellen Aktivitäten zu stellen. Ob es der Künstlichen Intelligenz gelingen wird, die Nutzer wirklich zu verstehen, ob Marken sich weiterhin darauf verlassen können, sich über Google Ads zu repräsentieren, ob das Pony weiter tanzt – all das bleibt abzuwarten. Der Alphabet-Bericht für das vierten Quartal 2018 wird übrigens am 4. Februar veröffentlicht.

Dieser Beitrag wurde zuerst bei Internet World Business veröffentlicht.

Am Heiligabend 2018 werden jede Menge Sprachassistenten das Licht der Welt erblicken. Zum ersten Mal mit Strom versorgt, werden ihre Kameras den heimeligen Kerzenschein des Weihnachtsbaums erblicken und ihre Mikrofone werden zum ersten Mal die Stimmen ihrer zukünftigen, menschlichen Familienmitglieder hören. Für welchen Hersteller dieser Marketingtraum Realität wird, und wie Bing sich in Sachen Shoppinghilfe mausert, erfahren Sie in den letzten SEO News des Jahres 2018

Sprachassistenten im Weihnachtsstress

Weihnachten ist das Fest der Liebe. Und auch dieses Jahr werden sie sich erneut in vielen Haushalten wiederfinden: Die allgegenwärtigen Sprachassistenten. Zählten Alexa & Co. schon im vergangenen Jahr zu den Rennern unter dem Weihnachtsbaum, Marktführer Amazon hatte zum Fest 2017 nach eigenen Angaben mehrere Millionen seiner Alexa-Modelle verkauft, so blicken wir auch dieses Jahr mit Spannung auf die Verkaufszahlen. Stellt sich doch die Frage, ob sich der Trend zum Massenprodukt verfestigt und wer das Rennen um die Marktbeherrschung letztlich für sich entscheiden kann. Doch 2018 ist die Konkurrenz schärfer geworden und einige der größten Wettbewerber haben ihre Marktanteile signifikant ausbauen können. Nach Angaben der Unternehmensberatung „Strategy Analytics“ bleibt die weltgrößte Shoppingplattform aus Seattle mit rund 75 Prozent aller Smart Speaker zwar globaler Marktführer. Beim Wachstum im Jahresvergleich konnte aber Google mit seinem „Google Home“-Assistenten die Führung übernehmen. Um mehr als 420 Prozent konnte der Suchgigant aus Mountain View seine Verkäufe steigern und hält nun mit knapp 16 Prozent Marktanteil den 2.Platz im Ranking. Besonders auffällig: Der gemeinsame Marktanteil von Amazon und Google ist im Jahresvergleich von rund 90 Prozent auf nur noch 69 Prozent gefallen. Vor allem die Konkurrenz aus Asien macht Boden gut. So hat der chinesische Amazon-Konkurrent Alibaba auf der kanadischen KI-Konferenz NeurIPS einen Assistenten vorgestellt, welcher in seinen Fähigkeiten dem Technologieführer Google in nichts nachzustehen scheint. Ebenso wie Google auf seiner Entwicklerkonferenz mit einem spektakulären Telefongespräch zwischen Mensch und Maschine Schlagzeilen machte (wir berichteten), so hat auch Alibaba für die Demonstration einer Entwicklungsversion seines Assistenten „AliGenie“ ein menschliches Gespräch gewählt. Bei der Absprache eines Liefertermins schaffte es die Alibaba-Maschine, sich von Zwischenfragen nicht aus der Ruhe bringen zu lassen. Aus indirekten Hinweisen des menschlichen Gesprächspartners konnte das System sogar die richtigen Schlüsse in Bezug auf den Lieferort ziehen, eine Herausforderung, an der andere Sprachassistenten bislang gescheitert sind. Im Gegensatz zu Alexa und Google Home, die als Smart Speaker ihren festen Platz in unserer Lebenswelt finden sollen, integriert Alibaba seinen Sprachassistenten unmittelbar in die Geschäftsprozesse seines Unternehmens. So werden telefonische Bestellungen, Preisvergleiche und das Liefermanagement die ersten Teilbereiche sein, in denen AliGenie zum Einsatz kommen soll, so das Unternehmen. Wie sehr die digitale Welt auch beim Sprachassistenten gespalten ist, zeigt sich unter anderem  auch an den Verkaufdzahlen im Reich der Mitte. Den Angaben von Strategy Analytics zufolge hat Google 2017 auf dem weltweit größten Markt lediglich eine halbe Million Google Assistant-Geräte abgesetzt. Zum Vergleich: In den USA hat die Anzahl von Smart Speakern bereits fast die 50-Millionen-Marke erreicht. Das Rennen ist also noch nicht entschieden, die Zukunft der Sprachsuche so offen wie je zuvor.

Shoppen statt suchen

Microsoft hat seiner Suchmaschine Bing eine Reihe neuer Funktionen spendiert, mit deren Hilfe der Nutzer bei Suchen mit Kaufintention unterstützt werden soll. Mit dem Black Friday hat der Tech-Gigant aus Redmond den Zeitpunkt der Präsentation gut gewählt. So war ein Teil der neuen Funktionen speziell für den Black Friday konzipiert, und auch nur an diesem Tag verfügbar. Der Großteil der Funktionalitäten jedoch wird das ganze Jahr bleiben, soll aber gerade in der Vorweihnachtszeit besonders hilfreich sein. In einer Produktvergleichs-Funktion speziell für die Produktkategorie Mobiltelefone zeigt Bing Bewertungen, Rezensionen von Experten und Produkthighlights prominent über den organischen Suchergebnissen. Laut dem Unternehmen, soll es damit erleichtert werden, den neusten Hardware-Trends im Bereich der Mobiltelefonie zu folgen.

Eine zweite Funktion präsentiert Produkte in einer Art Featured Snippet-Vergleichstabelle. Eine Suche nach dem Superlativ (wir berichteten) „Bester Laptop“ resultiert beispielsweise in einer Vergleichsübersicht mit Produktbild, Aufzählung der Funktionalitäten und weiterführender Links. Es handelt sich aber nicht über eine Erweiterung von Bing Shopping, sondern um organische Suchergebnisse. Lediglich die exklusive Black-Friday-Funktion war über Bing Shopping erreichbar und ermöglichte Nutzern das Stöbern durch lokale und überregionale Angebotsflyer zur größten Rabattschlacht des Jahres. Während Google versucht, sein Shopping Produkt mit Hilfe von dubiosem Wettbewerb aus der Schusslinie der Aufsichtsbehörden zu nehmen, setzt Microsoft, die schon häufig in der Vergangenheit, auf Innovationen in der organischen Suche. Es macht also doch einen Unterschied, ob ein Suchsystem komplett vom Anzeigenumsatz abhängig ist, oder nicht.

Dieser Beitrag erschien zuerst bei Internet World Business.

SEO News

Das Weihnachtsgeschäft nimmt langsam Fahrt auf und auch in diesem Jahr wird wieder hauptsächlich hübsch verpackte Technik unter den Tannenbäumen der Republik liegen. Warum man der Technologie grundsätzlich kritisch gegenüberstehen sollte und ob sich Google mit dem Relaunch seiner Startseite nasse Füße holen wird, das erfahren Sie in den SEO-News für den Monat November.

Google wird ein langer, ruhiger Fluss

Nun ist es also passiert. Zwanzig Jahre lang hat Google nicht nur die Standards für webbasierte Suchdienste gesetzt; auch was das Design seiner Startseite anging, war Google Vorreiter in Sachen Minimalismus und Effizienz. Ein simpler Suchschlitz mit Logo – bzw. Doodle – und zwei darunterliegenden Buttons waren im aufblühenden Internet der frühen 2000er-Jahre so etwas wie die Antithese zu unübersichtlichen Linkwüsten und nervigen Flash-Intros. Doch es hat sich viel getan seit 1998 und so folgt der Marktführer aus Mountain View dem Trend zur personalisierten Dauerberieselung. „Discover Feed“ nennt sich das neue Feature, welches seit den letzten Oktobertagen sukzessive weltweit auf Desktop- und Mobilgeräten sowie den Search-Apps ausgerollt wird.  Es ist die erste von einigen neuen Funktionen, die Google zu seinem Firmenjubiläum angekündigt hat, und markiert den ersten Schritt auf dem Weg zu einer individualisierten Antwortmaschine, die ganz ohne Fragen auskommen soll (wir berichteten). Zwar hatte die Suchmaschine schon in der Vergangenheit mit dem einen oder anderen Homepage-Feature zum Einstieg in populäre Themenwelten oder der Integration seines Assistenzdienstes „Now“ experimentiert, nun aber werden relevante Inhalte, die im Kontext zur persönlichen Suchhistorie stehen, in Form eines Endlos-Streams präsentiert. Und ähnlich wie bei YouTube gibt es das Ganze ab sofort auch im dunkel eingefärbten Nachtmodus.

Mit dieser umfassendsten Designänderung seit dem Start von Google hat man sich in Mountain View scheinbar schwergetan. Und das, obwohl die Konkurrenz von Microsoft mit ihrer Suchmaschine Bing von Beginn an einen anderen, visuellen Weg gegangen ist. Mit sich täglich ändernden, kraftvollen Startbildern und aktuellen News hatte Bing für seine Nutzer schon immer mehr Einstiegspunkte angeboten, als der Marktführer. Interessant ist auch der Vergleich mit Amazon: Die Personalisierung der Inhalte ist für die Einkaufssuchmaschine aus Seattle selbstverständlich der zentrale Ausgangspunkt bei der Startseiten-Gestaltung. Der immerwährende Upsell mit Hilfe des A9-Algorithmus befördert zahllose, individuell passende Angebote zu Tage. Die User Experience und Usability des Designs aber haben gerade in letzter Zeit stark unter der Integration immer neuer Features und Platzierungen gelitten. Das Design der Amazon-Homepage entwickelt sich scheinbar konsequent zurück in die unübersichtlichen Zeiten kleinteiliger Frontpage-Webseiten. So lange die Kasse stimmt, tritt die User Experience auch gerne mal in den Hintergrund. Und natürlich ergeben sich auch für Google neue Formen der Monetarisierung durch die Integration bezahlter Werbung im Discover-Stream.

Vielleicht ist die Startseite am Ende aber eben ein Auslaufmodell. Mit Voice- und Visual Search ergeben sich unzählige Touchpoints für Suchsysteme, die vielleicht in naher Zukunft schon an der klassischen Darstellung im Web oder als App vorbei ein maßgeschneidertes Angebot an Antworten und Lösungen zur Verfügung stellen werden.  Bis es soweit ist, müssen SEOs beobachten, ob der neue Google-Stream von den Nutzern angenommen wird und nach welchen Kriterien sich der Discover-Feed generiert. Die neue, größere Bühne sollte nicht ungenutzt bleiben.

An der Nase herumgeführt

Der technologische Fortschritt ist eine Funktion der Moderne, ihre Bedingung und Konsequenz zugleich. Wie sehr sich Technologie in unser Leben eingebettet hat, wird insbesondere am Phänomen der Suchmaschinen deutlich. Ob Googles Vision eines unsichtbaren Begleiters für die Herausforderungen der unplanbaren Außenwelt oder Amazons Versprechen der unmittelbaren Konsumbefriedigung – beide Projekte wären ohne ihren technologischen Kern nicht denkbar. Das war im Falle der Dampfmaschine oder des Verbrennungsmotors zwar nicht anders, beim aktuellen Schritt der Modernisierung aber bleibt der Blick in die Maschine verwehrt. Konnte man ein Dieselaggregat noch mit den eigenen Händen zerlegen, so verstecken sich Algorithmen und künstliche Intelligenzen in einer weit entfernten Wolke aus Daten. Zuweilen wird man den Eindruck nicht los, dass die hochtrabenden Versprechen und Visionen der High-Tech-Industrie nicht viel mehr sind, als eine funkelnde Marketingshow für ein hilflos naives Publikum.

Da tut es gut, wenn die Technikelite dabei erwischt wird, dass sie auch nur mit Wasser kocht. In diesem Sinne hatte die SEO-Gruppe SignalsLab einen Wettbewerb ausgerufen, bei dem es das Ziel war, innerhalb von 30 Tagen für die Suchanfrage „Rhinoplasty Plano“ zu ranken. Dabei handelt es sich um die Suche nach einer Praxis für plastische Nasen-OPs im Großraum Dallas, Texas.  Eine eher wenig umkämpfte Anfrage mit hoher lokaler Relevanz. Das Ergebnis der kleinen Challenge überrascht. Googles Mantra zu Erfolgsfaktoren in der organischen Suche lässt sich auf drei Kernpunkte herunterbrechen: Relevante Inhalte, nutzerfreundliche User Experience und saubere technische Umsetzung über alle Plattformen hinweg. Da ist es mehr als erstaunlich, dass die Gewinnerseite des SignalsLab-Wettbewerbs bis auf URLs, Überschriften und den Footer komplett in lateinischer Sprache erstellt ist. Die Verwendung von lateinischem Blindtext ist zwar nichts Ungewöhnliches bei der Produktion von Webseiten. In diesem Falle aber handelte es sich nicht um einen vergessenen Platzhalter für noch zu erstellenden Content, sondern um eine Strategie zur Offenbarung der Fehlbarkeit des Algorithmus. Darüber hinaus war die Seite ausgestattet mit erfundenen lokalen Daten, gefälschten Reviews und minderwertigen Backlinks. Dass Google diese offensichtlich gefälschte Webseite auf Position zwei für besagte Suchanfrage als Ergebnis anbietet, ist entweder ein Ausrutscher oder ein blinder Fleck im allwissenden Google-Universum.

Zwei Lehren lassen sich aus diesem kleinen Experiment ziehen. Erstens ist es für die Suchmaschinenbranche tröstlich zu wissen, dass trotz des angeblichen Reifegrads der Google-Technologie, das klassische Old-School-Fake-Spam-SEO noch immer funktioniert. Und für Nutzer ist es ein kleiner Warnhinweis, dass die Vertrauensfrage gestellt werden sollte, bevor man sich vom technologischen Fortschritt gänzlich einnehmen lässt. Suchmaschinen sind zwar praktisch, werden aber niemals Teil der menschlichen Realität sein. Egal ob Google oder Bing: Suchsysteme sind letztendlich datenbankgestützte Anzeigenverkaufsveranstaltungen mit einer kompakten Gratis-Version des echten Lebens als Lockangebot. Übrigens: Lateinische Nasen-OPs gibt es angeblich auch in Florida.

Dieser Beitrag erschien zuerst bei der Internet World Business.

Wer seine Produkte im Internet bewerben will, macht das bislang über Anzeigen in Suchmaschinen, sozialen Netzwerken oder auf den Seiten von Medien. Inzwischen wächst aber noch eine weitere Säule heran. Denn Werbung können Firmen auch auf immer mehr Seiten von Händlern schalten. Die Handelsplattformen entdecken die Werbung als lukrative Einnahmenquelle. Sie besitzen einen entscheidenden Vorteil: Daten über die Kundenwünsche aus erster Hand. Und Firmen sehen durchaus noch weitere Vorteile auf ihrer Seite, denn die Nutzer sind ja bereits in Kauflaune.

   1. Top-Player wie Amazon, Zalando, Otto und Alibaba

Und genau auf dieser Datenbasis und dort zu werben und abzuverkaufen, wo sich das Kundeninteresse unmittelbar manifestiert, ist spannend. Top-Player wie Amazon, Zalando, Otto und Alibaba haben diese Vermarktungspotenziale längst auf dem Zettel Es wird deutlich mehr Geld in diese Marktplätze fließen, da immer mehr Nutzer (mehr als 50% bei Amazon) nicht nur nach Produkten suchen, sondern in den meisten Fällen über kurz oder lang auch kaufen wollen!

Platzierung, Budgets und Aufwände zur Erstellung von Anzeigen sind auf Marktplätzen deutlich Sales-näher als in anderen Kanälen oder auf anderen Plattformen. Gerade die logistischen Aspekte von Marktplatzbetreibern (Verfügbarkeit, Terminlieferung, Versandkosten, Sonderkunden-Vorteile etc.) werden von vielen Käufern als hoch kaufrelevant eingestuft – neben der Vergleichbarkeit von Preisen oder abgestimmten, angrenzenden Produktsortimenten.“

    2. Was ändert sich in Bezug auf die Strategien?

Zur effektiven Ansprache von Kunden, die sich am Ende des Customer Decision Funnels befinden, muss neben Performance Marketing in Suchmaschinen auch zwingend der Kontakt auf Marktplätzen gesucht werden. Insbesondere der Einsatz von Nutzerdaten auf den zusammengefassten Retail Media-Plattformen, ermöglicht eine noch effizientere Ausspielung der unterschiedlichen Werbeformate. Darüber hinaus sollte auch der werbliche Effekt von Markenbotschaften, über solche Plattformen hinausgehend, nicht vernachlässigt werden, ungeachtet der Fokussierung auf Conversions und Abverkauf. Mit ihren tlw. sehr hohen Reichweiten und unmittelbaren Platzierung im Wettbewerbsumfeld, ermöglicht Retail Media viele Optionen, um über die reine Optimierung der Kosten-Umsatz-Relation (KUR) hinaus, additiven Umsatz zu generieren.

   3. Was lässt sich über das Spendingverhalten der Kunden sagen – wo wurde erhöht und wo reduziert?

Laut jüngster eMarketer Studie werden sich die Spendings in den USA in den nächsten zwei Jahren auf Amazon nahezu verdoppeln – vor allem zu Lasten von Google und Facebook. Die übrigen Kanäle und Plattformen entwickeln sich aber stabil. Eine spannende, neuere Entwicklung werden die aus dem Boden sprießenden Marktplätze darstellen, die Werbekunden noch mehr Platzierungs- und/oder Kooperationsmöglichkeiten geben und, strategisch richtig gewählt, mindestens eine thematisch relevante Alternative zu Amazon oder Preisvergleichern darstellen.

Dieser Artikel erschien zuerst bei Internet World.

SEO News

Irgendwie wird man ja dieser Tage den Verdacht nicht los, dass die Dinge ins Rutschen geraten sind. Leider können wir nicht für viel mehr Stabilität sorgen – denn es geht um Veränderung. Ob das Internet, wie wir es kennen, in zehn Jahren überhaupt noch existiert und was sich Google für die kommenden 20 Jahre vorgenommen hat, das erfahren Sie in den SEO-News für den Monat Oktober.

1) Schöne neue Google-Welt

Runde Geburtstage sind ein willkommener Anlass, um Bilanz zu ziehen und nach vorne zu schauen. Nicht anders geht es Unternehmen und Institutionen. Nun feiert also die Suchmaschine Google ihren 20. Geburtstag und in aller Konsequenz hat sich der erst vor wenigen Monaten ins Amt beförderte Leiter der Abteilung Search, Ben Gomes, in einem Blogbeitrag an einer großen Erzählung versucht. Gomes spannt den Bogen von seiner Kindheit in Indien, als sein einziger Zugang zu Informationen eine öffentliche Bibliothek der längst verschwunden Kolonialmacht Großbritannien war, zur Suchmaschine der Gegenwart. Personalisierung, Automatisierung und Relevanz sind laut Gomes die Eckpfeiler eines Qualitätsprodukts, welches ihm zufolge noch immer der ursprünglichen Vision folgt: „Die Informationen der Welt zu organisieren und für alle zu jeder Zeit zugänglich und nutzbar zu machen“. Ob dieses Ziel global gesehen gerade auf dem Altar der Verhältnismäßigkeit geopfert wird? Auf diese Frage und die Doppelmoral im Umgang mit China gehen wir weiter unten in diesen SEO-News nochmal ein.

Interessant für die tägliche SEO-Arbeit ist aber zunächst einmal ein Paradigmenwechsel, den Gomes als wegweisend für die kommenden 20 Jahre von Google ansieht. Grundsätzlich bestätigt der Search-Chef die Vision einer unsichtbaren und allgegenwärtigen Orientierungs-, Lösungs- und Komfortmaschine. Der Wandel zu dieser allgegenwertigen Dienstleistung soll laut Google durch drei fundamentale Veränderungsprozesse beschritten werden. Zunächst geht es um eine noch stärkere Personalisierung. Auf dieser Ebene will Google versuchen, sich vom situationsgetriebenen Antwortgeber zum ständigen Begleiter zu mausern. Wiederkehrende Informationsdefizite und laufende Rechercheprojekte der Nutzer sollen laut Gomes erkannt, aufgegriffen und bedient werden. Erreicht werden soll dies vor allem mit einer Neuausrichtung der User Experience auf der Google-Ergebnisseite. Hier werden sich schon in naher Zukunft allerlei personalisierte Elemente finden, die Nutzern helfen sollen, ihre Reise durchs unendliche Informationsuniversum effizienter zu gestalten. Das der Nutzer sich in diesem Prozess nicht nur selbst kennenlernt, sondern vor allem die Suchmaschine den Nutzer, das versteht sich von selbst.
Bevor aber Kritik aufkommt, schnell weiter zum zweiten Paradigmenwechsel: Antwort vor Frage.
Google hat sich vorgenommen, die für den individuellen Anwender relevanten Informationen zu identifizieren und aufzubereiten, noch bevor dieser überhaupt eine Suchanfrage formuliert hat. Der Schlüssel ist hier technologischer Natur. Nach „Künstlicher Intelligenz“ und „Deep Learning“ soll vor allem eine Technik namens „Neural Matching“ helfen: Sie verknüpft die artikulierte Repräsentation durch Text, Sprache oder Bild mit dem jeweils übergeordneten Objekt oder Konzept. Dies stellt die Fortführung des Konzepts der Semantischen Suche und der Entitäten mit neuen technologischen Konzepten dar und ist aus Unternehmenssicht mehr als konsequent.

Die dritte Säule der Veränderung soll eine stärkere Öffnung der Suchsysteme für visuelle Informationen sein. Das Visual Search ein großes Potential für Nutzer und Wertbetreibende birgt, haben wir an diese Stelle schon mehrfach beschrieben. Google lässt sofort Taten folgen und stellt eine komplette Überarbeitung seiner Bildersuche, sowie die Integration seiner KI-getriebenen Bilderkennungstechnologie „Lens“ in die neue Generation der hauseigenen „Pixel“-Smartphones vor. Interessant an der Google-Jubiläumsschrift ist vor allem, was nicht erwähnt wird: Der Sprachassistent Google Home. Es ist ein gutes Zeichen, dass sich Google trotz aller Marktzwänge nicht von seiner technologischen DNA abbringen und in eine Konkurrenz zum Voice-Marktführer Amazon drängen lässt. Das Thema Voice wird die Suchwelt, entgegen dem veröffentlichten Hype, ganz sicher nicht aus den Fugen heben.

2) Das Ende der vernetzten Welt

Ach, wie doch alles zusammenhängt: Das Individuum, die Welt, die Technologie und die Demokratie. Immer mehr Aspekte unserer Existenz werden digitalisiert oder über digitale Kanäle vermittelt. Bei diesem Prozess kommt es immer wieder zu Verzerrungen. Als Taktgeber dieser Disruption agieren die bekannten Tech-Konzerne mit ihren Plattformen. Möglicherweise ist es kein großer Schritt mehr, bis sich Facebook, Amazon oder Google als die quasi-institutionalisierten Eckpfeiler unseres gesellschaftlichen und wirtschaftlichen Systems etablieren können. Schon heute übertrifft die reale Gestaltungskraft dieser Unternehmen oftmals die Leistungsfähigkeit bestehender, staatlicher Regelwerke. Und Suchmaschinen stehen als Mensch-Maschine-Schnittstelle und Vermittlungsplattform im Zentrum dieser Entwicklung. Die relevanteste Shopping-Suchmaschine Amazon verändert mit ihrem radikalen Umbruch des Einzelhandels beispielsweise nicht nur unser persönliches Konsumverhalten, sondern auch die Erscheinung unserer Städte und Landschaften. Der Bequemlichkeit des Konsumenten folgen leerstehende Geschäfte in den Innenstädten und kilometerlange, gesichtslose Logistik-Laderampen in der Provinz. Währenddessen hat der globale Populismus geschickt soziale und informationelle Suchsysteme genutzt, um seine Botschaften passgenau zu platzieren und zu verstärken. Facebook und Google haben mit ihren Diensten zumindest geholfen, die Mehrheitsverhältnisse in den größten Demokratien der Welt binnen kürzester Zeit auf den Kopf zu stellen. Aus einem Selbstverständnis als reine Technologiefirmen weigern sich Google, Facebook und Co. allerdings bislang hartnäckig, die Verantwortung für die Konsequenzen ihres Handelns zu übernehmen. Außer öffentlichen Bußgängen und der vagen Ankündigung, man suche nach „technischen Lösungen“ zeigt man sich wenig offen dafür, die eigene Strategie den immanenten systemischen Gefahren anzupassen. Die interessante Frage lautet daher: Müssen globale Technologieunternehmen eben jene Werte von Freiheit und Demokratie repräsentieren, die das Fundament für ihren eigenen Aufstieg und Erfolg in den USA und Westeuropa gelegt haben? Oder dürfen sich Unternehmen wie Google oder Facebook je nach Marktlage flexibel zeigen und ihren technologischen Vorsprung im Zweifelsfall auch im Kontext von Zensur und Repression ausspielen? Aktuell lässt sich der Zustand dieser Debatte an Googles Projekt „Dragonfly“ ablesen. Da Mountain View bislang die Zensur seiner Produktinhalte verweigert hat, blieb dem globalen Marktführer ausgerechnet der Zugang zum weltweit größten und am stärksten wachsenden Markt verwehrt. Die Volksrepublik China musste und konnte gut damit leben, dass Google im Jahre 2010 sämtliche Aktivitäten im Land eingestellt hatte. Man kam am Gelben Fluss auch sehr gut ohne Konkurrenz für die eigenen Flaggschiffe Baidu, Tencent und Alibaba aus. Laut übereinstimmenden Medienberichten arbeitet Google nun seit mehreren Monaten daran, sein Engagement im Reich der Mitte neu zu starten, mit dem Segen der Regierung in Peking. Unter dem Arbeitstitel „Dragonfly“ plant Google den Berichten zufolge die Einführung einer Search- und einer MapsApp. In enger Zusammenarbeit mit den chinesischen Behörden sollen diese Apps unter staatlicher Kontrolle und Zensur den Weg bereiten für zukünftige, breiter angelegte Aktivitäten aus Mountain View in der Volksrepublik, hieß es weiter. Man zeigt also Wohlverhalten, wenn die Aussicht auf Profit stimmt. Man kann dieses Vorgehen als pragmatisch und wirtschaftlich gegeben bewerten. Vor allem vor dem Hintergrund, dass die chinesischen Behörden dem Konkurrenten Facebook eine bereits erteilte Firmenzulassung nach nur einem Tag wieder entzogen haben. Ungezügelte Disruption im Westen und kooperative Unterordnung in Asien, der ehemalige Google CEO Eric Schmidt hat die Konsequenzen dieser Doppelmoral vor wenigen Tagen in San Francisco skizziert. Schmidt sagte dem US-Nachrichtensender CNBC, er rechne damit, dass sich das Internet innerhalb des kommenden Jahrzehnts teilen werde. Er erwarte eine Spaltung in ein chinesisch dominiertes und ein US-dominiertes Internet bis spätestens 2028. Offenbar hat man sich im Silicon Valley von der Vision einer globalen und offenen Vernetzung der Welt bereits verabschiedet. Die Konsequenzen dieser Entwicklung wird jedoch jeder Einzelne zu spüren bekommen.

 

Dieser Beitrag erschien zuerst bei Internet World Business.

SEO News

Jetzt haben wir Dürre und Hitze überstanden, nur um uns mit Oktoberfest und Halloween in den nächsten Exzess zu stürzen. Um nicht ganz den Halt zu verlieren, widmen wir uns in den aktuellen SEO-News für den Monat September der kritischen Reflektion von Superlativen, No-Click-Suchen und dem Verkaufstalent von Amazons Alexa.

1) Die besten SEO News der Branche

Von Allem nur das Beste! Der Superlativ hat der Werbung seinen Stempel aufgedrückt, wie kaum eine andere grammatikalische Konstruktion. Zwar streitet die Werbewirkungsforschung seit vielen Jahrzehnten, ob sich die potentielle Kundschaft von einem schlichtweg behaupteten Superlativ überhaupt beeindrucken lässt, im Suchmaschinenmarketing kann man die Frage jedoch relativ leicht beantworten. Laut einer aktuellen Google-Studie für den US-Markt, sind mobile Suchen nach dem Attribut „Best“ im Verlauf der vergangenen zwei Jahre um rund 80 Prozent gestiegen. Dies belegt: Ein Konsumenteninteresse nach den maximal besten Produkten jeglicher Kategorie ist durchaus vorhanden. Doch was ist die Motivation hinter dieser Suche, bei der man als Nutzer erwarten kann, dass ein Großteil der Suchergebnistreffer von SEOs auf genau diesen Begriff hin optimiert wurde? Sara Kleinberg, Googles Head of Ads Research and Insights, erklärt in ihrem Beitrag zur Studie, dass die Menschen mit dem Adjektiv gezielt individuelle Lösungen für allgemeine Bedürfnisse, wie das „beste Restaurant“ oder die „beste Tagescreme“ suchen. Und das, obwohl gerade auf der individuellen Ebene die Definition eines Superlativs für jeden User eine ganz persönliche Angelegenheit ist. Laut Google verbirgt sich hinter den zunehmenden Superlativ-Suchanfragen die Intention, eigene Entscheidungen in einer komplexer werdenden Welt zunehmend abzusichern. „Wir sehen, dass die Menschen immer mehr und längere Recherchen für große aber auch kleine Kaufentscheidungen durchführen“, so Kleinberg. Im Kern gehe es den Menschen darum sicherzustellen, dass sie den Kauf später nicht bereuen. In Umfragen habe man festgestellt, dass Nutzer gezielt nach Bestenlisten von Produktkategorien suchten, um die Auswahl potentieller Produkte oder Dienstleistungen einzugrenzen. Vom Suchattribut „beste“ erwarten sich Nutzer laut Kleinberg eine Art kollektiv legitimierte Vorauswahl. Gerade bei Themenbereichen, in denen man sich nicht auskenne, erwarte man den schnellsten Zugang zu aggregierten Informationen und Bewertungen, so Google. Für den Werbetreibenden bedeutet diese Entwicklung, dass eine Optimierung ausgewählter Produktseiten auf den Begriff „(die/der/das) beste“ eine echte Option ist, um potentielle Käufer in der Kaufentscheidungsphase, aber auch mit Aftersales-Themen zu erreichen. Dies kann entscheidend auf eine positive Markenwahrnehmung beim Endkunden einzahlen, stärkt aber auch die Autorität eines Markenbegriffs im Kontext von Suchsystemen wie Google oder Bing.

2) Keine Panik: Zeitenwende im Search-Marketing

Suchmaschinenexperten können seit einiger Zeit Trends erkennen, die auf einen signifikanten Umbruch des Nutzerverhaltens in der Interaktion mit den großen Suchsystemen hindeuten. Für SEOs bedeutet dieser Wandel, dass man eingefahrene Muster und Strategien hinterfragen, sowie Zielsetzung als auch Methoden der eigenen Arbeit anpassen muss. Such-Guru Rand Fishkin hat die Entwicklung Blogbeitrag zusammengefasst. Laut Fishkin lassen sich anhand von Clickstream Daten, also Referrer-Daten auf Server-Ebene und anonymisierten Klickprotokollen aus Webapplikationen, vier zentrale Beobachtungen ableiten:

  1. Die Zahl der durchgeführten Suchen in allen Systemen und Plattformen stagniert seit geraumer Zeit.
  2. Die Klickraten auf organischen Suchergebnissen gehen mit der Ausdehnung bezahlter Positionen in den Suchergebnissen zurück. Hier ist insbesondere Mobile betroffen.
  3. Immer mehr Suchanfragen werden direkt in Googles oder Bings Suchergebnisseiten beantwortet. Ursache ist die signifikante Zunahme von Featured Snippets und Instant Answers sowohl auf dem Desktop also auch auf mobilen Endgeräten.
    Alle drei Phänomene verursachen so genannte „No-Click-Searches“, also Impressionen in Suchergebnissen, auf die kein Klick zu einer Website mehr erfolgt.
  4. Und schließlich entsteht mit dem Erfolg der SEO-Branche auch ein zunehmender Wettbewerb im in der organischen Suche.
    Bei genauer Betrachtung muss man einschränken, dass von den genannten Phänomenen in erster Linie etablierte Websites, vor allem aus dem Bereich E-Commerce betroffen sind. Deren Inhalte sind weithin optimiert und sie dienen dank hoher Autorität als Referenz für die Featured Snippets der Suchmaschinen. Ihr transaktionales Nachfragepotential wird von neuen Kanälen wie Amazon oder Google Shopping am stärksten abgeschöpft. Neue Domains, Nischenanbieter aber auch B2B-Webseiten sind dagegen weiterhin in der Lage, direkt vom signifikanten Wachstumspotential der organischen Suche profitieren. Doch Fishkins Beobachtungen machen nachdenklich: Wenn bei stagnierendem Traffic weniger Klicks generiert werden, sinkt der ROI auf Investitionen in Suchmaschinenoptimierung. Auf der anderen Seite wird auch zukünftig kein E-Commerce-Unternehmen auf aktives Search Marketing verzichten können. Google, Bing und Co. werden auch auf absehbare Zeit die verlässlichsten Quellen für qualitativ hochwertigen, skalierbaren Traffic bleiben. Entwicklungen wie Voice Search sind hier als Risiko und Chance gleichzeitig zu bewerten. SEO-Strategien müssten sich daher mehr auf Nachfragesteigerung und Brandbuilding fokussieren, lautet das Fazit von Rand Fishkin. Das deckt sich mit den Erfahrungen aus der Praxis: Deutliche Zuwächse an Klicks und Traffic gewinnt man zunehmend außerhalt transaktionaler Suchanfragen in der Kaufanbahnung und Post-Sales-Phase. Die enge Vernetzung von bezahlter und organischer Suche wird dabei entscheidend für den Erfolg sein. Die Tage, in denen man als SEO allein mit Traffic-Zuwachs und der Steigerung von Conversions punkten konnte, scheinen endgültig gezählt. Marken- und Produktpositionierung im Hinblick auf Zielgruppenrelevanz, Informationsdichte und Usability werden hingegen immer wichtiger.

3) Alexa ist noch keine Verkaufsmaschine

Weltweit haben rund 50 Millionen Alexa-Sprachassistenten die Wohn- und Schlafzimmer im Sturm erobert. Nicht nur der Hersteller Amazon verspricht sich viel von seinem neuen Mensch-Maschine-Interface, auch Werbetreibende weltweit hoffen darauf, dass sich mit dem digitalen Assistenten und dessen unmittelbaren Verknüpfung mit der weltweit größten Verkaufsplattform, neue Impulse im E-Commerce setzen lassen. Nach Informationen des Branchenblogs „The Information“ bleibt die Realität bislang jedoch hinter den großen Erwartungen zurück. Dem Bericht zufolge haben bislang nur rund 100.000 Nutzer mit Hilfe ihres Alexa-Assistenten einen Einkauf getätigt. Das sind nur rund zwei Prozent aller Nutzer weltweit. Den Angaben zufolge haben rund eine Million Nutzer einen Bestellprozess begonnen, diesen aber vor Abschluss der Transaktion abgebrochen. Die Gründe für das vergleichsweise geringe Shoppingvolumen auf der Alexa-Plattform haben wir auch in den letzten SEO News schon ausführlich besprochen. Es bestätigt sich, dass Nutzer vor einer Kaufentscheidung umfassende Informationen über das Produkt oder die Dienstleistung recherchieren und mit Konkurrenzprodukten vergleichen. Der Trend zur Absicherung der Kaufentscheidung nimmt sogar weiter zu. Sprachassistenten wie Alexa oder Google Home sind mit ihrer Fokussierung auf Sprachausgabe bislang nicht in der Lage, dieses Informationsbedürfnis zu befriedigen. Bis zu einem echten, von Alexa vermittelten Verkaufsgespräch zwischen einem potentiellen Käufer und der Anwendung eines Händlers oder Verkäufers auf dem Sprachassistenten wird es noch ein wenig dauern. Aktuell stehen die Smart-Home Steuerung, einfache Informationsanfragen wie die Wettervorhersage und Musikdienste an erster Stelle der beliebtesten Nutzungsszenarien. Man sollte die Technologie jedoch nicht unterschätzen. Die Individualisierung der Nutzeransprache im E-Commerce wird dank Künstlicher Intelligenz und dem großen Datenschatz von Amazon und Google nicht mehr lange auf sich warten lassen. Und ordentlich menscheln kann Alexa schon heute. Wie Amazon auf der Internationalen Funkausstellung (IFA) in Berlin bekanntgab, hat die bekannteste Tochter des Hauses bereits mehr als 100 Millionen Witze erzählt und Millionen von Menschen zum Geburtstag gratuliert.

Dieser Beitrag erschien zuerst bei Internet World Business.

SEO News

Endlich Sommerloch. Doch eine künstliche Intelligenz kennt kein Hitzefrei und kann daher auch mitten im Stau am Brenner das perfekte Kindermädchen im Auto geben. Vorausgesetzt der Sprachassistent hat auch etwas zu erzählen. Genau darum geht es in unseren SEO News für den Monat August. Und natürlich darf auch das notorische Sommerlochmonster nicht fehlen.

1) Ein Sprechzettel für Google Home

Das Zwiegespräch mit der Maschine bleibt ein Thema. Nachdem wir vergangenen Monat über automatisierte Sprachbefehle des Google Assistant an die Erwerbsbevölkerung berichtet haben, gibt es aus Mountain View nun eine handfeste Erleichterung für Content Publisher auf ihrem Weg in die Welt der Sprachassistenten. Mit „Speakable“ hat Google erstmal ein semantisches Markup zur Auszeichnung von Textausschnitten zur Sprachausgabe veröffentlicht. Die Auszeichnungen wurden über die Brancheninitiative „Schema.org“ zur Verfügung gestellt und befinden sich nach Angaben des Unternehmens noch in der Beta-Phase. Mit „Speakable“ können Nachrichtenanbieter und andere Content Publisher einen kurzen und auf Sprachausgabe optimierten Abschnitt eines Textes direkt für die Nutzung durch den Google Assistant bereitstellen. Ähnlich wie ein Teaser sollte der Text maximal zwei bis drei Sätze lang sein, sodass sich für die Ausgabe beim Assistenten eine Sprechzeit von 20 bis 30 Sekunden ergibt, rät Google. Für den optimalen Einsatz solle der Inhalt des Textes das Thema informativ und in kurzen Sätzen darstellen, auch Überschriften dürften verwendet werden, hieß es weiter. Bei der Auswahl der Inhalte muss sichergestellt werden, dass keine technischen Informationen wie Bildunterschriften sowie Datums- oder Quellenangaben das Nutzererlebnis beeinträchtigen können. Der optimierte Einsatz von Markup rückt für Suchmaschinenoptimierer im Zeitalter von künstlicher Intelligenz und der Multiplikation von Ausgabeplattformen immer stärker in den Fokus. Mit Hilfe dieser standardisierten Zusatzinformationen im Quelltext kann sichergestellt werden, dass alle an Auswahl und Darstellung der Suchergebisse beteiligten Systeme die Daten zuverlässig erfassen und optimal verarbeiten können. Das „Speakable“-Feature ist zunächst nur für die englische Sprache im US-amerikanischen Markt verfügbar. Den Start in weiteren Märkten plant Google jedoch nur unter der Voraussetzung, dass „eine hinreichende Anzahl von Publishern Speakable implementieren“, so das Unternehmen. Der SEO-Branche wird die Arbeit also so schnell nicht ausgehen.

2) Mehr Möglichkeiten für Amazons Alexa

Denkt man über die Zukunft der digitalen Suche nach, so verschiebt sich der Fokus langsam von der Analyse von Anfragen und Intentionen zur Reflektion über Antworten und Ausgabesysteme. Die entscheidende Herausforderung für eine gelungene Mensch-Maschine-Kommunikation im Wechsel zwischen interaktiven Displays, augmentierter Realität und Sprachassistenten wird es sein, das bestmögliche Ergebnis für jeden Kanal bereit zu stellen. Gibt es eine Antwort, mehrere Antworten oder beginnt mit der ersten Frage sogar eine Konversation zwischen Suchsystem und Suchendem? Im Prinzip läuft es mit den virtuellen Assistenten ähnlich wie mit dem Berater im stationären Geschäft: Will man ein schnelles Ergebnis haben oder ein komplettes Verkaufsgespräch beginnen? Will der Nutzer nur in Ruhe stöbern oder benötigt er die Hilfe eines Verkäufers? Reicht eine kurze Antwort oder muss der Suchende seine Anfrage mehrfach nachspezifizieren, bis er zum passenden Ergebnis kommt? Die US-amerikanische Firma „Yext“ hat nun eine Kooperation mit Amazon vorgestellt, die es erlaubt, sogenannte NAP-Daten (Name, Adresse und Telefonnummer), sowie Öffnungszeiten lokaler Unternehmen direkt zur Verarbeitung durch den Sprachassistenten Alexa zu importieren. Das Unternehmen aus New York teilte gegenüber Journalisten jedoch mit, dass für die Zukunft eine noch tiefere Integration ihrer Schnittstelle mit Amazon Alexa geplant sei. Ob damit auch Produktdaten und -kataloge gemeint sind, blieb zunächst offen. Die Automatisierung des Datenaustauschs zwischen den Inhabern digitaler Angebote und Suchsystemen mit dem Ziel einer optimalen Nutzererfahrung am Ausgabepunkt und valider Messbarkeit des Erfolgs ist schon heute einen Schlüssel zum Erfolg im digitalen Retailgeschäft. Für Googles Shoppingfunktion PLA (Product Listing Ads) oder auch den Einsatz auf Preissuchmaschinen und Affiliate Netzwerken ist die Bereitstellung und Optimierung von Datenfeeds ein zentraler Mechanismus. In der Amazon-Welt entstehen die dafür notwendigen Schnittstellen und Tools erst nach und nach. Dabei liegt genau hier das derzeit größte Potential, um vom Wachstum der digitalen Sprachassistenten zu profitieren.

3) Ein SEO Kaninchen auf SERP-Raubzug

Erinnern Sie sich noch Lotti die schnappende Schildkröte, Yvonne die flüchtige Kuh oder den Brillenkaiman Sammy? Wie gut, dass es Suchmaschinen gibt, die einem die Möglichkeit geben, das Schicksal der unzähligen Sommerlochtiere noch einmal zu erleben. Und das viele Jahrzehnte nachdem wir gebannt mit ihnen durch die mehr oder weniger nachrichtenlose Ferienzeit gefiebert haben. Neu aber ist, dass ein virtuelles Kaninchen die weltgrößte Suchmaschine Google in die Knie zwingt. Publiziert wurde die Geschichte unter dem Namen „Rabbit Bug“ vom spanischen Programmiererkollektiv „La SEOMafia“. Nach deren Angaben handelt es sich um das gezielte, manipulative Einfügen eines Tabellenformats in den Quelltext einer Website. Der Bug bestehe darin, dass Google beim Ausspielen des Suchergebnisses diese Formatierung nicht interpretieren könne, was zum plötzlichen Abbruch der Suchergebnisanzeige nach dem manipulierten Eintrag führe, hieß es. Dieser Fehler konnte auf einer rankenden Seite für das Keyword „Conejos“ (spanisch für Kaninchen) implementiert werden, sodass als Ergebnis nur der eine, manipulierte Suchtreffer angezeigt wurde. Man mag sich gar nicht vorstellen, welch traumhafte Klickraten sich auf diese Weise erzielen lassen könnten. Es ist auch in der inzwischen recht erwachsenen SEO-Branche immer wieder eine Freude zu sehen, wie ein paar kreative Geister den Laden ein wenig aufmischen. Letztendlich wurde sogar Googles SEO-Verbindungsoffizier John Müller auf den Rabbit Bug aufmerksam und meldete auf Twitter augenzwinkernd, er habe die Sichtung des Kaninchens intern weitergegeben. Dem Kaninchen droht nun das Schicksal aller Sommerlochtierchen. Am Ende wurden die meisten eingefangen oder erlegt.

Dieser Beitrag erschien zuerst bei Internet World Business.