Beiträge

Am Heiligabend 2018 werden jede Menge Sprachassistenten das Licht der Welt erblicken. Zum ersten Mal mit Strom versorgt, werden ihre Kameras den heimeligen Kerzenschein des Weihnachtsbaums erblicken und ihre Mikrofone werden zum ersten Mal die Stimmen ihrer zukünftigen, menschlichen Familienmitglieder hören. Für welchen Hersteller dieser Marketingtraum Realität wird, und wie Bing sich in Sachen Shoppinghilfe mausert, erfahren Sie in den letzten SEO News des Jahres 2018

Sprachassistenten im Weihnachtsstress

Weihnachten ist das Fest der Liebe. Und auch dieses Jahr werden sie sich erneut in vielen Haushalten wiederfinden: Die allgegenwärtigen Sprachassistenten. Zählten Alexa & Co. schon im vergangenen Jahr zu den Rennern unter dem Weihnachtsbaum, Marktführer Amazon hatte zum Fest 2017 nach eigenen Angaben mehrere Millionen seiner Alexa-Modelle verkauft, so blicken wir auch dieses Jahr mit Spannung auf die Verkaufszahlen. Stellt sich doch die Frage, ob sich der Trend zum Massenprodukt verfestigt und wer das Rennen um die Marktbeherrschung letztlich für sich entscheiden kann. Doch 2018 ist die Konkurrenz schärfer geworden und einige der größten Wettbewerber haben ihre Marktanteile signifikant ausbauen können. Nach Angaben der Unternehmensberatung „Strategy Analytics“ bleibt die weltgrößte Shoppingplattform aus Seattle mit rund 75 Prozent aller Smart Speaker zwar globaler Marktführer. Beim Wachstum im Jahresvergleich konnte aber Google mit seinem „Google Home“-Assistenten die Führung übernehmen. Um mehr als 420 Prozent konnte der Suchgigant aus Mountain View seine Verkäufe steigern und hält nun mit knapp 16 Prozent Marktanteil den 2.Platz im Ranking. Besonders auffällig: Der gemeinsame Marktanteil von Amazon und Google ist im Jahresvergleich von rund 90 Prozent auf nur noch 69 Prozent gefallen. Vor allem die Konkurrenz aus Asien macht Boden gut. So hat der chinesische Amazon-Konkurrent Alibaba auf der kanadischen KI-Konferenz NeurIPS einen Assistenten vorgestellt, welcher in seinen Fähigkeiten dem Technologieführer Google in nichts nachzustehen scheint. Ebenso wie Google auf seiner Entwicklerkonferenz mit einem spektakulären Telefongespräch zwischen Mensch und Maschine Schlagzeilen machte (wir berichteten), so hat auch Alibaba für die Demonstration einer Entwicklungsversion seines Assistenten „AliGenie“ ein menschliches Gespräch gewählt. Bei der Absprache eines Liefertermins schaffte es die Alibaba-Maschine, sich von Zwischenfragen nicht aus der Ruhe bringen zu lassen. Aus indirekten Hinweisen des menschlichen Gesprächspartners konnte das System sogar die richtigen Schlüsse in Bezug auf den Lieferort ziehen, eine Herausforderung, an der andere Sprachassistenten bislang gescheitert sind. Im Gegensatz zu Alexa und Google Home, die als Smart Speaker ihren festen Platz in unserer Lebenswelt finden sollen, integriert Alibaba seinen Sprachassistenten unmittelbar in die Geschäftsprozesse seines Unternehmens. So werden telefonische Bestellungen, Preisvergleiche und das Liefermanagement die ersten Teilbereiche sein, in denen AliGenie zum Einsatz kommen soll, so das Unternehmen. Wie sehr die digitale Welt auch beim Sprachassistenten gespalten ist, zeigt sich unter anderem  auch an den Verkaufdzahlen im Reich der Mitte. Den Angaben von Strategy Analytics zufolge hat Google 2017 auf dem weltweit größten Markt lediglich eine halbe Million Google Assistant-Geräte abgesetzt. Zum Vergleich: In den USA hat die Anzahl von Smart Speakern bereits fast die 50-Millionen-Marke erreicht. Das Rennen ist also noch nicht entschieden, die Zukunft der Sprachsuche so offen wie je zuvor.

Shoppen statt suchen

Microsoft hat seiner Suchmaschine Bing eine Reihe neuer Funktionen spendiert, mit deren Hilfe der Nutzer bei Suchen mit Kaufintention unterstützt werden soll. Mit dem Black Friday hat der Tech-Gigant aus Redmond den Zeitpunkt der Präsentation gut gewählt. So war ein Teil der neuen Funktionen speziell für den Black Friday konzipiert, und auch nur an diesem Tag verfügbar. Der Großteil der Funktionalitäten jedoch wird das ganze Jahr bleiben, soll aber gerade in der Vorweihnachtszeit besonders hilfreich sein. In einer Produktvergleichs-Funktion speziell für die Produktkategorie Mobiltelefone zeigt Bing Bewertungen, Rezensionen von Experten und Produkthighlights prominent über den organischen Suchergebnissen. Laut dem Unternehmen, soll es damit erleichtert werden, den neusten Hardware-Trends im Bereich der Mobiltelefonie zu folgen.

Eine zweite Funktion präsentiert Produkte in einer Art Featured Snippet-Vergleichstabelle. Eine Suche nach dem Superlativ (wir berichteten) „Bester Laptop“ resultiert beispielsweise in einer Vergleichsübersicht mit Produktbild, Aufzählung der Funktionalitäten und weiterführender Links. Es handelt sich aber nicht über eine Erweiterung von Bing Shopping, sondern um organische Suchergebnisse. Lediglich die exklusive Black-Friday-Funktion war über Bing Shopping erreichbar und ermöglichte Nutzern das Stöbern durch lokale und überregionale Angebotsflyer zur größten Rabattschlacht des Jahres. Während Google versucht, sein Shopping Produkt mit Hilfe von dubiosem Wettbewerb aus der Schusslinie der Aufsichtsbehörden zu nehmen, setzt Microsoft, die schon häufig in der Vergangenheit, auf Innovationen in der organischen Suche. Es macht also doch einen Unterschied, ob ein Suchsystem komplett vom Anzeigenumsatz abhängig ist, oder nicht.

Dieser Beitrag erschien zuerst bei Internet World Business.

Die aktuelle Funktionalität von Voice Interfaces ist noch lange nicht optimal. Vokabeln werden missverstanden und komplette Sätze falsch interpretiert. Zudem gibt es bei den gängigen Interfaces viele Entwicklungsbeschränkungen. Was muss sich technologisch verbessern, um eine höhere Akzeptanz seitens des Menschen zu bekommen? Welche Entwicklungstrends gibt es bei den Big Playern am Markt? Wir geben einen Ausblick darauf, wie sich Voice Interfaces weiterentwickeln und wo großes Potenzial steckt.

Der internationale Markt für Voice Interfaces entwickelt sich rasant und in verschiedene Richtungen. Einige Unternehmen konzentrieren sich auf die Verbesserung des Sprachverständnisses, andere arbeiten daran, etablierte Technologien um Komfortfunktionen zu erweitern. So bietet Alexa demnächst die Möglichkeit, per Stimmenanalyse zwischen mehreren Nutzern zu unterscheiden. Smart Assistants wird tieferes Wissen mit auf den Weg gegeben, um immer komplexere Spracheingaben verstehen zu können und somit intelligenter zu werden.

So wird beispielsweise bei Samsung’s Viv an Modellen gearbeitet, die zukünftig von externen Entwicklern erweitert werden können, um eine immer breitere Wissensbasis zu schaffen. Zusätzlich bilden sich Nischenmärkte für ganz spezielle Anwendungsgebiete von Conversational Interfaces – so gibt es sie schon jetzt für das Arbeiten mit Produktdaten oder InCar-Lösungen.

Die Pläne der Big Player

Amazon hatte mit Alexa nicht den Anspruch einen Smart Assistant auf den Markt zu bringen. Allerdings sollte sie die Möglichkeit bieten, von Entwicklern um Skills erweitert werden zu können. Ihre Funktionalität sollte wachsen, ihre Einsatzmöglichkeiten dadurch größer werden und es sollte sich ein Markt speziell für dieses Interface etablieren. Bei anderen Systemen gestaltet sich die Erweiterung durch externe Entwickler eher schwierig. Möchte man beispielsweise das Wissen von Siri um eine Domäne vergrößern – also um Wissen auf einem bestimmten Gebiet – hat dies massiven Einfluss auf die gesamte Funktionalität.

Ein gutes Beispiel ist hier das Wort „lieblich“, das sich auf einen Geschmack oder auch einen Duft beziehen kann. Würden beide Wissensdomänen ohne aufeinander abgestimmt zu sein, implementiert werden, wären Sätze wie „Ich mag es eher lieblich“ schwer zu interpretieren. Bei nur einer Wissensdomäne wäre die Zuordnung entgegen eindeutig. Daher gibt es im Umfeld von Apple auch noch keine Möglichkeit, Siri frei zu programmieren. Bei Cortana und dem Google Assistant(?) sind die Möglichkeiten zur Erweiterung dahingehend beschränkt, dass Voice Skills oder Actions – Googles äquivalent zu Skills – zwar entwickelt werden können, diese aber nicht auf das vorhandene Domänenwissen zugreifen können, was sie für Entwickler auf eine Stufe mit Alexa stellt.

Amazon setzt auf In-Skill Purchasing

Microsoft und Amazon arbeiten daran eine Integration von Alexa in Cortana und umgekehrt zu schaffen, um so den Markt zu erweitern. Erste Reviews dazu sind im Netz bereits zu finden. Zusätzlich ist Amazon dabei immer mehr Hardware für Alexa oder mit direkter Alexa-Unterstützung auf den Markt zu bringen. So gibt es zum Beispiel Buzzer – einfache Knöpfe, mit denen man eine Aktion auslösen kann, um das Umfeld von Gamification zu erweitern, Echos in allen Variationen und sogar mit Smart-Hub-Integration – unter anderem für Philips Hue.

Bisher offenbarte sich der Markt für Alexa-Skills allerdings eher als ein Nullsummenspiel. Einnahmen brachten lediglich die Erlöse, die durch die Nutzung von Amazon Web Services generiert wurden und das auch nur ab einem bestimmten Nutzungsvolumen. Dies hat sich mit der Einführung von „In-Skill Purchasing“ zumindest in den USA geändert: In-Skill Purchasing ist vergleichbar mit In-App Käufen und ist die erste, vom Anbieter unterstützte Art der Monetarisierung von Voice Interfaces. An jedem Kauf und mit jedem Abo verdient Amazon 30%. Das entspricht in etwa dem, was auch Apple und Co. im App-Markt verlangen. Dieses Modell wird es auch bald in Deutschland geben, wobei Amazon dazu noch keine genaueren Informationen veröffentlicht hat.

Google fokussiert sich auf Künstliche Intelligenz

Google spannt in seiner Entwicklung von Voice Interfaces ein weitaus größeres Feld auf. So wurde auf der diesjährigen Konferenz „Google I/O“ das System Duplex vorgestellt, das Funktionserweiterungen für den Google Assistant bietet. Es nutzt Künstliche Intelligenz (KI), ist in der Lage, Unterhaltungen zu verstehen und spricht mit einer täuschend echt klingenden menschlichen Stimme.

Doch was genau bedeutet das? Angenommen, mein bevorzugter Sushi-Lieferant hat keinen Online-Bestellservice, muss ich dann via Telefon bestellen? Solche telefonischen Bestellungen laufen alle nach demselben Prinzip: Ich sage, wo ich wohne und welches Gericht ich bestellen möchte. Als Antwort bekomme ich, wieviel ich zu zahlen habe und wann das Essen bei mir ankommt. Genau für solche Situationen hat Google Duplex geschaffen. Auf Anweisung kann es selbstständig Anrufe tätigen und beispielsweise Termine für uns vereinbaren. Dabei ist es kaum zu glauben, dass es sich nicht um einen echten Anrufer handelt. Neben dem natürlichen Sprachfluss spielen hier zusätzlich die Betonung und die Pausen eine besondere Rolle. Dabei kommt Duplex zugute, dass Google sich allgemein bereits tiefgehend mit natürlicher Sprache beschäftigt.

Bei der künstlichen Erzeugung der menschlichen Sprechstimme, der sogenannten Sprachsynthese, entwickelte Google Tacotron 2. Wie bisher, trainiert und erzeugt auch dieses neue System mit dem schon etablierten neuronalen Netz Deepmind WaveNet die natürliche Sprache. Neu ist jedoch, dass nun auch Daten zu Tonhöhen in das neuronale Netz einfließen. Wie genau das funktioniert und wie dieses System arbeitet, wird in diesem YouTube Video von CodeEmporium anschaulich dargestellt. Auf Cloud-Text-To-Speech kann man dieses System mit verschiedenen Sprachen testen. Wichtig ist lediglich, dass man hier den Voice-Typ „WaveNet“ angibt. Wer dieses System nutzen möchte, sollte allerdings bedenken, dass es viermal so teuer ist wiedas herkömmliche Cloud-Text-To-Speech.

Samsung und Apple lassen sich noch nicht in die Karten schauen

Warum Samsung Viv Labs übernommen hat und wie sich dieses System weiterentwickelt, ist leider völlig unklar. Ob Viv Samsungs bisherige Lösung Bixby ablöst oder die Viv- Technologie in Bixby integriert wird, bleibt abzuwarten. Klar ist jedoch, dass Viv auf Grund der gesamten Historie eine stark verbesserte Siri zu sein scheint und großes Potential hat (vgl. Voice Interfaces – Das Hier und Jetzt).

Siris Entwicklung scheint stattdessen eher zu stagnieren. Die einzigen großen Neuerungen im vergangenen Jahr waren Sprachmakros. Diese ermöglichen es, kleine Makros durch einen zuvor hinterlegten Sprachbefehl zu aktivieren. Es könnte sich hier aber auch um die sprichwörtliche Ruhe vor dem Sturm handeln. Denn Apple‘s HomePod wäre als mögliche Konkurrenz für Alexa prädestiniert. Dafür müsste Apple den Entwicklern allerdings die Schnittstelle zu Siri öffnen und die Möglichkeit schaffen, Software für den HomePod zu schreiben.

Wo geht die Reise hin?

Neben den Voice bzw. den Conversational Interfaces ist momentan auch Machine Learning in aller Munde. Die Fortschritte, die in den letzten Jahren bei den Voice Interfaces gemacht wurden, wären ohne Machine Learning nicht machbar gewesen. Ob beim Transkribieren, bei der Analyse von Texten oder bei der Sprachsynthese: Überall werden neuronale Netze eingesetzt und sorgen für immer verblüffendere Ergebnisse.

So könnte ein Voice Interface, das auf eine Stimme trainiert wurde, mithilfe von neuronalen Netzen und dem Wissen zu all ihren Eigenheiten auch im totalen Geräuschchaos die Stimme einer bestimmten Person sauber erkennen und verarbeiten. Wer schon mal versucht hat, während eines laufenden Films seine Alexa Smart-Home-Steuerung zu benutzen, versteht, wie wichtig dieser Schritt wäre. Schließlich möchte man sein Voice Interface nicht anschreien, um den Geräuschpegel im Raum zu übertreffen, sondern in normaler Lautstärke kommunizieren. Wenn darüber hinaus einzelne Stimmen separiert werden könnten, würde das die Einsatzgebiete von Voice Interfaces deutlich erweitern.

Neben der optimierten Sprachverarbeitung fällt auf, dass bisher alle Smart Assistants völlig gesichtslos sind. Das könnte sich bald ändern; So wurde in China gerade ein voll digitaler Nachrichtensprecher vorgestellt. Für Anbieter eines Produktes birgt das großes Potenzial. Auch wenn der Film „Her“ eine sehr persönliche Beziehung zu einer Stimme thematisiert, baut man zu etwas personenähnlichem sicherlich eine noch engere Bindung auf –man denke dabei an den Erfolg von Influencer Marketing. Mit der VR- und AR-Technologie könnte uns solch ein Assistent in menschlicher Form überall Gesellschaft leisten.

Wo versteckt sich das größte Potenzial?

Die Leistungsfähigkeit der Rechner: Bezüglich des Sicherheitsaspekts, dass jegliche Datenverarbeitung eines Voice Interfaces in der Cloud stattfindet, ist zu sagen, dass es zukünftig mehr Lösungen geben wird, bei denen die Verarbeitung lokal geschieht. Aktuell werden fast alle Daten in der Cloud des Anbieters verarbeitet und gespeichert. Das liegt vor allem daran, dass viele Lösungen noch an der notwendigen Leistungsfähigkeit der eigenen Rechner scheitern. Die Rechenleistung wird jedoch permanent höher und billiger. Daher ist es nur eine Frage der Zeit, bis es einwandfrei funktionierende Voice Interfaces auch auf einem Smartphone geben wird, das gerade nicht online ist.

Das Verständnis von Sprache: Viele Firmen beschäftigen sich zudem mit dem Verständnis von Sprache auf inhaltlicher Ebene. Wenn es um mehr als einen einzelnen Satz geht, zum Beispiel um den Inhalt einer gesamten Geschichte, sind heutige Voice Interfaces allesamt nutzlos. Bei einem Voice Interface wie wir es kennen, geht es in erster Linie nicht um Wissensinhalte, sondern um Willenserklärungen. Das Interface soll verstehen, was der Benutzer von ihm will, um dann darauf zu reagieren. Bei der Extrahierung von Wissen aus Texten geht es aber darum Wissen zu erfassen und in geordneten Strukturen zu speichern.

Nehmen wir beispielsweise einen Service-Mitarbeiter einer Hotline, der mit einem fünfminütigen Beschwerdedialog eines Kunden umgehen muss. Um ihn bei seiner Arbeit zu unterstützen, gibt es aktuell schon einige Ansätze, Gespräche automatisch zu verschlagworten und dem Mitarbeiter als Hilfestellung passende Themen auf einem Screen anzuzeigen. Noch sinnvoller wäre es jedoch, wenn das Interface aus einem Gespräch die Quintessenz extrahieren könnte, um dem Mitarbeiter die wichtigsten Stichpunkte auf einem Screen anzuzeigen, auf die er dann im Gespräch eingehen kann. Dafür muss so ein System aber inhaltlich verstehen, was der Nutzer sagt und gegebenenfalls auch bewerten oder priorisieren können. Weiterführend könnte ein Conversational Interface auch Informationen aus E-Mails oder sogar Chatbots extrahieren und Service-Mitarbeitern schnell alle relevanten Fakten zur Verfügung stellen.

Im Bereich Wissensrepräsentation und Natural Language Understanding wird weiterhin viel geforscht. Ebenso werden immer mehr selbstlernende Technologien zur Textanalyse wie zum Beispiel das „Word Embedding“ entwickelt. Auch hier ist es also nur eine Frage der Zeit, bis es Systeme geben wird, die sehr komplexe Inhalte verstehen.

Die Erkennung und das Verbalisieren von Bildinhalten: Wovon die meisten Menschen eher nur am Rande etwas mitbekommen, ist die sogenannte „Accessibility“ oder auch Barrierefreiheit in der digitalen Welt. So hat Siri in der Vergangenheit einen großen und sehr wichtigen Beitrag geleistet, damit auch Menschen mit Sehbehinderungen komfortabel mit einem Smartphone umgehen können. Gerade für sie ist die Nutzung von Voice Interfaces ganz besonders relevant.

Darüber hinaus gibt es im Bereich Machine Learning mittlerweile viele Forschungsarbeiten, die sich mit der Erkennung von Bildinhalten beschäftigen. Dabei geht es längst nicht mehr darum einen Hund oder eine Katze zu unterscheiden, sondern um Bildkonstruktionen mit vielen Komponenten. Man stelle sich ein System vor, das erkennt und beschreibt, wo sich beispielsweise eine Straße befindet – was davor ist, was dahinter – oder wahrnimmt, ob eine Ampel gerade rot ist beziehungsweise was auf Straßenschildern steht. Die Kombination dieser Technologien hätte einen echten Mehrwert. Ein System für Sehbehinderte, das beschreibt, was gerade vor ihnen passiert, das warnt, wenn Hindernisse in Sicht kommen und das sicher navigiert.

Fazit

Voice Interfaces sind auf einem guten Weg, jedoch fühlt es sich im Alltag noch nicht wirklich natürlich an, solch ein Interface zu benutzen. Dafür schwächelt mitunter das Sprachverständnis noch zu stark. An diesen Problemen wird allerdings gearbeitet und es ist abzusehen, dass wir in Zukunft fast beiläufig mit unserem digitalen Assistenten plaudern, ihm vielleicht sogar von unseren Hochs und Tiefs erzählen und verständnisvolle Antworten oder sogar Anregungen von ihm bekommen werden. Was dies für Auswirkungen auf unser soziales Leben haben wird, wird sich zeigen. Bisher hat jede große Technologie Vor- und Nachteile mit sich gebracht, wir müssen sie nur gewissenhaft einsetzen.

Dieser Beitrag erschien zuerst bei ADZINE und ist der letzte Beitrag einer vierteiligen Serie zum Thema Voice Interfaces:

Jetzt haben wir Dürre und Hitze überstanden, nur um uns mit Oktoberfest und Halloween in den nächsten Exzess zu stürzen. Um nicht ganz den Halt zu verlieren, widmen wir uns in den aktuellen SEO-News für den Monat September der kritischen Reflektion von Superlativen, No-Click-Suchen und dem Verkaufstalent von Amazons Alexa.

1) Die besten SEO News der Branche

Von Allem nur das Beste! Der Superlativ hat der Werbung seinen Stempel aufgedrückt, wie kaum eine andere grammatikalische Konstruktion. Zwar streitet die Werbewirkungsforschung seit vielen Jahrzehnten, ob sich die potentielle Kundschaft von einem schlichtweg behaupteten Superlativ überhaupt beeindrucken lässt, im Suchmaschinenmarketing kann man die Frage jedoch relativ leicht beantworten. Laut einer aktuellen Google-Studie für den US-Markt, sind mobile Suchen nach dem Attribut „Best“ im Verlauf der vergangenen zwei Jahre um rund 80 Prozent gestiegen. Dies belegt: Ein Konsumenteninteresse nach den maximal besten Produkten jeglicher Kategorie ist durchaus vorhanden. Doch was ist die Motivation hinter dieser Suche, bei der man als Nutzer erwarten kann, dass ein Großteil der Suchergebnistreffer von SEOs auf genau diesen Begriff hin optimiert wurde? Sara Kleinberg, Googles Head of Ads Research and Insights, erklärt in ihrem Beitrag zur Studie, dass die Menschen mit dem Adjektiv gezielt individuelle Lösungen für allgemeine Bedürfnisse, wie das „beste Restaurant“ oder die „beste Tagescreme“ suchen. Und das, obwohl gerade auf der individuellen Ebene die Definition eines Superlativs für jeden User eine ganz persönliche Angelegenheit ist. Laut Google verbirgt sich hinter den zunehmenden Superlativ-Suchanfragen die Intention, eigene Entscheidungen in einer komplexer werdenden Welt zunehmend abzusichern. „Wir sehen, dass die Menschen immer mehr und längere Recherchen für große aber auch kleine Kaufentscheidungen durchführen“, so Kleinberg. Im Kern gehe es den Menschen darum sicherzustellen, dass sie den Kauf später nicht bereuen. In Umfragen habe man festgestellt, dass Nutzer gezielt nach Bestenlisten von Produktkategorien suchten, um die Auswahl potentieller Produkte oder Dienstleistungen einzugrenzen. Vom Suchattribut „beste“ erwarten sich Nutzer laut Kleinberg eine Art kollektiv legitimierte Vorauswahl. Gerade bei Themenbereichen, in denen man sich nicht auskenne, erwarte man den schnellsten Zugang zu aggregierten Informationen und Bewertungen, so Google. Für den Werbetreibenden bedeutet diese Entwicklung, dass eine Optimierung ausgewählter Produktseiten auf den Begriff „(die/der/das) beste“ eine echte Option ist, um potentielle Käufer in der Kaufentscheidungsphase, aber auch mit Aftersales-Themen zu erreichen. Dies kann entscheidend auf eine positive Markenwahrnehmung beim Endkunden einzahlen, stärkt aber auch die Autorität eines Markenbegriffs im Kontext von Suchsystemen wie Google oder Bing.

2) Keine Panik: Zeitenwende im Search-Marketing

Suchmaschinenexperten können seit einiger Zeit Trends erkennen, die auf einen signifikanten Umbruch des Nutzerverhaltens in der Interaktion mit den großen Suchsystemen hindeuten. Für SEOs bedeutet dieser Wandel, dass man eingefahrene Muster und Strategien hinterfragen, sowie Zielsetzung als auch Methoden der eigenen Arbeit anpassen muss. Such-Guru Rand Fishkin hat die Entwicklung Blogbeitrag zusammengefasst. Laut Fishkin lassen sich anhand von Clickstream Daten, also Referrer-Daten auf Server-Ebene und anonymisierten Klickprotokollen aus Webapplikationen, vier zentrale Beobachtungen ableiten:

  1. Die Zahl der durchgeführten Suchen in allen Systemen und Plattformen stagniert seit geraumer Zeit.
  2. Die Klickraten auf organischen Suchergebnissen gehen mit der Ausdehnung bezahlter Positionen in den Suchergebnissen zurück. Hier ist insbesondere Mobile betroffen.
  3. Immer mehr Suchanfragen werden direkt in Googles oder Bings Suchergebnisseiten beantwortet. Ursache ist die signifikante Zunahme von Featured Snippets und Instant Answers sowohl auf dem Desktop also auch auf mobilen Endgeräten.
    Alle drei Phänomene verursachen so genannte „No-Click-Searches“, also Impressionen in Suchergebnissen, auf die kein Klick zu einer Website mehr erfolgt.
  4. Und schließlich entsteht mit dem Erfolg der SEO-Branche auch ein zunehmender Wettbewerb im in der organischen Suche.
    Bei genauer Betrachtung muss man einschränken, dass von den genannten Phänomenen in erster Linie etablierte Websites, vor allem aus dem Bereich E-Commerce betroffen sind. Deren Inhalte sind weithin optimiert und sie dienen dank hoher Autorität als Referenz für die Featured Snippets der Suchmaschinen. Ihr transaktionales Nachfragepotential wird von neuen Kanälen wie Amazon oder Google Shopping am stärksten abgeschöpft. Neue Domains, Nischenanbieter aber auch B2B-Webseiten sind dagegen weiterhin in der Lage, direkt vom signifikanten Wachstumspotential der organischen Suche profitieren. Doch Fishkins Beobachtungen machen nachdenklich: Wenn bei stagnierendem Traffic weniger Klicks generiert werden, sinkt der ROI auf Investitionen in Suchmaschinenoptimierung. Auf der anderen Seite wird auch zukünftig kein E-Commerce-Unternehmen auf aktives Search Marketing verzichten können. Google, Bing und Co. werden auch auf absehbare Zeit die verlässlichsten Quellen für qualitativ hochwertigen, skalierbaren Traffic bleiben. Entwicklungen wie Voice Search sind hier als Risiko und Chance gleichzeitig zu bewerten. SEO-Strategien müssten sich daher mehr auf Nachfragesteigerung und Brandbuilding fokussieren, lautet das Fazit von Rand Fishkin. Das deckt sich mit den Erfahrungen aus der Praxis: Deutliche Zuwächse an Klicks und Traffic gewinnt man zunehmend außerhalt transaktionaler Suchanfragen in der Kaufanbahnung und Post-Sales-Phase. Die enge Vernetzung von bezahlter und organischer Suche wird dabei entscheidend für den Erfolg sein. Die Tage, in denen man als SEO allein mit Traffic-Zuwachs und der Steigerung von Conversions punkten konnte, scheinen endgültig gezählt. Marken- und Produktpositionierung im Hinblick auf Zielgruppenrelevanz, Informationsdichte und Usability werden hingegen immer wichtiger.

3) Alexa ist noch keine Verkaufsmaschine

Weltweit haben rund 50 Millionen Alexa-Sprachassistenten die Wohn- und Schlafzimmer im Sturm erobert. Nicht nur der Hersteller Amazon verspricht sich viel von seinem neuen Mensch-Maschine-Interface, auch Werbetreibende weltweit hoffen darauf, dass sich mit dem digitalen Assistenten und dessen unmittelbaren Verknüpfung mit der weltweit größten Verkaufsplattform, neue Impulse im E-Commerce setzen lassen. Nach Informationen des Branchenblogs „The Information“ bleibt die Realität bislang jedoch hinter den großen Erwartungen zurück. Dem Bericht zufolge haben bislang nur rund 100.000 Nutzer mit Hilfe ihres Alexa-Assistenten einen Einkauf getätigt. Das sind nur rund zwei Prozent aller Nutzer weltweit. Den Angaben zufolge haben rund eine Million Nutzer einen Bestellprozess begonnen, diesen aber vor Abschluss der Transaktion abgebrochen. Die Gründe für das vergleichsweise geringe Shoppingvolumen auf der Alexa-Plattform haben wir auch in den letzten SEO News schon ausführlich besprochen. Es bestätigt sich, dass Nutzer vor einer Kaufentscheidung umfassende Informationen über das Produkt oder die Dienstleistung recherchieren und mit Konkurrenzprodukten vergleichen. Der Trend zur Absicherung der Kaufentscheidung nimmt sogar weiter zu. Sprachassistenten wie Alexa oder Google Home sind mit ihrer Fokussierung auf Sprachausgabe bislang nicht in der Lage, dieses Informationsbedürfnis zu befriedigen. Bis zu einem echten, von Alexa vermittelten Verkaufsgespräch zwischen einem potentiellen Käufer und der Anwendung eines Händlers oder Verkäufers auf dem Sprachassistenten wird es noch ein wenig dauern. Aktuell stehen die Smart-Home Steuerung, einfache Informationsanfragen wie die Wettervorhersage und Musikdienste an erster Stelle der beliebtesten Nutzungsszenarien. Man sollte die Technologie jedoch nicht unterschätzen. Die Individualisierung der Nutzeransprache im E-Commerce wird dank Künstlicher Intelligenz und dem großen Datenschatz von Amazon und Google nicht mehr lange auf sich warten lassen. Und ordentlich menscheln kann Alexa schon heute. Wie Amazon auf der Internationalen Funkausstellung (IFA) in Berlin bekanntgab, hat die bekannteste Tochter des Hauses bereits mehr als 100 Millionen Witze erzählt und Millionen von Menschen zum Geburtstag gratuliert.

Dieser Beitrag erschien zuerst bei Internet World Business.

Endlich Sommerloch. Doch eine künstliche Intelligenz kennt kein Hitzefrei und kann daher auch mitten im Stau am Brenner das perfekte Kindermädchen im Auto geben. Vorausgesetzt der Sprachassistent hat auch etwas zu erzählen. Genau darum geht es in unseren SEO News für den Monat August. Und natürlich darf auch das notorische Sommerlochmonster nicht fehlen.

1) Ein Sprechzettel für Google Home

Das Zwiegespräch mit der Maschine bleibt ein Thema. Nachdem wir vergangenen Monat über automatisierte Sprachbefehle des Google Assistant an die Erwerbsbevölkerung berichtet haben, gibt es aus Mountain View nun eine handfeste Erleichterung für Content Publisher auf ihrem Weg in die Welt der Sprachassistenten. Mit „Speakable“ hat Google erstmal ein semantisches Markup zur Auszeichnung von Textausschnitten zur Sprachausgabe veröffentlicht. Die Auszeichnungen wurden über die Brancheninitiative „Schema.org“ zur Verfügung gestellt und befinden sich nach Angaben des Unternehmens noch in der Beta-Phase. Mit „Speakable“ können Nachrichtenanbieter und andere Content Publisher einen kurzen und auf Sprachausgabe optimierten Abschnitt eines Textes direkt für die Nutzung durch den Google Assistant bereitstellen. Ähnlich wie ein Teaser sollte der Text maximal zwei bis drei Sätze lang sein, sodass sich für die Ausgabe beim Assistenten eine Sprechzeit von 20 bis 30 Sekunden ergibt, rät Google. Für den optimalen Einsatz solle der Inhalt des Textes das Thema informativ und in kurzen Sätzen darstellen, auch Überschriften dürften verwendet werden, hieß es weiter. Bei der Auswahl der Inhalte muss sichergestellt werden, dass keine technischen Informationen wie Bildunterschriften sowie Datums- oder Quellenangaben das Nutzererlebnis beeinträchtigen können. Der optimierte Einsatz von Markup rückt für Suchmaschinenoptimierer im Zeitalter von künstlicher Intelligenz und der Multiplikation von Ausgabeplattformen immer stärker in den Fokus. Mit Hilfe dieser standardisierten Zusatzinformationen im Quelltext kann sichergestellt werden, dass alle an Auswahl und Darstellung der Suchergebisse beteiligten Systeme die Daten zuverlässig erfassen und optimal verarbeiten können. Das „Speakable“-Feature ist zunächst nur für die englische Sprache im US-amerikanischen Markt verfügbar. Den Start in weiteren Märkten plant Google jedoch nur unter der Voraussetzung, dass „eine hinreichende Anzahl von Publishern Speakable implementieren“, so das Unternehmen. Der SEO-Branche wird die Arbeit also so schnell nicht ausgehen.

2) Mehr Möglichkeiten für Amazons Alexa

Denkt man über die Zukunft der digitalen Suche nach, so verschiebt sich der Fokus langsam von der Analyse von Anfragen und Intentionen zur Reflektion über Antworten und Ausgabesysteme. Die entscheidende Herausforderung für eine gelungene Mensch-Maschine-Kommunikation im Wechsel zwischen interaktiven Displays, augmentierter Realität und Sprachassistenten wird es sein, das bestmögliche Ergebnis für jeden Kanal bereit zu stellen. Gibt es eine Antwort, mehrere Antworten oder beginnt mit der ersten Frage sogar eine Konversation zwischen Suchsystem und Suchendem? Im Prinzip läuft es mit den virtuellen Assistenten ähnlich wie mit dem Berater im stationären Geschäft: Will man ein schnelles Ergebnis haben oder ein komplettes Verkaufsgespräch beginnen? Will der Nutzer nur in Ruhe stöbern oder benötigt er die Hilfe eines Verkäufers? Reicht eine kurze Antwort oder muss der Suchende seine Anfrage mehrfach nachspezifizieren, bis er zum passenden Ergebnis kommt? Die US-amerikanische Firma „Yext“ hat nun eine Kooperation mit Amazon vorgestellt, die es erlaubt, sogenannte NAP-Daten (Name, Adresse und Telefonnummer), sowie Öffnungszeiten lokaler Unternehmen direkt zur Verarbeitung durch den Sprachassistenten Alexa zu importieren. Das Unternehmen aus New York teilte gegenüber Journalisten jedoch mit, dass für die Zukunft eine noch tiefere Integration ihrer Schnittstelle mit Amazon Alexa geplant sei. Ob damit auch Produktdaten und -kataloge gemeint sind, blieb zunächst offen. Die Automatisierung des Datenaustauschs zwischen den Inhabern digitaler Angebote und Suchsystemen mit dem Ziel einer optimalen Nutzererfahrung am Ausgabepunkt und valider Messbarkeit des Erfolgs ist schon heute einen Schlüssel zum Erfolg im digitalen Retailgeschäft. Für Googles Shoppingfunktion PLA (Product Listing Ads) oder auch den Einsatz auf Preissuchmaschinen und Affiliate Netzwerken ist die Bereitstellung und Optimierung von Datenfeeds ein zentraler Mechanismus. In der Amazon-Welt entstehen die dafür notwendigen Schnittstellen und Tools erst nach und nach. Dabei liegt genau hier das derzeit größte Potential, um vom Wachstum der digitalen Sprachassistenten zu profitieren.

3) Ein SEO Kaninchen auf SERP-Raubzug

Erinnern Sie sich noch Lotti die schnappende Schildkröte, Yvonne die flüchtige Kuh oder den Brillenkaiman Sammy? Wie gut, dass es Suchmaschinen gibt, die einem die Möglichkeit geben, das Schicksal der unzähligen Sommerlochtiere noch einmal zu erleben. Und das viele Jahrzehnte nachdem wir gebannt mit ihnen durch die mehr oder weniger nachrichtenlose Ferienzeit gefiebert haben. Neu aber ist, dass ein virtuelles Kaninchen die weltgrößte Suchmaschine Google in die Knie zwingt. Publiziert wurde die Geschichte unter dem Namen „Rabbit Bug“ vom spanischen Programmiererkollektiv „La SEOMafia“. Nach deren Angaben handelt es sich um das gezielte, manipulative Einfügen eines Tabellenformats in den Quelltext einer Website. Der Bug bestehe darin, dass Google beim Ausspielen des Suchergebnisses diese Formatierung nicht interpretieren könne, was zum plötzlichen Abbruch der Suchergebnisanzeige nach dem manipulierten Eintrag führe, hieß es. Dieser Fehler konnte auf einer rankenden Seite für das Keyword „Conejos“ (spanisch für Kaninchen) implementiert werden, sodass als Ergebnis nur der eine, manipulierte Suchtreffer angezeigt wurde. Man mag sich gar nicht vorstellen, welch traumhafte Klickraten sich auf diese Weise erzielen lassen könnten. Es ist auch in der inzwischen recht erwachsenen SEO-Branche immer wieder eine Freude zu sehen, wie ein paar kreative Geister den Laden ein wenig aufmischen. Letztendlich wurde sogar Googles SEO-Verbindungsoffizier John Müller auf den Rabbit Bug aufmerksam und meldete auf Twitter augenzwinkernd, er habe die Sichtung des Kaninchens intern weitergegeben. Dem Kaninchen droht nun das Schicksal aller Sommerlochtierchen. Am Ende wurden die meisten eingefangen oder erlegt.

Dieser Beitrag erschien zuerst bei Internet World Business.