Bis zum Release von Amazons Echo aka Alexa haben die Big Player mit wenig Beachtung an ihren Voice-Technologien gearbeitet. Mittlerweile gibt es zahlreiche weitere Varianten, doch welche sind die bekanntesten und welches Voice Interface ist das geeignetste?

Heutige Voice Interfaces sind eine Kombination zweier Komponenten, nämlich der Transkribierung und des Natural Language Processing (NLP). Ein gesprochener Satz wird in einen Text transkribiert. Dieser wird auf Basis von Künstlicher Intelligenz analysiert, darauf basierend eine Reaktion erzeugt und diese über eine Sprachsynthese wieder in analoge Sprache umgewandelt und ausgespielt (siehe auch Teil 1).

Unterschiedliche Klassifizierung

Zu differenzieren sind Conversational Interfaces ohne und mit sogenannten Wissensdomänen. Hierbei handelt es sich um digitale Strukturen, die Wissen rund um einen Themenbereich abbilden.

1) Conversational Interfaces mit Wissensdomäne 

Bei Conversational Interfaces mit Wissensdomänen geht es nicht nur um die Analyse von Satzteilen, sondern darum, den tatsächlichen Sinn hinter einem Satz zu verstehen. Diese Art von Interfaces werden Smart Assistants genannt. Betrachtet man den für uns Menschen einfachen Satz: „Reserviere zwei Plätze in einem Zwei-Sterne-Restaurant in Hamburg!“ ist uns klar, um was es geht. Wir wissen, dass einem Restaurant „Sterne“ verliehen werden können, dass Hamburg eine Stadt ist und dass man in einem Restaurant Plätze reservieren kann. Ohne das Wissen in diesem Bereich ist es jedoch schwer, dem Satz einen Sinn zu entnehmen. „Zwei Sterne“ könnte genauso gut der Name eines bestimmten Restaurants sein. Was zwei Plätze sind und wie man sie reservieren kann, ist dann völlig unklar. Das überhaupt ein Restaurant mit bestimmten Eigenschaften in Hamburg gesucht werden soll, ist dann unklar. Smart Assistants sollen aber genau diese Dinge verstehen können und benötigen deshalb ein spezielles Grundwissen in den entsprechenden Domänen wie Gastronomie, Events, Wetter, oder Reisen.

2) Conversational Interfaces ohne Wissensdomäne

Conversational Interfaces ohne Domänenwissen haben diesen Anspruch nicht – so beispielsweise Alexa. Hier ist der Ansatz ein anderer. Für einen möglichen Dialog werden bei der Implementierung Satzstrukturen vorgegeben, in denen variable Teile, sogenannte Slots, definiert werden können. Der gesprochene Satz wird dann analysiert und einer Satzstruktur zugeordnet. Anschließend wird derjenigen Komponente, die die Reaktion auf das Gesagte generiert, mitgeteilt, welche Satzstruktur mit welchen variablen Teilen erkannt wurde. Dass dabei kein Grundwissen benötigt wird, verdeutlicht folgender Satz: „Ich möchte ein rotes Hemd kaufen“. An dieser Stelle braucht das System kein Wissen über Kleidung oder Farben, denn es gleicht lediglich ab, wie bestimmte Sätze bezogen auf den Kauf eines Hemdes aussehen können. Dazu wird im Model des Dialogs für das Interface festgelegt, dass es eine Satzstruktur mit einer ID gibt, die beispielsweise „hemdkauf“ heißt. Weiter wird festgelegt, dass die Satzstruktur folgende Ausprägungen haben darf: „Ich möchte ein <farbe> Hemd kaufen“, „Ich möchte ein Hemd in der Farbe <farbe> kaufen“ und “Ich möchte ein Hemd kaufen und zwar in <farbe>“. Dadurch wird ebenfalls definiert, dass es einen variablen Satzteil (Slot) mit dem Namen „farbe“ gibt. Für diesen Slot werden die gewünschten Möglichkeiten angegeben, z.B. „rot“, “grün“ und „gelb“. Wird vom Nutzer nun oben genannter Satz gesagt, ergibt die Analyse, dass es sich um die Satzstruktur „hemdkauf“ mit dem Wert „rot“ für den Slot „farbe“ handelt. In entsprechend strukturierter Form kann ein Backendsystem mit diesen Angaben schon etwas anfangen.

Die aktuellen Hauptakteure

Bis zum Release von Amazons Echo aka Alexa, haben viele IT-Firmen mit wenig Beachtung an ihren Voice-Technologien gearbeitet. Siri ist zwar mit einem Paukenschlag ans Licht der Öffentlichkeit getreten, wurde aber eher als hilfreiches Tool und nicht als eine völlig neue Klasse von Interfaces wahrgenommen. Die Vorteile von „hands free“ bei mobilen Geräten war aber nicht von der Hand zu weisen und so arbeitet nun jeder Big Player an seiner eigenen Sprachlösung. Hier eine kurze Vorstellung der aktuellen Hauptakteure:

Amazon‘s Alexa

Schaut man sich die Produktpalette von Amazon an, wird klar, dass Alexa eine konsequente Weiterentwicklung vorhandener Technologien ist. So waren schon die Fire Tablets (ab 2013), das Fire Phone (2014) und die ersten Fire TVs (2014) mit einer Sprachsteuerung ausgestattet. Die Technologie von Alexa als „Voice Interface as a Service“, oder auch der „Alexa Voice Service“, ist jedoch kein Smart Assistent. Hier werden im Hintergrund lediglich Sätze verglichen, statt den Sinn von Sätzen zu analysieren. Bei komplexeren Anfragen steigt Alexa schnell aus. Grund dafür ist, dass es nur sehr oberflächliche Wissensdomänen gibt, die dem Entwickler zudem nicht offenstehen. Auch die Anfragen, die man einem Echo gegenüber äußern kann, müssen sehr knapp und wenig komplex formuliert sein. So können Filme beispielsweise über den Namen von Schauspielern gesucht werden oder Restaurants nach der Angabe des Umkreises. Viel tiefer geht es hier schon nicht mehr.

Google Assistant

Google Now war ursprünglich ein Bestandteil von der Google Search und bezog sich rein auf die Suche im Web. Später wurde es ausgegliedert, um Domänenwissen erweitert und damit konkurrenzfähig gegenüber Assistenten wie Apple’s Siri oder Samsung‘s S Voice gemacht. Im letzten Jahr wurde Google Now dann durch den Google Assistent ersetzt. Wie stark die unterschiedlichen Wissensdomänen beim Google Assistent indessen verzahnt sind, wurde mit dem Produkt „Google Duplex“ eindrucksvoll auf der Entwicklerkonferenz von Google veranschaulicht. Google Duplex als Bestandteil des Assistenten kann mit realen Personen telefonieren und Termine für beispielsweise den Frisör machen oder einen Tisch reservieren. Dabei greift der Assistent nicht nur auf den Terminkalender zu, sondern muss auch über entsprechendes Domänenwissen verfügen.

Apple‘s Siri

Die Geschichte von Siri ist eine etwas andere. Der Smart Assistent wurde von der Firma Siri Inc. entwickelt und verfolgte von Anfang an den Ansatz, Sprache mittels Domänenwissen zu analysieren. Siri Inc. ist ein Spin-Off des Stanford Research Institutes (SRI). Vor 15 Jahren arbeitete SRI gemeinsam mit Institutionen an dem Projekt „CALO“ (Cognitive Assistant that Learns and Organizes), von dem viel Erfahrung in die Entwicklung Siris eingeflossen ist. 2010 wurde Siri im Appstore veröffentlicht und Siri Inc. prompt von Apple aufgekauft. Ein Jahr später verkündete Apple dann offiziell, dass Siri nun ein fester Bestandteil von iOS sei. Seitdem wurde es auf allen Plattformen ausgerollt. Zuletzt wurde mit dem HomePod ein smarter Lautsprecher herausgebracht, der mit dem Konkurrenzprodukt Echo von Amazon vergleichbar ist und auf den gegenwärtigen Trend der Voice Interfaces einzahlt.

Microsoft’s Cortana

Microsofts Cortana wurde der Öffentlichkeit 2014 das erste Mal auf einer Konferenz präsentiert. Ebenfalls als Smart Assistent ausgelegt, verfügt Cortana über interessante Adaptionen aus der Realität. Die sehen wie folgt aus: Ein realer Assistent macht sich meist Notizen über seinen Vorgesetzten oder Auftraggeber, um die Person besser kennenzulernen und sich ihre Gewohnheiten zu merken. Cortana nutzt dafür ein virtuelles Notebook. So fragt Cortana bereits bei der erstmaligen Nutzung einige Vorlieben ab, um schon früh personalisierte Antworten geben zu können. Diese Funktionalität kann je nach Bedarf auch ausgestellt werden. Das Herzstück von Cortana ist Bing; besser gesagt, sind es Services, die auf Bing basieren und erlauben, der Suchmaschine umgangssprachliche Anfragen zu stellen.

Samsung’s Viv

Auch Samsung versucht schon seit geraumer Zeit eine intelligente Software für ihre Geräte zu etablieren, die natürlich auch ein Sprachinterface bieten soll. Dazu kaufte Samsung 2016 kurzerhand das Unternehmen der Siri Urväter „Viv Labs“ auf. Viv Labs setzten mit ihrem System voll und ganz auf Domänenwissen. Anders als bei den Mitbewerbern soll es bei Viv jedoch möglich sein, die Wissensbasis von externen Entwicklern um neue Domänen erweitern zu lassen. Dadurch soll das System intelligenter werden und immer mehr verstehen können. Dazu stellt man sich beispielsweise eine Whisky-Manufaktur vor. Die Viv wird nun von Experten um die Wissensdomäne Whisky und die eigenen Produkte erweitert. Zusätzlich teilt eine Manufaktur ihr gesamtes Wissen über Holzfässer und deren Herstellung. Im Domänenwissen der Viv befindet sich nun wertvolle Expertise darüber, welche Holzfässer für den Geschmack bestimmter Alkoholsorten verantwortlich sind. So zum Beispiel, dass Eichenfässer für Whisky mit vanilligem Geschmack sorgen. Frage ich nun Viv, woher die Vanillenote eines bestimmten Whiskys von besagter Manufaktur kommt, kann mir die Viv antworten, dass der Geschmack höchstwahrscheinlich von der Lagerung in Eichenfässern herrührt. Viv hat dabei beide Domänen zusammengeführt.

IBM’s Watson

IBM Watson sei hier erwähnt, um mit Missverständnissen aufzuräumen. Es gibt keine „Künstliche Intelligenz Watson“, die alles versteht und kontinuierlich Wissen anhäuft. Watson ist eine Sammlung von verschiedenen Tools Künstlicher Intelligenz unter einem gemeinsamen Konzept, mit denen unterschiedlichste Projekte realisiert werden können. So gibt es beispielweise auch Projekte, die dazu dienen, eine große Wissensbasis aufzubauen. Allerdings sollte man sich nicht der Illusion hingeben, dass einem das eigene Watson-Projekt Zugriff auf dieses Wissen beschert. Wer ein Projekt mit Watson implementieren möchte, muss seine eigene Datenbasis mitbringen – so wie bei jedem anderen Maschine Learning Toolkit auch. Watson selbst stellt unter anderem Tools zum Transkribieren (The IBM® Speech to Text Service) und zur Textanalyse (Natural Language Understanding Service) zur Verfügung. Wer gemeinsam mit Watson ein Projekt realisieren möchte, baut bei der Implementierung von Voice Interfaces auf diesen zwei Tools auf.

Von der Analyse des Problems zum passenden Voice Interface

Natürlich gibt es viele weitere Lösungen, die teils sehr spezialisiert sind, teils aber auch die Restriktionen der Big Player aufbrechen möchten, um mehr Entwicklungsmöglichkeiten zu bieten. Es stellt sich nun natürlich die Frage: Wozu all die verschiedenen Voice Interfaces? Wie bei vielen anderen komplexen Problemstellungen auch, gibt es hier nicht die eine allgemeingültige Lösung. Es gibt kein „gutes“ oder „schlechtes“ Interface. Es gibt nur „richtige“ oder „falsche“ Anwendungsgebiete für die unterschiedlichen Technologien. Alexa taugt wenig für komplexe Satzstrukturen, eignet sich aber hervorragend für schnelle Umsetzungen und ist bereits weit verbreitet. Hingegen hat sich Viv noch nicht durchsetzen können, hat aber das Potenzial, beliebig komplexe Sätze verstehen zu können.

Für die Auswahl des passenden Voice Interfaces zählen also bestimmte Kriterien, wie der Anwendungsfall, der Fokus, die Problemstellung, die Bedürfnisse der Zielgruppe oder wie offen ein Interface für die Integration in eigene Projekte ist.

Dieser Artikel erschien zuerst bei Adzine und ist der erste Beitrag einer mehrteiligen Serie zum Thema Voice Interfaces:

Teil 1: „Voice Interfaces – Ein Trend mit Vergangenheit“
Teil 2: „Voice Interfaces – Das Hier und Jetzt“
Teil 3: „Voice Interfaces – Die 3 größten Herausforderungen“
Teil 4: „Voice Interfaces – Ein Blick in die Zukunft“

Irgendwie wird man ja dieser Tage den Verdacht nicht los, dass die Dinge ins Rutschen geraten sind. Leider können wir nicht für viel mehr Stabilität sorgen – denn es geht um Veränderung. Ob das Internet, wie wir es kennen, in zehn Jahren überhaupt noch existiert und was sich Google für die kommenden 20 Jahre vorgenommen hat, das erfahren Sie in den SEO-News für den Monat Oktober.

1) Schöne neue Google-Welt

Runde Geburtstage sind ein willkommener Anlass, um Bilanz zu ziehen und nach vorne zu schauen. Nicht anders geht es Unternehmen und Institutionen. Nun feiert also die Suchmaschine Google ihren 20. Geburtstag und in aller Konsequenz hat sich der erst vor wenigen Monaten ins Amt beförderte Leiter der Abteilung Search, Ben Gomes, in einem Blogbeitrag an einer großen Erzählung versucht. Gomes spannt den Bogen von seiner Kindheit in Indien, als sein einziger Zugang zu Informationen eine öffentliche Bibliothek der längst verschwunden Kolonialmacht Großbritannien war, zur Suchmaschine der Gegenwart. Personalisierung, Automatisierung und Relevanz sind laut Gomes die Eckpfeiler eines Qualitätsprodukts, welches ihm zufolge noch immer der ursprünglichen Vision folgt: „Die Informationen der Welt zu organisieren und für alle zu jeder Zeit zugänglich und nutzbar zu machen“. Ob dieses Ziel global gesehen gerade auf dem Altar der Verhältnismäßigkeit geopfert wird? Auf diese Frage und die Doppelmoral im Umgang mit China gehen wir weiter unten in diesen SEO-News nochmal ein.

Interessant für die tägliche SEO-Arbeit ist aber zunächst einmal ein Paradigmenwechsel, den Gomes als wegweisend für die kommenden 20 Jahre von Google ansieht. Grundsätzlich bestätigt der Search-Chef die Vision einer unsichtbaren und allgegenwärtigen Orientierungs-, Lösungs- und Komfortmaschine. Der Wandel zu dieser allgegenwertigen Dienstleistung soll laut Google durch drei fundamentale Veränderungsprozesse beschritten werden. Zunächst geht es um eine noch stärkere Personalisierung. Auf dieser Ebene will Google versuchen, sich vom situationsgetriebenen Antwortgeber zum ständigen Begleiter zu mausern. Wiederkehrende Informationsdefizite und laufende Rechercheprojekte der Nutzer sollen laut Gomes erkannt, aufgegriffen und bedient werden. Erreicht werden soll dies vor allem mit einer Neuausrichtung der User Experience auf der Google-Ergebnisseite. Hier werden sich schon in naher Zukunft allerlei personalisierte Elemente finden, die Nutzern helfen sollen, ihre Reise durchs unendliche Informationsuniversum effizienter zu gestalten. Das der Nutzer sich in diesem Prozess nicht nur selbst kennenlernt, sondern vor allem die Suchmaschine den Nutzer, das versteht sich von selbst.
Bevor aber Kritik aufkommt, schnell weiter zum zweiten Paradigmenwechsel: Antwort vor Frage.
Google hat sich vorgenommen, die für den individuellen Anwender relevanten Informationen zu identifizieren und aufzubereiten, noch bevor dieser überhaupt eine Suchanfrage formuliert hat. Der Schlüssel ist hier technologischer Natur. Nach „Künstlicher Intelligenz“ und „Deep Learning“ soll vor allem eine Technik namens „Neural Matching“ helfen: Sie verknüpft die artikulierte Repräsentation durch Text, Sprache oder Bild mit dem jeweils übergeordneten Objekt oder Konzept. Dies stellt die Fortführung des Konzepts der Semantischen Suche und der Entitäten mit neuen technologischen Konzepten dar und ist aus Unternehmenssicht mehr als konsequent.

Die dritte Säule der Veränderung soll eine stärkere Öffnung der Suchsysteme für visuelle Informationen sein. Das Visual Search ein großes Potential für Nutzer und Wertbetreibende birgt, haben wir an diese Stelle schon mehrfach beschrieben. Google lässt sofort Taten folgen und stellt eine komplette Überarbeitung seiner Bildersuche, sowie die Integration seiner KI-getriebenen Bilderkennungstechnologie „Lens“ in die neue Generation der hauseigenen „Pixel“-Smartphones vor. Interessant an der Google-Jubiläumsschrift ist vor allem, was nicht erwähnt wird: Der Sprachassistent Google Home. Es ist ein gutes Zeichen, dass sich Google trotz aller Marktzwänge nicht von seiner technologischen DNA abbringen und in eine Konkurrenz zum Voice-Marktführer Amazon drängen lässt. Das Thema Voice wird die Suchwelt, entgegen dem veröffentlichten Hype, ganz sicher nicht aus den Fugen heben.

2) Das Ende der vernetzten Welt

Ach, wie doch alles zusammenhängt: Das Individuum, die Welt, die Technologie und die Demokratie. Immer mehr Aspekte unserer Existenz werden digitalisiert oder über digitale Kanäle vermittelt. Bei diesem Prozess kommt es immer wieder zu Verzerrungen. Als Taktgeber dieser Disruption agieren die bekannten Tech-Konzerne mit ihren Plattformen. Möglicherweise ist es kein großer Schritt mehr, bis sich Facebook, Amazon oder Google als die quasi-institutionalisierten Eckpfeiler unseres gesellschaftlichen und wirtschaftlichen Systems etablieren können. Schon heute übertrifft die reale Gestaltungskraft dieser Unternehmen oftmals die Leistungsfähigkeit bestehender, staatlicher Regelwerke. Und Suchmaschinen stehen als Mensch-Maschine-Schnittstelle und Vermittlungsplattform im Zentrum dieser Entwicklung. Die relevanteste Shopping-Suchmaschine Amazon verändert mit ihrem radikalen Umbruch des Einzelhandels beispielsweise nicht nur unser persönliches Konsumverhalten, sondern auch die Erscheinung unserer Städte und Landschaften. Der Bequemlichkeit des Konsumenten folgen leerstehende Geschäfte in den Innenstädten und kilometerlange, gesichtslose Logistik-Laderampen in der Provinz. Währenddessen hat der globale Populismus geschickt soziale und informationelle Suchsysteme genutzt, um seine Botschaften passgenau zu platzieren und zu verstärken. Facebook und Google haben mit ihren Diensten zumindest geholfen, die Mehrheitsverhältnisse in den größten Demokratien der Welt binnen kürzester Zeit auf den Kopf zu stellen. Aus einem Selbstverständnis als reine Technologiefirmen weigern sich Google, Facebook und Co. allerdings bislang hartnäckig, die Verantwortung für die Konsequenzen ihres Handelns zu übernehmen. Außer öffentlichen Bußgängen und der vagen Ankündigung, man suche nach „technischen Lösungen“ zeigt man sich wenig offen dafür, die eigene Strategie den immanenten systemischen Gefahren anzupassen. Die interessante Frage lautet daher: Müssen globale Technologieunternehmen eben jene Werte von Freiheit und Demokratie repräsentieren, die das Fundament für ihren eigenen Aufstieg und Erfolg in den USA und Westeuropa gelegt haben? Oder dürfen sich Unternehmen wie Google oder Facebook je nach Marktlage flexibel zeigen und ihren technologischen Vorsprung im Zweifelsfall auch im Kontext von Zensur und Repression ausspielen? Aktuell lässt sich der Zustand dieser Debatte an Googles Projekt „Dragonfly“ ablesen. Da Mountain View bislang die Zensur seiner Produktinhalte verweigert hat, blieb dem globalen Marktführer ausgerechnet der Zugang zum weltweit größten und am stärksten wachsenden Markt verwehrt. Die Volksrepublik China musste und konnte gut damit leben, dass Google im Jahre 2010 sämtliche Aktivitäten im Land eingestellt hatte. Man kam am Gelben Fluss auch sehr gut ohne Konkurrenz für die eigenen Flaggschiffe Baidu, Tencent und Alibaba aus. Laut übereinstimmenden Medienberichten arbeitet Google nun seit mehreren Monaten daran, sein Engagement im Reich der Mitte neu zu starten, mit dem Segen der Regierung in Peking. Unter dem Arbeitstitel „Dragonfly“ plant Google den Berichten zufolge die Einführung einer Search- und einer MapsApp. In enger Zusammenarbeit mit den chinesischen Behörden sollen diese Apps unter staatlicher Kontrolle und Zensur den Weg bereiten für zukünftige, breiter angelegte Aktivitäten aus Mountain View in der Volksrepublik, hieß es weiter. Man zeigt also Wohlverhalten, wenn die Aussicht auf Profit stimmt. Man kann dieses Vorgehen als pragmatisch und wirtschaftlich gegeben bewerten. Vor allem vor dem Hintergrund, dass die chinesischen Behörden dem Konkurrenten Facebook eine bereits erteilte Firmenzulassung nach nur einem Tag wieder entzogen haben. Ungezügelte Disruption im Westen und kooperative Unterordnung in Asien, der ehemalige Google CEO Eric Schmidt hat die Konsequenzen dieser Doppelmoral vor wenigen Tagen in San Francisco skizziert. Schmidt sagte dem US-Nachrichtensender CNBC, er rechne damit, dass sich das Internet innerhalb des kommenden Jahrzehnts teilen werde. Er erwarte eine Spaltung in ein chinesisch dominiertes und ein US-dominiertes Internet bis spätestens 2028. Offenbar hat man sich im Silicon Valley von der Vision einer globalen und offenen Vernetzung der Welt bereits verabschiedet. Die Konsequenzen dieser Entwicklung wird jedoch jeder Einzelne zu spüren bekommen.

 

Dieser Beitrag erschien zuerst bei Internet World Business.

Bis ins Jahr 2015 wurden Voice Interfaces von den meisten eher als eine nette Spielerei wahrgenommen, die auf Smartphone und Navigationssysteme beschränkt war. Doch mit Amazon Echo kam diese Technologie quasi über Nacht in die Wohnzimmer vieler Verbraucher auf der ganzen Welt. Amazon behält sich zwar die genauen Absatzzahlen vor und hat bis heute keine weiteren Details veröffentlicht, jedoch wurden laut des Nachrichtenportals Business Insider im Jahr 2015 bereits 2,4 Millionen Amazon Echos weltweit verkauft. 2016 stieg der Absatz auf 5,2 Millionen an. Dadurch entdeckte auch Apple das bis dato stiefmütterlich behandelte Siri wieder und kündigte im Juni 2017, nach sechs Jahren Stille um das Spracherkennungsprogramm, ein ganz eigenes Device dafür an: den HomePod. Auch andere Unternehmen sahen sich gezwungen, diesem Trend zu folgen, wussten jedoch wenig damit anzufangen.

Back to the roots

Dabei sind Voice- bzw. Conversational Interfaces nicht wirklich etwas Neues. Voice Interfaces sind genau betrachtet Conversational Interfaces mit einem speziellen Eingabekanal, nämlich der analogen Sprache. Die Entwicklungsetappen der vergangenen Jahrzehnte dürften vielen Marktbeobachtern sogar bekannt sein. Betrachtet man die Technologie, die heutzutage hinter einem Voice Interface steckt, findet man zwei unterschiedliche Komponenten: Die eine ist für das Transkribieren von analoger Sprache in Text zuständig. Die andere analysiert den Text und reagiert entsprechend darauf. Dieser Teil wird durch Natural Language Processing und weitere Technologien der Künstlichen Intelligenz (KI) realisiert. Beide Komponenten gibt es als getrennte Technologien schon sehr lange:

1) Transkribieren

Transkribieren bedeutet einfach ausgedrückt, die Umwandlung von gesprochenem Text oder auch Gebärdensprache in eine schriftliche Form. Entsprechende Software gibt es bereits seit 1982. Seinerzeit hatte die Firma Dragon Systems dafür eine Software auf den Markt gebracht. Diese wurde für das damalige DOS(x86) entwickelt, hieß „DragonDictate“ und war eher rudimentär. Kontinuierlich zu transkribieren war damit nicht möglich. 15 Jahre später brachte dieselbe Firma „Dragon NaturallySpeaking 1.0“ auf den Markt. Die Software verstand natürliche Sprache bereits so gut, dass sie hauptsächlich für Diktate am Computer genutzt wurde. Allerdings mussten die damaligen Systeme stark auf die eigene Stimme trainiert oder das verwendete Vokabular begrenzt werden, um die Erkennungsgenauigkeit zu verbessern. Daher gab es bereits entsprechend vorgefertigte Sprachpakete für beispielsweise Anwälte oder Mediziner, deren Sprachgebrauch sehr speziell ist. Einmal optimiert, lieferten diese frühen System erstaunlich gute Resultate. Darüber hinaus bestand aber auch bereits die Möglichkeit, via Dragon ein Windows-System mit Sprachbefehlen zu steuern.

2) Natural Language Processing

Nachdem die Sprache transkribiert wurde, kann der Text weiterverarbeitet werden. Bei der Überlegung was für eine Technologie einen Text, der ansatzweise natürlich-sprachlich klingt, als Eingabe zulässt und darauf sinnvoll reagieren kann, kommt man schnell auf die sogenannten Chatbots. Diese sind eine Unterklasse autonomer Programme namens Bots, die bestimmte Aufgaben selbstständig erledigen. Chatbots simulieren Gesprächspartner, die oftmals themenbezogen agieren. Auch wenn sich diese erst in den letzten Jahren steigender Beliebtheit erfreuen, muss man auch hier eher von einer Renaissance sprechen; der erster Chatbot erblickte bereits vor 52 Jahren das Licht der Welt. Der Informatiker Joseph Weizenbaum entwickelte „ELIZA“, die heute als Prototyp der modernen Chatbots gilt und die Verarbeitung natürlicher Sprache erfolgreich demonstrieren sollte.

3) Künstliche Intelligenz

Die Entwicklung von ELIZA machte deutlich, dass einfache Mittel ausreichen, um beim Turing-Test für Künstliche Intelligenz (KI), bei dem es um die subjektive Bewertung eines Gesprächs geht, gute Ergebnisse zu erzielen. Probanden haben, trotz der simplen Mechanismen des Bots, angefangen eine persönliche Bindung aufzubauen, um dann sogar über private Dinge zu schreiben. Die Erfahrungen mit diesem ersten Conversational Interface sorgten für viel Aufmerksamkeit und kontinuierlich verbesserte Chatbot-Technologien.

So wurde 1981 beispielsweise BITNET (Because It’s There NETwork) ins Leben gerufen, ein Netzwerk, das die Forschungs- und Lehreinrichtungen der USA miteinander verband. Eine Komponente dieses Netzwerks war Bitnet Relay, ein Chatclient, aus dem später der Internet Relay Chat (IRC) wurde. Für diese Chat-Systeme, so auch für ICQ wurden im Laufe der Zeit von Studenten und Nerds unzählige, mehr oder weniger einfache, Chatbots entwickelt. Diese basierten, wie auch ELIZA, auf der einfachen Erkennung von Sätzen und nicht auf der Auswertung von Wissen.

2003 begann eine weitere wichtige Entwicklung, die auf eine neue Klasse von Chatbots einzahlt, nämlich auf die Smart Assistants wie beispielsweise Siri. CALO, der „Cognitive Assistant that Learns and Organizes“, war eine von der Defense Advanced Research Projects Agency ins Leben gerufene Entwicklung, an der sich viele amerikanische Universitäten beteiligten. Das System sollte dem Nutzer dabei helfen, effektiver mit Informationen umzugehen und ihm zu assistieren, indem es permanent seine Fähigkeit verbessern, die Wünsche des Nutzers richtig zu interpretieren. Basis dafür ist die digitale Wissensrepräsentation. Damit ist gemeint, wie Wissen in einem digitalen System festgehalten und nutzbar gemacht werden kann. Durch semantische Netze können Objekte und deren Fähigkeiten in Relation zu anderen Objekten abgebildet werden, die es dem Smart Assistant ermöglichen, Verständnis dafür zu entwickeln, was ein Nutzer mit einer bestimmten Äußerung ausdrücken möchte. Möchte beispielsweise ein Kunde einen „trockenen Wein“ über seinen Smart Assistant bestellen, so muss dieser kontextabhängig die Verbindung zwischen den Begriffen „trocken“ und „Wein“ kennen. Nur so versteht er, dass es sich hier um eine Geschmacksnuance handelt und nicht um die Abwesenheit von Flüssigkeit.

Die Learnings

Das einfache Erkennen und Vergleichen von Texten, auch Matching genannt, und die intelligente Analyse mittels Wissensrepräsentation sind zwei unterschiedliche Technologien, die sich unabhängig voneinander weiterentwickelt haben. Mit Hilfe des Matching-Ansatzes, lassen sich die meisten Anwendungsfälle mit überschaubaren Mitteln umsetzen. Für komplexere Anfragen eignet sich jedoch ein Smart Assistant deutlich besser. Allerdings ist diese Technologie in der Entwicklung und Umsetzung wiederum aufwendiger, da sie eine breite Wissensbasis benötigt.

Aktuell trifft man daher meist auf Chatbots, die auf der Matching-Technologie basieren und mit Hilfe von Machine Learning (ML) trainiert werden können. Bei dieser Methode werden dem System möglichst viele Textvarianten zu einer bestimmten Aussage übergeben, die es lernt, um in der späteren Anwendung auch Sätze zu erkennen, die Ähnlichkeit zu dem Gesagten haben, ohne über spezielles Wissen verfügen zu müssen.

Heutzutage können wir zwischen zwei Technologien wählen, die bei einem Conversational Interface zum Einsatz kommen können. Je nach Anforderungen muss man sich die Frage stellen, ob ein System, das Gesagtes mit gelernten Satzstrukturen vergleicht, genügt oder wird ein System benötigt, das versucht den Sinn des Gesagten zu verstehen und entsprechend darauf reagiert?

Dieser Artikel erschien zuerst bei Adzine. und ist der zweite Beitrag einer mehrteiligen Serie über Voice Interfaces:

Teil 1: „Voice Interfaces – Ein Trend mit Vergangenheit“
Teil 2: „Voice Interfaces – Das Hier und Jetzt“
Teil 3: „Voice Interfaces – Die 3 größten Herausforderungen“
Teil 4: „Voice Interfaces – Ein Blick in die Zukunft“

In meiner Kindheit habe ich sie geliebt. Bücher, bei denen ich den Verlauf der Handlung mitbestimmen konnte. Je nachdem welche Entscheidung ich getroffen habe, hatte das Buch ein anderes Ende.

Meine Kindheitstage sind vorbei und „Choose your own adventure Stories“ haben an Popularität verloren – dachte ich zumindest! Doch in letzter Zeit tauchen sie vereinzelt wieder auf. Und zwar in digitaler Form. Und das beste: diese neuen Story-Formate sind nicht nur etwas für Kinder.
Auf welchen Kanälen es diese Formate schon gibt und warum sie besonders für die digitale Kommunikation und damit das digitale Marketing von Unternehmen spannend sein können, lest ihr im Folgenden.

1. Choose your own adventure TV Story

In der HBO Serie „Mosaic“ können Zuschauer selbst entscheiden, aus welchem Blickwinkel der Charaktere die Geschichte fortgeführt wird. Innerhalb der zur Show gehörigen App können Nutzer die halbstündigen Sequenzen eigenständig wie ein Mosaik oder Puzzle zusammensetzen und beeinflussen somit die Reihenfolge des Erzählstrangs.

Glaubt man Gerüchten von Bloomberg plant auch Netflix interaktive Folgen für die fünfte Staffel von Black Mirror, bei der Zuschauer über das dystopische Ende entscheiden können. Man darf gespannt sein!

2. Choose your own adventure Instagram Story

Fans der Netflix Serie Stranger Things haben die Möglichkeit über Instagram Stories die Konversationsthemen und Handlungen von Steve und Dustin, zwei der Hauptdarsteller, zu steuern. Auf kreative Weise werden die Umfrage-Sticker eingesetzt, um über den weiteren Verlauf der Geschichte zu entscheiden.

3. Choose your own adventure Story per Sprachassistent

BBC’s Forschungs- und Entwicklungsabteilung hat Ende 2017 ein interaktives Audio Drama für Sprachassistenten wie Google Home und Amazon’s Alexa gelauncht. Gestartet wird die Experience mit dem Befehl „Alexa, open The Inspection Chamber“. Was folgt ist ein Hörspiel, dass auf die Interaktion der Zuhörer angewiesen ist. Abhängig von den gesprochenen Antworten der User ändern sich Teile der zwanzigminütigen Story. Insgesamt gibt es drei Variationen des Endes.

Warum sind diese Formate so interessant für digitales Marketing und Kommunikation?

Choose your own adventure-Bücher haben mich früher so sehr in den Bann gezogen, dass ich sie mehrmals gelesen habe. Nur um zu erfahren, wie der Lauf der Geschichte sich verändert, wenn ich mich an einer Stelle des Buches anders entschieden hätte.

Diese hohe Aufmerksamkeit und starkes Engagement führen bei spannendem Content zu langen Verweildauern. Ein kreativer Weg für Marken und Werbetreibende, um Kunden in den Bann zu ziehen und Loyalität aufzubauen.

Ein Testbericht der lange erwarteten Magic Leap One Augmented Reality Plattform

Vor mir schwebt ein virtuelles Regal mit verschiedenen Objekten und Kategorien, die ich auswählen kann. Ich greife mit dem Controller nach einer kleinen Rakete, nehme sie aus dem Regal und platziere sie im Raum. Zack! Niet- und nagelfest steht das kleine Raumfahrzeug im Comic-Videospiel-Stil vor mir. Ich gehe drum herum und gucke mir das Ding von allen Seiten an.

Für meine Kollegen sehe ich ein bisschen aus wie Vin Diesel in Riddick. Leider nicht wegen der Muskeln, sondern dank der spacigen Brille, die ich trage: Das Headset der neuen AR-Plattform Magic Leap One. Ich hatte die Gelegenheit das neue System in der „Creator Edition“ nur wenige Tage nach Veröffentlichung in unserem Plan.Net Innovation Studio in München zu testen.

Das augmentierte Bild durch die Brille ist leicht durchsichtig, ich kann das Muster des Teppichbodens hinter der Rakete noch erkennen – zumindest wenn ich bewusst darauf achte. Die Farben sind hell und bunt, wie sie sein sollen – für einen kurzen Moment entsteht der Wunsch, die Rakete mit dem Finger anzufassen und sie anzustupsen. Immersion Level 1 wird fix erreicht.

Zwischenzeitlich hieß es, die Brille könne Bilder auf sechs verschiedenen Ebenen projizieren um in Verbindung mit dem Tracking der Augenbewegung Objekte in verschiedenen Schärfegraden darzustellen. Experten beschwerten sich bereits, dass die Hardware nun mit nur zwei dieser Ebenen ausgestattet sei, was die Wahrnehmung wesentlich schlechter werden ließe. Ich kann das nicht nachvollziehen, denn die Gesamtleistung der Grafik ist für meine Begriffe noch weit davon entfernt, Kapital aus diesen sechs Ebenen schlagen zu können. Noch sieht alles sehr Videospiel-mäßig aus und auch die Auflösung ist noch nicht so hoch, dass dieser Detailgrad in der Wahrnehmung bereits eine entscheidende Rolle spielen würde.

Die Rakete klebt da immer noch. „War’s das jetzt?“ frage ich mich. Ich klicke die Rakete an und „Woosh!“ düst sie davon. Keine Ahnung wohin, sie ist jedenfalls weg. Danach setze ich einem meiner Kollegen einen Cowboy-Hut auf und verpasse ihm einen Schnurrbart aus der Objekte-Bibliothek, die auch noch immer hinter mir im Raum schwebt. Zumindest so lange, bis er einfach geht und Hut und Schnurrbart alleine im Raum schweben. Spielverderber.

Aus der nächsten Kategorie der Bibliothek klaue ich mir einige Teile, mit denen ich fix eine Art Kugelbahn zusammenbauen kann. Ich kann aus allen Richtungen an meiner Konstruktion arbeiten, mich währenddessen mit meinen Kollegen unterhalten und ihnen dabei in die Augen blicken es ist als hätte ich nur eine Sonnenbrille auf und würde an einem Aufbau arbeiten, der sich zwar für die Gesetze der Physik nicht sonderlich interessiert, aber ansonsten recht realistisch auf mich wirkt. Jedenfalls erreicht das Ganze recht zügig ein routiniertes und selbstverständliches Level. Dann schnappe ich mir die Kugel aus der Bibliothek und höre ihr zu, wie sie durch mein Rohrsystem rumpelt, auf ein Trampolin fällt, durch den Raum fliegt und dank des Real-World-Trackings von einem echten Tischbein im Raum abprallt.

Ich sehe meine Kollegen an, strahle wie ein kleines Kind und sage: „Das ist der Hammer, oder?“. Die drei Kollegen gucken mich an, ihre Hände in den Hosentaschen, und zucken fast simultan mit ihren Schultern. Immersion Level 2! Nur ich sehe meine Kugelbahn – das hatte ich vergessen. Tatsächlich ein kleiner Nachteil – teilen lassen sich die Erlebnisse noch nicht ganz so einfach.

Die zweite App, die ich testen darf, dreht sich um die isländische Band Sigur Rós. Gemeinsam mit Magic Leap hat man sich fünf Jahre damit beschäftigt, wie man in der Mixed Reality Musik kreieren oder komponieren kann. Tónandi nennt sich die App und eignet sich hervorragend zum Testen der Steuerung durch Gesten – den Controller braucht diese App nämlich nicht. Die Aufgabe besteht darin, sich durch verschiedene Level oder Welten zu bewegen, die man mit Gesten zum Leben erweckt. Man sammelt zum Beispiel Steine, streicht durch virtuelles Gras und stupst virtuelle Quallen an. Hat man eine Szene mehr oder weniger komplettiert, entsteht eine Art Wurmloch, durch das man in die nächste Szene gelangt. Beeindruckend!

Die Vielfalt der Gesten der eigenen Handbewegungen ist ein riesiger Vorteil. Es gibt acht verschiedene, die das System erkennt. Entwickler können selbst weitere Gesten hinzufügen und entwickeln. Das ist aus meiner Perspektive ein riesiger Pluspunkt des Magic Leap Systems. Microsoft bietet im Vergleich derzeit nur zwei fest definierte Gesten. Als jemand der Oberflächen und Produkte der digitalen Welt entwickelt und immer getrieben ist vom Wunsch nach bestmöglichen Nutzererlebnissen und relevanten Produkten, interessieren mich die verschiedenen Möglichkeiten zur Implementierung verschiedener Gesten in diesem Kontext natürlich brennend. Denn ich bin davon überzeugt, dass die Benutzung eines Produktes als unmittelbar markenbildend betrachtet werden muss. Unsere Arbeit hat daher neben dem zufriedenen Nutzer auch die Aufgabe zum gewünschten Markenbild beizutragen. Durch Details wie eine sinnvolle Gestensteuerung werden Angebote wesentlich schneller angenommen und können viel früher zu sehr immersiven Erlebnissen werden.

Auch wenn die Gesten aktuell oft noch sehr unnatürlich in ihrer Anwendung sind, es noch schwierig ist selbstverständlich nach einem virtuellen Stein zu greifen und hohe Latenzen einen im Unklaren darüber lassen ob man nun erfolgreich zugegriffen hat oder nicht: Die Tatsache, dass Entwickler eigene Gesten entwickeln können, sorgt dafür, dass viel ausprobiert und experimentiert werden kann, um schnellstmöglich zu einer User Experience zu kommen, die die Bedienung der Extended Realities so natürlich wie möglich macht.

Fazit: Alles in Allem bietet die Magic Leap One in ihrer ersten Version ein Mega-Erlebnis und ist ein wichtiger Schritt in Richtung consumer-facing AR fürs Wohnzimmer. Die Hardware ist grundsolide, einige Details hat Magic Leap noch nachzuliefern. Der Gesamteindruck leidet am stärksten unter dem massiven Hype, den die Kommunikation der letzten Jahre aufgebaut hat. Denn diesen Traum kann die Creator-Edition noch nicht wirklich erfüllen. Es ist wie mit allen modernen Plattformen: Die Third Party Development Community ist nun gefragt. Sie wird uns zeitnah die tatsächlichen Potentiale der Plattform offenlegen und Magic Leap eine gute Unterstützung bei der weiteren Entwicklung von Hard- und Software bieten.

Und was kostet das Ganze? Wer sich eines der begehrten Geräte anschaffen möchte, muss in die USA und dort vor Ort umgerechnet knapp 2.000 Euro investieren. Hinzu kommt dann noch der Zoll bei der Einführung nach Deutschland.

 

Dieser Beitrag erschien zuerst bei lead-digital.de.

Seit Jahren erwarten Apple-Fans die Keynote-Termine. Seit Jahren die Spannung, ob es ein „one more thing“ gibt. Und nein, das gab es Mitte September bei der Vorstellung der Apple Watch 4 und des neuesten iPhones leider (wieder) nicht. Zum einen sehen wir aktuell ohnehin mehr evolutionäre Entwicklungen, als diese eine Innovation, die uns den Atem stocken lässt, zum anderen werden die meisten Geräte-Visuals und Features mittlerweile schon vor den Events geleakt.

Also, gar kein Mega-Highlight? Jeder hat da sicherlich einen anderen Blick darauf. Mein persönlicher Höhepunkt war vor allem folgende Entwicklung: Apple wird mit der Apple Watch immer mehr zur Gesundheitsmarke. Die alte Weisheit „An Apple a day keeps the doctor away” bekommt damit eine ganz neue Bedeutung. Zwar ist Apple immer noch eine Lifestyle-Marke, aber der eigentliche Kern der Marke ist es, die täglichen Aufgaben und damit das Leben der Kunden zu vereinfachen oder zu erleichtern. Und dieses Grundversprechen wird nun auf das nächste Level gehoben mit einer Infrastruktur für sport- und gesundheitsbewusste Menschen, die auch im echten Notfall auf Apple zählen können.

Entscheidend für diese Entwicklung sind aus meiner Sicht die folgenden drei neuen Funktionen der Apple Watch 4:

  • Apple hat neue Elektroden und Herzfrequenzmesser verbaut, sodass mit Hilfe der Apple Watch nun EKGs durchgeführt werden können. Das ist ein echter Meilenstein und eine enorme Unterstützung für Herz-Kreislaufpatienten. Wo vorher für EKGs unhandliche Apparaturen eingesetzt werden mussten, erledigt das jetzt – dem Konzern nach zuverlässig – die Watch. Und damit man auch über jeden Zweifel erhaben ist, attestiert die „US Food and Drug Administration“ die professionelle Funktionsfähigkeit. Nicht nur, dass damit das Messen im akuten Fall vereinfacht wird, dieses „Apple Gesundheitssystem“ überwacht damit auf Wunsch rund um die Uhr die körpereigenen Systeme und schlägt Alarm, lange bevor die Person selbst Anzeichen, wie zum Beispiel Vorhofflimmern, erkennen kann. Die Erkennungsrate liegt einer Studie zufolge bei 97 Prozent. Damit können defacto Menschenleben gerettet werden. In Europa wird diese Funktion allerdings vorerst nicht verfügbar sein, hier müssen sicher noch einige Gesundheits- und Datenschutz-Gremien Brief und Siegel abgeben.
  • Sie haben gar keine Herz-Kreislaufprobleme, fahren aber riskant Ski oder neigen einfach zum Stolpern? Auch für diesen Fall hält Apple ein Feature bereit. Im Falle eines Sturzes wird ein automatischer Alarm ausgelöst, sofern man diese Funktion nicht innerhalb von einer Minute selbst deaktiviert. Dabei können auch Messdaten und Koordinaten an Rettungsstellen übermittelt werden.
  • Und sogar Diabetes-Patienten sollen mit „One Drop“ zukünftig am Handgelenk eine Blutzuckermessgerät-App nutzen können. Soweit das Versprechen.

Wie schafft es Apple nun, den Schritt von der reinen Lifestyle- zur Gesundheitsmarke zu vollziehen? Während andere einfach nur von einer Quantify-Yourself-Bewegung sprechen, und damit eher Nerds adressieren, verfolgt Apple den Plan, sich damit bei den Markenfreunden unentbehrlich zu machen.

Elementar hierfür ist Vertrauen. Vertrauen darin, dass die persönlichsten und intimsten Informationen absolut sicher sind. Und auch hier ist Apple (bislang zumindest) über jeden Zweifel erhaben. Oder wie Fast Company nach der letzten Keynote titelte: “Forget the new iPhones: Apple’s best product is now privacy”.

Und in diesem Punkt unterscheidet sich Apple von vielen anderen Digital-Giganten nicht erst seit der letzten Keynote. Schon in den letzten Jahren hat Apple sich im Umgang mit ihren – nein, besser unseren – Daten durch die absolute Abschottung aller persönlichen Daten der Nutzer und Schutz vor externem Zugriff hervorgetan – selbst wenn mal das FBI persönlich anfragt. Was sie durch diese konsequente Haltung erreicht haben, ist ein großes Maß an Vertrauen der Kunden. Und damit die wohl beste Basis dafür, auch in einem Mega-Markt der Gesundheitsprodukte der Zukunft ordentlich mitmischen zu können.

Der vertrauensvolle Umgang von Apple mit unseren Daten führt dazu, dass für die heute 30- bis 40-jährigen Fans, die übermorgen die gealterten Heavy-User dieser Angebote sind und über Jahr hinweg konditioniert wurden, sich ein Leben im Alter ohne Apple-Produkte gar nicht mehr vorstellen können. Strategisches Kalkül? Nein, sowas würden Apple-Jünger ihrer Love Brand niemals unterstellen. Doch schlau wäre diese Weitsichtigkeit allemal.

Stephan Enders, Head of Plan.Net Innovation Studio und – zugegeben – ein echter Apple-Fanboy

In der Serie „Dreimal aufgeschlaut“ erklären Experten der Plan.Net Gruppe regelmäßig ein aktuelles Thema der digitalen Welt aus unterschiedlichen Perspektiven. Was bedeutet es für die Oma, was für den Agentur-Kollegen? Und was hat der Kunde, also ein Unternehmen, davon?

Während man in ausländischen Geschäften und Restaurants oft Schilder mit der Aufschrift „No cash, only cards“ findet, ist Bargeld in Deutschland weiterhin das beliebteste Zahlungsmittel. EC- oder Kreditkarten werden vielerorts nicht akzeptiert. Auch Mobile Payment hatte es bisher schwer in Deutschland, doch das könnte sich dieses Jahr ändern. Mit der Einführung von Google Pay im Juni und dem geplanten Launch von Apple Pay im September soll endlich der deutsche Markt erschlossen werden. Höchste Zeit also für Händler und Marketer sich mit den Auswirkungen von Mobile Payment auf das Einkaufserlebnis zu beschäftigen.

Die Nutzung von Mobile Payment ist in Deutschland bisher noch verschwindend gering

Oma, wir müssen reden. Warum hältst du so sehr an deinem geliebten Bargeld fest und bist so zurückhaltend mit neuen Zahlungsmethoden? Hast du etwa Sicherheitsbedenken? Die Angst vor Internetbetrügern und die Sorge um Datenschutz ist in Deutschland wohl der ausschlaggebende Grund, weshalb sich Mobile Payment bisher noch nicht durchsetzen konnte. Mobiles Bezahlen wird bisher eher für kleine Geldbeträge mit geringem Risiko genutzt, etwa beim Lebensmitteleinkauf oder im öffentlichen Nahverkehr.

Oder liegt deine Zurückhaltung daran, dass du den Mehrwert von Mobile Payment bislang noch nicht für dich erkennst? Zugegebenermaßen, durch die Möglichkeit des kontaktlosen Bezahlens mit Giro- oder Kreditkarten an der Kasse eines stationären Händlers, genießt man die gleichen Vorzüge wie beim Mobile Payment: Geschwindigkeit und Komfort.

Welche Gründe dich auch davon abhalten Mobile Payment eine Chance zu geben, du bist damit nicht allein. Einer Umfrage von Oliver Wyman (2017) zu Folge, haben lediglich sieben Prozent der deutschen Befragten schon einmal mit ihrem Smartphone am Point-of-Sale bezahlt. Die positive Nachricht: ein Drittel der Nichtnutzer können sich vorstellen in Zukunft Mobile Payment zu nutzen.

In Asien ist Mobile Payment längst in der breiten Masse angelangt

Während wir in Deutschland noch über den kommenden Durchbruch von Mobile Payment diskutieren, gehört das Bezahlen per Smartphone in Asien längst zum Alltag. Letztes Jahr haben 70 Prozent der mobilen Internetnutzer in China mobil bezahlt (CNNIC 2017) und machten damit laut einer Studie der Deutschen Bundesbank mehr als die Hälfte des gesamten Zahlungsvolumens aus. Die führenden Anbieter sind der Instant Messenger WeChat (WeChat Pay) und der Online Retailer Alibaba (Alipay). Die Benutzung der beiden Mobile Payment Apps ist simpel. Für eine Transaktion wird lediglich ein QR Code und die jeweilige App benötigt. Einfach den QR Code scannen und innerhalb der App bezahlen. Alipay und WeChat Pay funktionieren nicht nur in großen Geschäften, sondern ebenso gut zum Bezahlen einer Melone bei einem kleinen Straßenhändler.

Noch spannender ist jedoch die Aussicht zukünftig nicht einmal mehr sein Smartphone zur Authentifizierung von Bezahlvorgängen zu benötigen.
In der chinesischen Metropole Hangzhou können Kunden der Fast-Food-Kette KFC mit einem Lächeln bezahlen. Die verwendete Gesichtserkennungssoftware „Smile to Pay“ braucht ein bis zwei Sekunden um einen 3D Scan des Gesichtes zu erstellen und den Kunden zu identifizieren. Aus Sicherheitsgründen wird die Bestellung zusätzlich durch die Eingabe der Mobilfunknummer verifiziert.

Haben die Entwicklungen im Mobile-Paymentbereich Auswirkungen auf die Agenturarbeit? In absehbarer Zeit wohl eher nicht. Vielleicht ist es aber in Zukunft möglich bei Google Pay die Post-Payment Seite als Werbemittel zu buchen und Ads auszuspielen, die auf das Nutzerprofil – Alter, Geschlecht, Region und Konsumverhalten – zugeschnitten sind.

Wie können Händler Mobile Payment für sich nutzen?

Mobile Payment ist von stationären Händlern bisher eher stiefmütterlich behandelt worden. Waren doch digitale Trends wie Augmented Reality, Virtual Reality und Sprachassistenten viel spannender. Doch Mobile Payment ist ein wichtiger Bestandteil der Digitalisierung des stationären Handels und sollte deshalb nicht außer Acht gelassen werden. Denn viele Kunden nutzen ihr Smartphone bereits während des Offline-Einkaufs. Als Storefinder, zur Produktrecherche oder für die Navigation innerhalb des Stores mit Hilfe von Augmented Reality Apps. Der nächste logische Schritt ist nun die Digitalisierung des Kaufabschlusses.

Wenn stationäre Händler Mobile Payment als Zahlungsmethode unterstützen, dann bieten sie ihren Kunden zwei Vorteile, nämlich Zeitersparnis und Bequemlichkeit. Angesichts des immer schneller und mobiler werdenden Lebensstils der Konsumenten, sind diese Faktoren entscheidend für die Customer Experience und die Zufriedenheit der Kunden.

Vorreiter in Sachen Mobile Payment ist in Deutschland das Fashionkaufhaus Breuninger. Breuninger bietet als erstes deutsches Kaufhaus Alipay und WeChat Pay als Zahlungsmethode an und richtet sich damit an finanzstarke und shopping-freudige, chinesische Touristen.

Ob auch deutsche Shopper künftig mehr mobil bezahlen, wird sich zeigen. Auf jeden Fall sollte der stationäre Handel schon jetzt darüber nachdenken, wie man Mobile Payment sinnvoll in die Customer Experience integrieren kann.

Dieser Beitrag erschien zuerst bei lead-digital.de.

Jetzt haben wir Dürre und Hitze überstanden, nur um uns mit Oktoberfest und Halloween in den nächsten Exzess zu stürzen. Um nicht ganz den Halt zu verlieren, widmen wir uns in den aktuellen SEO-News für den Monat September der kritischen Reflektion von Superlativen, No-Click-Suchen und dem Verkaufstalent von Amazons Alexa.

1) Die besten SEO News der Branche

Von Allem nur das Beste! Der Superlativ hat der Werbung seinen Stempel aufgedrückt, wie kaum eine andere grammatikalische Konstruktion. Zwar streitet die Werbewirkungsforschung seit vielen Jahrzehnten, ob sich die potentielle Kundschaft von einem schlichtweg behaupteten Superlativ überhaupt beeindrucken lässt, im Suchmaschinenmarketing kann man die Frage jedoch relativ leicht beantworten. Laut einer aktuellen Google-Studie für den US-Markt, sind mobile Suchen nach dem Attribut „Best“ im Verlauf der vergangenen zwei Jahre um rund 80 Prozent gestiegen. Dies belegt: Ein Konsumenteninteresse nach den maximal besten Produkten jeglicher Kategorie ist durchaus vorhanden. Doch was ist die Motivation hinter dieser Suche, bei der man als Nutzer erwarten kann, dass ein Großteil der Suchergebnistreffer von SEOs auf genau diesen Begriff hin optimiert wurde? Sara Kleinberg, Googles Head of Ads Research and Insights, erklärt in ihrem Beitrag zur Studie, dass die Menschen mit dem Adjektiv gezielt individuelle Lösungen für allgemeine Bedürfnisse, wie das „beste Restaurant“ oder die „beste Tagescreme“ suchen. Und das, obwohl gerade auf der individuellen Ebene die Definition eines Superlativs für jeden User eine ganz persönliche Angelegenheit ist. Laut Google verbirgt sich hinter den zunehmenden Superlativ-Suchanfragen die Intention, eigene Entscheidungen in einer komplexer werdenden Welt zunehmend abzusichern. „Wir sehen, dass die Menschen immer mehr und längere Recherchen für große aber auch kleine Kaufentscheidungen durchführen“, so Kleinberg. Im Kern gehe es den Menschen darum sicherzustellen, dass sie den Kauf später nicht bereuen. In Umfragen habe man festgestellt, dass Nutzer gezielt nach Bestenlisten von Produktkategorien suchten, um die Auswahl potentieller Produkte oder Dienstleistungen einzugrenzen. Vom Suchattribut „beste“ erwarten sich Nutzer laut Kleinberg eine Art kollektiv legitimierte Vorauswahl. Gerade bei Themenbereichen, in denen man sich nicht auskenne, erwarte man den schnellsten Zugang zu aggregierten Informationen und Bewertungen, so Google. Für den Werbetreibenden bedeutet diese Entwicklung, dass eine Optimierung ausgewählter Produktseiten auf den Begriff „(die/der/das) beste“ eine echte Option ist, um potentielle Käufer in der Kaufentscheidungsphase, aber auch mit Aftersales-Themen zu erreichen. Dies kann entscheidend auf eine positive Markenwahrnehmung beim Endkunden einzahlen, stärkt aber auch die Autorität eines Markenbegriffs im Kontext von Suchsystemen wie Google oder Bing.

2) Keine Panik: Zeitenwende im Search-Marketing

Suchmaschinenexperten können seit einiger Zeit Trends erkennen, die auf einen signifikanten Umbruch des Nutzerverhaltens in der Interaktion mit den großen Suchsystemen hindeuten. Für SEOs bedeutet dieser Wandel, dass man eingefahrene Muster und Strategien hinterfragen, sowie Zielsetzung als auch Methoden der eigenen Arbeit anpassen muss. Such-Guru Rand Fishkin hat die Entwicklung Blogbeitrag zusammengefasst. Laut Fishkin lassen sich anhand von Clickstream Daten, also Referrer-Daten auf Server-Ebene und anonymisierten Klickprotokollen aus Webapplikationen, vier zentrale Beobachtungen ableiten:

  1. Die Zahl der durchgeführten Suchen in allen Systemen und Plattformen stagniert seit geraumer Zeit.
  2. Die Klickraten auf organischen Suchergebnissen gehen mit der Ausdehnung bezahlter Positionen in den Suchergebnissen zurück. Hier ist insbesondere Mobile betroffen.
  3. Immer mehr Suchanfragen werden direkt in Googles oder Bings Suchergebnisseiten beantwortet. Ursache ist die signifikante Zunahme von Featured Snippets und Instant Answers sowohl auf dem Desktop also auch auf mobilen Endgeräten.
    Alle drei Phänomene verursachen so genannte „No-Click-Searches“, also Impressionen in Suchergebnissen, auf die kein Klick zu einer Website mehr erfolgt.
  4. Und schließlich entsteht mit dem Erfolg der SEO-Branche auch ein zunehmender Wettbewerb im in der organischen Suche.
    Bei genauer Betrachtung muss man einschränken, dass von den genannten Phänomenen in erster Linie etablierte Websites, vor allem aus dem Bereich E-Commerce betroffen sind. Deren Inhalte sind weithin optimiert und sie dienen dank hoher Autorität als Referenz für die Featured Snippets der Suchmaschinen. Ihr transaktionales Nachfragepotential wird von neuen Kanälen wie Amazon oder Google Shopping am stärksten abgeschöpft. Neue Domains, Nischenanbieter aber auch B2B-Webseiten sind dagegen weiterhin in der Lage, direkt vom signifikanten Wachstumspotential der organischen Suche profitieren. Doch Fishkins Beobachtungen machen nachdenklich: Wenn bei stagnierendem Traffic weniger Klicks generiert werden, sinkt der ROI auf Investitionen in Suchmaschinenoptimierung. Auf der anderen Seite wird auch zukünftig kein E-Commerce-Unternehmen auf aktives Search Marketing verzichten können. Google, Bing und Co. werden auch auf absehbare Zeit die verlässlichsten Quellen für qualitativ hochwertigen, skalierbaren Traffic bleiben. Entwicklungen wie Voice Search sind hier als Risiko und Chance gleichzeitig zu bewerten. SEO-Strategien müssten sich daher mehr auf Nachfragesteigerung und Brandbuilding fokussieren, lautet das Fazit von Rand Fishkin. Das deckt sich mit den Erfahrungen aus der Praxis: Deutliche Zuwächse an Klicks und Traffic gewinnt man zunehmend außerhalt transaktionaler Suchanfragen in der Kaufanbahnung und Post-Sales-Phase. Die enge Vernetzung von bezahlter und organischer Suche wird dabei entscheidend für den Erfolg sein. Die Tage, in denen man als SEO allein mit Traffic-Zuwachs und der Steigerung von Conversions punkten konnte, scheinen endgültig gezählt. Marken- und Produktpositionierung im Hinblick auf Zielgruppenrelevanz, Informationsdichte und Usability werden hingegen immer wichtiger.

3) Alexa ist noch keine Verkaufsmaschine

Weltweit haben rund 50 Millionen Alexa-Sprachassistenten die Wohn- und Schlafzimmer im Sturm erobert. Nicht nur der Hersteller Amazon verspricht sich viel von seinem neuen Mensch-Maschine-Interface, auch Werbetreibende weltweit hoffen darauf, dass sich mit dem digitalen Assistenten und dessen unmittelbaren Verknüpfung mit der weltweit größten Verkaufsplattform, neue Impulse im E-Commerce setzen lassen. Nach Informationen des Branchenblogs „The Information“ bleibt die Realität bislang jedoch hinter den großen Erwartungen zurück. Dem Bericht zufolge haben bislang nur rund 100.000 Nutzer mit Hilfe ihres Alexa-Assistenten einen Einkauf getätigt. Das sind nur rund zwei Prozent aller Nutzer weltweit. Den Angaben zufolge haben rund eine Million Nutzer einen Bestellprozess begonnen, diesen aber vor Abschluss der Transaktion abgebrochen. Die Gründe für das vergleichsweise geringe Shoppingvolumen auf der Alexa-Plattform haben wir auch in den letzten SEO News schon ausführlich besprochen. Es bestätigt sich, dass Nutzer vor einer Kaufentscheidung umfassende Informationen über das Produkt oder die Dienstleistung recherchieren und mit Konkurrenzprodukten vergleichen. Der Trend zur Absicherung der Kaufentscheidung nimmt sogar weiter zu. Sprachassistenten wie Alexa oder Google Home sind mit ihrer Fokussierung auf Sprachausgabe bislang nicht in der Lage, dieses Informationsbedürfnis zu befriedigen. Bis zu einem echten, von Alexa vermittelten Verkaufsgespräch zwischen einem potentiellen Käufer und der Anwendung eines Händlers oder Verkäufers auf dem Sprachassistenten wird es noch ein wenig dauern. Aktuell stehen die Smart-Home Steuerung, einfache Informationsanfragen wie die Wettervorhersage und Musikdienste an erster Stelle der beliebtesten Nutzungsszenarien. Man sollte die Technologie jedoch nicht unterschätzen. Die Individualisierung der Nutzeransprache im E-Commerce wird dank Künstlicher Intelligenz und dem großen Datenschatz von Amazon und Google nicht mehr lange auf sich warten lassen. Und ordentlich menscheln kann Alexa schon heute. Wie Amazon auf der Internationalen Funkausstellung (IFA) in Berlin bekanntgab, hat die bekannteste Tochter des Hauses bereits mehr als 100 Millionen Witze erzählt und Millionen von Menschen zum Geburtstag gratuliert.

Dieser Beitrag erschien zuerst bei Internet World Business.

In der Serie „Dreimal aufgeschlaut“ erklären Experten der Plan.Net Gruppe regelmäßig ein aktuelles Thema der digitalen Welt aus unterschiedlichen Perspektiven. Was bedeutet es für die Oma, was für den Agentur-Kollegen? Und was hat der Kunde, also ein Unternehmen, davon?

Schon mal von Kuro Takhasomi gehört? Nein? Unter dem Spitznamen KuroKy gehört der 25-jährige Berliner zu den größten Stars seiner Sportart und hat in seiner Karriere schon über 3,7 Mio. US-Dollar an Preisgeldern gewonnen. Mitte August tritt KuroKy zusammen mit seinen Mitspielern von Team Liquid beim Turnier „The International“ in Vancouver an. Das Ziel: Die Titelverteidigung beim höchstdotierten ESports Event der Welt. Die Sportart? Dota 2., ein teambasiertes Computerspiel. ESports, lange als weltfremdes Hobby für Kellerkinder verspottet, ist auf dem Weg zum Milliardenmarkt. Die Szene entwickelt sich rasant und die Potentiale für Sponsoring und Werbung sind gigantisch.

ESports: So vielfältig wie der klassische Sport, mit Vorbildern für Millionen

Wenn meine Oma mich fragt, was ESports eigentlich sein soll, ist die Antwort recht trivial. Wie bei den Olympischen Spielen treten Spieler alleine oder im Team in verschiedensten Disziplinen gegeneinander im Wettkampf an. Nur sind die Disziplinen nicht Handball, Tennis oder Bogenschießen, sondern Computerspiele wie Dota 2, League of Legends oder Counterstrike. Die Sportgeräte? Maus und Tastatur, statt Schläger, Turnschuhe oder Ball. Und so vielfältig wie die klassischen Sport-Disziplinen sind auch die verschiedenen Games, den „einen“ ESport gibt es nicht.
Organisiert sind die verschiedenen Spiele in Ligen und Meisterschaften, oft mit Teams aus der ganzen Welt. Die Finalrunden füllen große Arenen mit Tausenden von Zuschauern, übertragen werden die Events im Internet und immer häufiger auch im klassischen Fernsehen.

Eines aber haben Sport und ESport gemeinsam – nur mit jahrelangem, harten Training und sehr viel Disziplin gelingt der Sprung vom Hobby zum Beruf. Und genau hier verbirgt sich das Geheimnis zur oft gestellten Frage „Wieso schaut man anderen Leuten beim Zocken zu?“. Aus dem gleichen Grund, wieso man Lionel Messi, LeBron James oder Serena Williams bei ihren Sportarten vor dem Fernseher zusieht: weil sie zu den besten ihrer Zunft gehören und auf dem Platz Dinge anstellen, von denen man als Hobby-Spieler nur träumen kann.

ESports: Attraktives Media-Umfeld und Wachstumsmotor der Streaming-Plattformen

ESports ist primär ein digitales Unterhaltungsmedium und eignet sich aufgrund hoher Reichweiten und Sehdauern hervorragend für digitale Display- und Bewegtbildwerbung. Die primäre Zielgruppe sind junge, techaffine Männer, die über klassische Medien oft nur noch schwer zu erreichen sind. Die wichtigste Plattform ist zweifelsohne die Amazon-Tochter Twitch, ESports Inhalte gehören zu den am meistgesehenen Inhalten auf der Plattform. Eine Besonderheit ist die enge Verbindung zwischen der Fan-Community und den Profis: viele ESports-Begeisterte verfolgen nicht nur die großen Turniere, sondern sind auch treue Zuschauer der täglichen Trainings-Sessions der Spieler, in denen sie direkt mit ihren Vorbildern interagieren und mehr über ihre bevorzugten Games lernen können.

In den letzten Jahren haben auch YouTube und Facebook begonnen, massiv in ESports zu investieren. Die Electronic Sports League hat Anfang des Jahres mit Facebook einen exklusiven Streaming-Deal für einige ihrer populären Turnier-Serien, unter anderen für Counterstrike, abgeschlossen.

Wo junge Zielgruppen Sponsoring und Marketing noch richtig großartig finden

Für Unternehmen ist ESports ein enorm attraktives Sponsoring-Umfeld. Gerade Zielgruppen, die ansonsten nicht im Verdacht stehen, Sponsoren und werblicher Kommunikation gegenüber sonderlich aufgeschlossen zu sein, haben großes Interesse daran, „ihr“ Spiel und „ihre“ Helden wachsen zu sehen.

Die Multiplikator-Effekte des Sponsorings von ESports-Teams oder Spielern sind nicht zu unterschätzen. Durch die ständige Präsenz der Gamer auf den Streaming-Plattformen auch abseits der Turniere werden die Sponsoren elementarer Bestandteil der Community – ermöglichen sie es doch den Athleten ihr Hobby zum Beruf zu machen und auf hohem Niveau ohne finanzielle Sorgen zu bestreiten. Genau das wissen die Fans zu schätzen, Marken können so sehr einfach positive Wahrnehmung in der Szene erzeugen. In Kombination mit einem Social Media-Team, das sich ein wenig auf die Gaming-Kultur einlässt und mit den Fans auf Augenhöhe interagiert, sowie kleinen Aktionen wie Give-aways, entsteht ein schlagkräftiges Marketing-Instrument.

Eine kürzlich veröffentlichte Untersuchung der Kollegen von WaveMaker hat gezeigt, dass im ESports-Umfeld präsente Marken, vor allem aus den Branchen Getränke und Technologie neben hoher Awareness auch sehr gute Aktivierungsleistung unter den ESports-Fans generieren konnten.

Und: Eine gute Gelegenheit, erste Eindrücke rund um ESports, Gaming und die Fans zu sammeln, hat man Ende August während der GamesCom in Köln.

Dieser Beitrag erschien zuerst bei lead-digital.de.

Endlich Sommerloch. Doch eine künstliche Intelligenz kennt kein Hitzefrei und kann daher auch mitten im Stau am Brenner das perfekte Kindermädchen im Auto geben. Vorausgesetzt der Sprachassistent hat auch etwas zu erzählen. Genau darum geht es in unseren SEO News für den Monat August. Und natürlich darf auch das notorische Sommerlochmonster nicht fehlen.

1) Ein Sprechzettel für Google Home

Das Zwiegespräch mit der Maschine bleibt ein Thema. Nachdem wir vergangenen Monat über automatisierte Sprachbefehle des Google Assistant an die Erwerbsbevölkerung berichtet haben, gibt es aus Mountain View nun eine handfeste Erleichterung für Content Publisher auf ihrem Weg in die Welt der Sprachassistenten. Mit „Speakable“ hat Google erstmal ein semantisches Markup zur Auszeichnung von Textausschnitten zur Sprachausgabe veröffentlicht. Die Auszeichnungen wurden über die Brancheninitiative „Schema.org“ zur Verfügung gestellt und befinden sich nach Angaben des Unternehmens noch in der Beta-Phase. Mit „Speakable“ können Nachrichtenanbieter und andere Content Publisher einen kurzen und auf Sprachausgabe optimierten Abschnitt eines Textes direkt für die Nutzung durch den Google Assistant bereitstellen. Ähnlich wie ein Teaser sollte der Text maximal zwei bis drei Sätze lang sein, sodass sich für die Ausgabe beim Assistenten eine Sprechzeit von 20 bis 30 Sekunden ergibt, rät Google. Für den optimalen Einsatz solle der Inhalt des Textes das Thema informativ und in kurzen Sätzen darstellen, auch Überschriften dürften verwendet werden, hieß es weiter. Bei der Auswahl der Inhalte muss sichergestellt werden, dass keine technischen Informationen wie Bildunterschriften sowie Datums- oder Quellenangaben das Nutzererlebnis beeinträchtigen können. Der optimierte Einsatz von Markup rückt für Suchmaschinenoptimierer im Zeitalter von künstlicher Intelligenz und der Multiplikation von Ausgabeplattformen immer stärker in den Fokus. Mit Hilfe dieser standardisierten Zusatzinformationen im Quelltext kann sichergestellt werden, dass alle an Auswahl und Darstellung der Suchergebisse beteiligten Systeme die Daten zuverlässig erfassen und optimal verarbeiten können. Das „Speakable“-Feature ist zunächst nur für die englische Sprache im US-amerikanischen Markt verfügbar. Den Start in weiteren Märkten plant Google jedoch nur unter der Voraussetzung, dass „eine hinreichende Anzahl von Publishern Speakable implementieren“, so das Unternehmen. Der SEO-Branche wird die Arbeit also so schnell nicht ausgehen.

2) Mehr Möglichkeiten für Amazons Alexa

Denkt man über die Zukunft der digitalen Suche nach, so verschiebt sich der Fokus langsam von der Analyse von Anfragen und Intentionen zur Reflektion über Antworten und Ausgabesysteme. Die entscheidende Herausforderung für eine gelungene Mensch-Maschine-Kommunikation im Wechsel zwischen interaktiven Displays, augmentierter Realität und Sprachassistenten wird es sein, das bestmögliche Ergebnis für jeden Kanal bereit zu stellen. Gibt es eine Antwort, mehrere Antworten oder beginnt mit der ersten Frage sogar eine Konversation zwischen Suchsystem und Suchendem? Im Prinzip läuft es mit den virtuellen Assistenten ähnlich wie mit dem Berater im stationären Geschäft: Will man ein schnelles Ergebnis haben oder ein komplettes Verkaufsgespräch beginnen? Will der Nutzer nur in Ruhe stöbern oder benötigt er die Hilfe eines Verkäufers? Reicht eine kurze Antwort oder muss der Suchende seine Anfrage mehrfach nachspezifizieren, bis er zum passenden Ergebnis kommt? Die US-amerikanische Firma „Yext“ hat nun eine Kooperation mit Amazon vorgestellt, die es erlaubt, sogenannte NAP-Daten (Name, Adresse und Telefonnummer), sowie Öffnungszeiten lokaler Unternehmen direkt zur Verarbeitung durch den Sprachassistenten Alexa zu importieren. Das Unternehmen aus New York teilte gegenüber Journalisten jedoch mit, dass für die Zukunft eine noch tiefere Integration ihrer Schnittstelle mit Amazon Alexa geplant sei. Ob damit auch Produktdaten und -kataloge gemeint sind, blieb zunächst offen. Die Automatisierung des Datenaustauschs zwischen den Inhabern digitaler Angebote und Suchsystemen mit dem Ziel einer optimalen Nutzererfahrung am Ausgabepunkt und valider Messbarkeit des Erfolgs ist schon heute einen Schlüssel zum Erfolg im digitalen Retailgeschäft. Für Googles Shoppingfunktion PLA (Product Listing Ads) oder auch den Einsatz auf Preissuchmaschinen und Affiliate Netzwerken ist die Bereitstellung und Optimierung von Datenfeeds ein zentraler Mechanismus. In der Amazon-Welt entstehen die dafür notwendigen Schnittstellen und Tools erst nach und nach. Dabei liegt genau hier das derzeit größte Potential, um vom Wachstum der digitalen Sprachassistenten zu profitieren.

3) Ein SEO Kaninchen auf SERP-Raubzug

Erinnern Sie sich noch Lotti die schnappende Schildkröte, Yvonne die flüchtige Kuh oder den Brillenkaiman Sammy? Wie gut, dass es Suchmaschinen gibt, die einem die Möglichkeit geben, das Schicksal der unzähligen Sommerlochtiere noch einmal zu erleben. Und das viele Jahrzehnte nachdem wir gebannt mit ihnen durch die mehr oder weniger nachrichtenlose Ferienzeit gefiebert haben. Neu aber ist, dass ein virtuelles Kaninchen die weltgrößte Suchmaschine Google in die Knie zwingt. Publiziert wurde die Geschichte unter dem Namen „Rabbit Bug“ vom spanischen Programmiererkollektiv „La SEOMafia“. Nach deren Angaben handelt es sich um das gezielte, manipulative Einfügen eines Tabellenformats in den Quelltext einer Website. Der Bug bestehe darin, dass Google beim Ausspielen des Suchergebnisses diese Formatierung nicht interpretieren könne, was zum plötzlichen Abbruch der Suchergebnisanzeige nach dem manipulierten Eintrag führe, hieß es. Dieser Fehler konnte auf einer rankenden Seite für das Keyword „Conejos“ (spanisch für Kaninchen) implementiert werden, sodass als Ergebnis nur der eine, manipulierte Suchtreffer angezeigt wurde. Man mag sich gar nicht vorstellen, welch traumhafte Klickraten sich auf diese Weise erzielen lassen könnten. Es ist auch in der inzwischen recht erwachsenen SEO-Branche immer wieder eine Freude zu sehen, wie ein paar kreative Geister den Laden ein wenig aufmischen. Letztendlich wurde sogar Googles SEO-Verbindungsoffizier John Müller auf den Rabbit Bug aufmerksam und meldete auf Twitter augenzwinkernd, er habe die Sichtung des Kaninchens intern weitergegeben. Dem Kaninchen droht nun das Schicksal aller Sommerlochtierchen. Am Ende wurden die meisten eingefangen oder erlegt.

Dieser Beitrag erschien zuerst bei Internet World Business.