Bis ins Jahr 2015 wurden Voice Interfaces von den meisten eher als eine nette Spielerei wahrgenommen, die auf Smartphone und Navigationssysteme beschränkt war. Doch mit Amazon Echo kam diese Technologie quasi über Nacht in die Wohnzimmer vieler Verbraucher auf der ganzen Welt. Amazon behält sich zwar die genauen Absatzzahlen vor und hat bis heute keine weiteren Details veröffentlicht, jedoch wurden laut des Nachrichtenportals Business Insider im Jahr 2015 bereits 2,4 Millionen Amazon Echos weltweit verkauft. 2016 stieg der Absatz auf 5,2 Millionen an. Dadurch entdeckte auch Apple das bis dato stiefmütterlich behandelte Siri wieder und kündigte im Juni 2017, nach sechs Jahren Stille um das Spracherkennungsprogramm, ein ganz eigenes Device dafür an: den HomePod. Auch andere Unternehmen sahen sich gezwungen, diesem Trend zu folgen, wussten jedoch wenig damit anzufangen.

Back to the roots

Dabei sind Voice- bzw. Conversational Interfaces nicht wirklich etwas Neues. Voice Interfaces sind genau betrachtet Conversational Interfaces mit einem speziellen Eingabekanal, nämlich der analogen Sprache. Die Entwicklungsetappen der vergangenen Jahrzehnte dürften vielen Marktbeobachtern sogar bekannt sein. Betrachtet man die Technologie, die heutzutage hinter einem Voice Interface steckt, findet man zwei unterschiedliche Komponenten: Die eine ist für das Transkribieren von analoger Sprache in Text zuständig. Die andere analysiert den Text und reagiert entsprechend darauf. Dieser Teil wird durch Natural Language Processing und weitere Technologien der Künstlichen Intelligenz (KI) realisiert. Beide Komponenten gibt es als getrennte Technologien schon sehr lange:

1) Transkribieren

Transkribieren bedeutet einfach ausgedrückt, die Umwandlung von gesprochenem Text oder auch Gebärdensprache in eine schriftliche Form. Entsprechende Software gibt es bereits seit 1982. Seinerzeit hatte die Firma Dragon Systems dafür eine Software auf den Markt gebracht. Diese wurde für das damalige DOS(x86) entwickelt, hieß „DragonDictate“ und war eher rudimentär. Kontinuierlich zu transkribieren war damit nicht möglich. 15 Jahre später brachte dieselbe Firma „Dragon NaturallySpeaking 1.0“ auf den Markt. Die Software verstand natürliche Sprache bereits so gut, dass sie hauptsächlich für Diktate am Computer genutzt wurde. Allerdings mussten die damaligen Systeme stark auf die eigene Stimme trainiert oder das verwendete Vokabular begrenzt werden, um die Erkennungsgenauigkeit zu verbessern. Daher gab es bereits entsprechend vorgefertigte Sprachpakete für beispielsweise Anwälte oder Mediziner, deren Sprachgebrauch sehr speziell ist. Einmal optimiert, lieferten diese frühen System erstaunlich gute Resultate. Darüber hinaus bestand aber auch bereits die Möglichkeit, via Dragon ein Windows-System mit Sprachbefehlen zu steuern.

2) Natural Language Processing

Nachdem die Sprache transkribiert wurde, kann der Text weiterverarbeitet werden. Bei der Überlegung was für eine Technologie einen Text, der ansatzweise natürlich-sprachlich klingt, als Eingabe zulässt und darauf sinnvoll reagieren kann, kommt man schnell auf die sogenannten Chatbots. Diese sind eine Unterklasse autonomer Programme namens Bots, die bestimmte Aufgaben selbstständig erledigen. Chatbots simulieren Gesprächspartner, die oftmals themenbezogen agieren. Auch wenn sich diese erst in den letzten Jahren steigender Beliebtheit erfreuen, muss man auch hier eher von einer Renaissance sprechen; der erster Chatbot erblickte bereits vor 52 Jahren das Licht der Welt. Der Informatiker Joseph Weizenbaum entwickelte „ELIZA“, die heute als Prototyp der modernen Chatbots gilt und die Verarbeitung natürlicher Sprache erfolgreich demonstrieren sollte.

3) Künstliche Intelligenz

Die Entwicklung von ELIZA machte deutlich, dass einfache Mittel ausreichen, um beim Turing-Test für Künstliche Intelligenz (KI), bei dem es um die subjektive Bewertung eines Gesprächs geht, gute Ergebnisse zu erzielen. Probanden haben, trotz der simplen Mechanismen des Bots, angefangen eine persönliche Bindung aufzubauen, um dann sogar über private Dinge zu schreiben. Die Erfahrungen mit diesem ersten Conversational Interface sorgten für viel Aufmerksamkeit und kontinuierlich verbesserte Chatbot-Technologien.

So wurde 1981 beispielsweise BITNET (Because It’s There NETwork) ins Leben gerufen, ein Netzwerk, das die Forschungs- und Lehreinrichtungen der USA miteinander verband. Eine Komponente dieses Netzwerks war Bitnet Relay, ein Chatclient, aus dem später der Internet Relay Chat (IRC) wurde. Für diese Chat-Systeme, so auch für ICQ wurden im Laufe der Zeit von Studenten und Nerds unzählige, mehr oder weniger einfache, Chatbots entwickelt. Diese basierten, wie auch ELIZA, auf der einfachen Erkennung von Sätzen und nicht auf der Auswertung von Wissen.

2003 begann eine weitere wichtige Entwicklung, die auf eine neue Klasse von Chatbots einzahlt, nämlich auf die Smart Assistants wie beispielsweise Siri. CALO, der „Cognitive Assistant that Learns and Organizes“, war eine von der Defense Advanced Research Projects Agency ins Leben gerufene Entwicklung, an der sich viele amerikanische Universitäten beteiligten. Das System sollte dem Nutzer dabei helfen, effektiver mit Informationen umzugehen und ihm zu assistieren, indem es permanent seine Fähigkeit verbessern, die Wünsche des Nutzers richtig zu interpretieren. Basis dafür ist die digitale Wissensrepräsentation. Damit ist gemeint, wie Wissen in einem digitalen System festgehalten und nutzbar gemacht werden kann. Durch semantische Netze können Objekte und deren Fähigkeiten in Relation zu anderen Objekten abgebildet werden, die es dem Smart Assistant ermöglichen, Verständnis dafür zu entwickeln, was ein Nutzer mit einer bestimmten Äußerung ausdrücken möchte. Möchte beispielsweise ein Kunde einen „trockenen Wein“ über seinen Smart Assistant bestellen, so muss dieser kontextabhängig die Verbindung zwischen den Begriffen „trocken“ und „Wein“ kennen. Nur so versteht er, dass es sich hier um eine Geschmacksnuance handelt und nicht um die Abwesenheit von Flüssigkeit.

Die Learnings

Das einfache Erkennen und Vergleichen von Texten, auch Matching genannt, und die intelligente Analyse mittels Wissensrepräsentation sind zwei unterschiedliche Technologien, die sich unabhängig voneinander weiterentwickelt haben. Mit Hilfe des Matching-Ansatzes, lassen sich die meisten Anwendungsfälle mit überschaubaren Mitteln umsetzen. Für komplexere Anfragen eignet sich jedoch ein Smart Assistant deutlich besser. Allerdings ist diese Technologie in der Entwicklung und Umsetzung wiederum aufwendiger, da sie eine breite Wissensbasis benötigt.

Aktuell trifft man daher meist auf Chatbots, die auf der Matching-Technologie basieren und mit Hilfe von Machine Learning (ML) trainiert werden können. Bei dieser Methode werden dem System möglichst viele Textvarianten zu einer bestimmten Aussage übergeben, die es lernt, um in der späteren Anwendung auch Sätze zu erkennen, die Ähnlichkeit zu dem Gesagten haben, ohne über spezielles Wissen verfügen zu müssen.

Heutzutage können wir zwischen zwei Technologien wählen, die bei einem Conversational Interface zum Einsatz kommen können. Je nach Anforderungen muss man sich die Frage stellen, ob ein System, das Gesagtes mit gelernten Satzstrukturen vergleicht, genügt oder wird ein System benötigt, das versucht den Sinn des Gesagten zu verstehen und entsprechend darauf reagiert?

Dieser Artikel erschien zuerst bei Adzine. und ist der zweite Beitrag einer mehrteiligen Serie über Voice Interfaces:

Teil 1: „Voice Interfaces – Ein Trend mit Vergangenheit“
Teil 2: „Voice Interfaces – Das Hier und Jetzt“
Teil 3: „Voice Interfaces – Die 3 größten Herausforderungen“
Teil 4: „Voice Interfaces – Ein Blick in die Zukunft“

In meiner Kindheit habe ich sie geliebt. Bücher, bei denen ich den Verlauf der Handlung mitbestimmen konnte. Je nachdem welche Entscheidung ich getroffen habe, hatte das Buch ein anderes Ende.

Meine Kindheitstage sind vorbei und „Choose your own adventure Stories“ haben an Popularität verloren – dachte ich zumindest! Doch in letzter Zeit tauchen sie vereinzelt wieder auf. Und zwar in digitaler Form. Und das beste: diese neuen Story-Formate sind nicht nur etwas für Kinder.
Auf welchen Kanälen es diese Formate schon gibt und warum sie besonders für die digitale Kommunikation und damit das digitale Marketing von Unternehmen spannend sein können, lest ihr im Folgenden.

1. Choose your own adventure TV Story

In der HBO Serie „Mosaic“ können Zuschauer selbst entscheiden, aus welchem Blickwinkel der Charaktere die Geschichte fortgeführt wird. Innerhalb der zur Show gehörigen App können Nutzer die halbstündigen Sequenzen eigenständig wie ein Mosaik oder Puzzle zusammensetzen und beeinflussen somit die Reihenfolge des Erzählstrangs.

Glaubt man Gerüchten von Bloomberg plant auch Netflix interaktive Folgen für die fünfte Staffel von Black Mirror, bei der Zuschauer über das dystopische Ende entscheiden können. Man darf gespannt sein!

2. Choose your own adventure Instagram Story

Fans der Netflix Serie Stranger Things haben die Möglichkeit über Instagram Stories die Konversationsthemen und Handlungen von Steve und Dustin, zwei der Hauptdarsteller, zu steuern. Auf kreative Weise werden die Umfrage-Sticker eingesetzt, um über den weiteren Verlauf der Geschichte zu entscheiden.

3. Choose your own adventure Story per Sprachassistent

BBC’s Forschungs- und Entwicklungsabteilung hat Ende 2017 ein interaktives Audio Drama für Sprachassistenten wie Google Home und Amazon’s Alexa gelauncht. Gestartet wird die Experience mit dem Befehl „Alexa, open The Inspection Chamber“. Was folgt ist ein Hörspiel, dass auf die Interaktion der Zuhörer angewiesen ist. Abhängig von den gesprochenen Antworten der User ändern sich Teile der zwanzigminütigen Story. Insgesamt gibt es drei Variationen des Endes.

Warum sind diese Formate so interessant für digitales Marketing und Kommunikation?

Choose your own adventure-Bücher haben mich früher so sehr in den Bann gezogen, dass ich sie mehrmals gelesen habe. Nur um zu erfahren, wie der Lauf der Geschichte sich verändert, wenn ich mich an einer Stelle des Buches anders entschieden hätte.

Diese hohe Aufmerksamkeit und starkes Engagement führen bei spannendem Content zu langen Verweildauern. Ein kreativer Weg für Marken und Werbetreibende, um Kunden in den Bann zu ziehen und Loyalität aufzubauen.

Ein Testbericht der lange erwarteten Magic Leap One Augmented Reality Plattform

Vor mir schwebt ein virtuelles Regal mit verschiedenen Objekten und Kategorien, die ich auswählen kann. Ich greife mit dem Controller nach einer kleinen Rakete, nehme sie aus dem Regal und platziere sie im Raum. Zack! Niet- und nagelfest steht das kleine Raumfahrzeug im Comic-Videospiel-Stil vor mir. Ich gehe drum herum und gucke mir das Ding von allen Seiten an.

Für meine Kollegen sehe ich ein bisschen aus wie Vin Diesel in Riddick. Leider nicht wegen der Muskeln, sondern dank der spacigen Brille, die ich trage: Das Headset der neuen AR-Plattform Magic Leap One. Ich hatte die Gelegenheit das neue System in der „Creator Edition“ nur wenige Tage nach Veröffentlichung in unserem Plan.Net Innovation Studio in München zu testen.

Das augmentierte Bild durch die Brille ist leicht durchsichtig, ich kann das Muster des Teppichbodens hinter der Rakete noch erkennen – zumindest wenn ich bewusst darauf achte. Die Farben sind hell und bunt, wie sie sein sollen – für einen kurzen Moment entsteht der Wunsch, die Rakete mit dem Finger anzufassen und sie anzustupsen. Immersion Level 1 wird fix erreicht.

Zwischenzeitlich hieß es, die Brille könne Bilder auf sechs verschiedenen Ebenen projizieren um in Verbindung mit dem Tracking der Augenbewegung Objekte in verschiedenen Schärfegraden darzustellen. Experten beschwerten sich bereits, dass die Hardware nun mit nur zwei dieser Ebenen ausgestattet sei, was die Wahrnehmung wesentlich schlechter werden ließe. Ich kann das nicht nachvollziehen, denn die Gesamtleistung der Grafik ist für meine Begriffe noch weit davon entfernt, Kapital aus diesen sechs Ebenen schlagen zu können. Noch sieht alles sehr Videospiel-mäßig aus und auch die Auflösung ist noch nicht so hoch, dass dieser Detailgrad in der Wahrnehmung bereits eine entscheidende Rolle spielen würde.

Die Rakete klebt da immer noch. „War’s das jetzt?“ frage ich mich. Ich klicke die Rakete an und „Woosh!“ düst sie davon. Keine Ahnung wohin, sie ist jedenfalls weg. Danach setze ich einem meiner Kollegen einen Cowboy-Hut auf und verpasse ihm einen Schnurrbart aus der Objekte-Bibliothek, die auch noch immer hinter mir im Raum schwebt. Zumindest so lange, bis er einfach geht und Hut und Schnurrbart alleine im Raum schweben. Spielverderber.

Aus der nächsten Kategorie der Bibliothek klaue ich mir einige Teile, mit denen ich fix eine Art Kugelbahn zusammenbauen kann. Ich kann aus allen Richtungen an meiner Konstruktion arbeiten, mich währenddessen mit meinen Kollegen unterhalten und ihnen dabei in die Augen blicken es ist als hätte ich nur eine Sonnenbrille auf und würde an einem Aufbau arbeiten, der sich zwar für die Gesetze der Physik nicht sonderlich interessiert, aber ansonsten recht realistisch auf mich wirkt. Jedenfalls erreicht das Ganze recht zügig ein routiniertes und selbstverständliches Level. Dann schnappe ich mir die Kugel aus der Bibliothek und höre ihr zu, wie sie durch mein Rohrsystem rumpelt, auf ein Trampolin fällt, durch den Raum fliegt und dank des Real-World-Trackings von einem echten Tischbein im Raum abprallt.

Ich sehe meine Kollegen an, strahle wie ein kleines Kind und sage: „Das ist der Hammer, oder?“. Die drei Kollegen gucken mich an, ihre Hände in den Hosentaschen, und zucken fast simultan mit ihren Schultern. Immersion Level 2! Nur ich sehe meine Kugelbahn – das hatte ich vergessen. Tatsächlich ein kleiner Nachteil – teilen lassen sich die Erlebnisse noch nicht ganz so einfach.

Die zweite App, die ich testen darf, dreht sich um die isländische Band Sigur Rós. Gemeinsam mit Magic Leap hat man sich fünf Jahre damit beschäftigt, wie man in der Mixed Reality Musik kreieren oder komponieren kann. Tónandi nennt sich die App und eignet sich hervorragend zum Testen der Steuerung durch Gesten – den Controller braucht diese App nämlich nicht. Die Aufgabe besteht darin, sich durch verschiedene Level oder Welten zu bewegen, die man mit Gesten zum Leben erweckt. Man sammelt zum Beispiel Steine, streicht durch virtuelles Gras und stupst virtuelle Quallen an. Hat man eine Szene mehr oder weniger komplettiert, entsteht eine Art Wurmloch, durch das man in die nächste Szene gelangt. Beeindruckend!

Die Vielfalt der Gesten der eigenen Handbewegungen ist ein riesiger Vorteil. Es gibt acht verschiedene, die das System erkennt. Entwickler können selbst weitere Gesten hinzufügen und entwickeln. Das ist aus meiner Perspektive ein riesiger Pluspunkt des Magic Leap Systems. Microsoft bietet im Vergleich derzeit nur zwei fest definierte Gesten. Als jemand der Oberflächen und Produkte der digitalen Welt entwickelt und immer getrieben ist vom Wunsch nach bestmöglichen Nutzererlebnissen und relevanten Produkten, interessieren mich die verschiedenen Möglichkeiten zur Implementierung verschiedener Gesten in diesem Kontext natürlich brennend. Denn ich bin davon überzeugt, dass die Benutzung eines Produktes als unmittelbar markenbildend betrachtet werden muss. Unsere Arbeit hat daher neben dem zufriedenen Nutzer auch die Aufgabe zum gewünschten Markenbild beizutragen. Durch Details wie eine sinnvolle Gestensteuerung werden Angebote wesentlich schneller angenommen und können viel früher zu sehr immersiven Erlebnissen werden.

Auch wenn die Gesten aktuell oft noch sehr unnatürlich in ihrer Anwendung sind, es noch schwierig ist selbstverständlich nach einem virtuellen Stein zu greifen und hohe Latenzen einen im Unklaren darüber lassen ob man nun erfolgreich zugegriffen hat oder nicht: Die Tatsache, dass Entwickler eigene Gesten entwickeln können, sorgt dafür, dass viel ausprobiert und experimentiert werden kann, um schnellstmöglich zu einer User Experience zu kommen, die die Bedienung der Extended Realities so natürlich wie möglich macht.

Fazit: Alles in Allem bietet die Magic Leap One in ihrer ersten Version ein Mega-Erlebnis und ist ein wichtiger Schritt in Richtung consumer-facing AR fürs Wohnzimmer. Die Hardware ist grundsolide, einige Details hat Magic Leap noch nachzuliefern. Der Gesamteindruck leidet am stärksten unter dem massiven Hype, den die Kommunikation der letzten Jahre aufgebaut hat. Denn diesen Traum kann die Creator-Edition noch nicht wirklich erfüllen. Es ist wie mit allen modernen Plattformen: Die Third Party Development Community ist nun gefragt. Sie wird uns zeitnah die tatsächlichen Potentiale der Plattform offenlegen und Magic Leap eine gute Unterstützung bei der weiteren Entwicklung von Hard- und Software bieten.

Und was kostet das Ganze? Wer sich eines der begehrten Geräte anschaffen möchte, muss in die USA und dort vor Ort umgerechnet knapp 2.000 Euro investieren. Hinzu kommt dann noch der Zoll bei der Einführung nach Deutschland.

 

Dieser Beitrag erschien zuerst bei lead-digital.de.

Seit Jahren erwarten Apple-Fans die Keynote-Termine. Seit Jahren die Spannung, ob es ein „one more thing“ gibt. Und nein, das gab es Mitte September bei der Vorstellung der Apple Watch 4 und des neuesten iPhones leider (wieder) nicht. Zum einen sehen wir aktuell ohnehin mehr evolutionäre Entwicklungen, als diese eine Innovation, die uns den Atem stocken lässt, zum anderen werden die meisten Geräte-Visuals und Features mittlerweile schon vor den Events geleakt.

Also, gar kein Mega-Highlight? Jeder hat da sicherlich einen anderen Blick darauf. Mein persönlicher Höhepunkt war vor allem folgende Entwicklung: Apple wird mit der Apple Watch immer mehr zur Gesundheitsmarke. Die alte Weisheit „An Apple a day keeps the doctor away” bekommt damit eine ganz neue Bedeutung. Zwar ist Apple immer noch eine Lifestyle-Marke, aber der eigentliche Kern der Marke ist es, die täglichen Aufgaben und damit das Leben der Kunden zu vereinfachen oder zu erleichtern. Und dieses Grundversprechen wird nun auf das nächste Level gehoben mit einer Infrastruktur für sport- und gesundheitsbewusste Menschen, die auch im echten Notfall auf Apple zählen können.

Entscheidend für diese Entwicklung sind aus meiner Sicht die folgenden drei neuen Funktionen der Apple Watch 4:

  • Apple hat neue Elektroden und Herzfrequenzmesser verbaut, sodass mit Hilfe der Apple Watch nun EKGs durchgeführt werden können. Das ist ein echter Meilenstein und eine enorme Unterstützung für Herz-Kreislaufpatienten. Wo vorher für EKGs unhandliche Apparaturen eingesetzt werden mussten, erledigt das jetzt – dem Konzern nach zuverlässig – die Watch. Und damit man auch über jeden Zweifel erhaben ist, attestiert die „US Food and Drug Administration“ die professionelle Funktionsfähigkeit. Nicht nur, dass damit das Messen im akuten Fall vereinfacht wird, dieses „Apple Gesundheitssystem“ überwacht damit auf Wunsch rund um die Uhr die körpereigenen Systeme und schlägt Alarm, lange bevor die Person selbst Anzeichen, wie zum Beispiel Vorhofflimmern, erkennen kann. Die Erkennungsrate liegt einer Studie zufolge bei 97 Prozent. Damit können defacto Menschenleben gerettet werden. In Europa wird diese Funktion allerdings vorerst nicht verfügbar sein, hier müssen sicher noch einige Gesundheits- und Datenschutz-Gremien Brief und Siegel abgeben.
  • Sie haben gar keine Herz-Kreislaufprobleme, fahren aber riskant Ski oder neigen einfach zum Stolpern? Auch für diesen Fall hält Apple ein Feature bereit. Im Falle eines Sturzes wird ein automatischer Alarm ausgelöst, sofern man diese Funktion nicht innerhalb von einer Minute selbst deaktiviert. Dabei können auch Messdaten und Koordinaten an Rettungsstellen übermittelt werden.
  • Und sogar Diabetes-Patienten sollen mit „One Drop“ zukünftig am Handgelenk eine Blutzuckermessgerät-App nutzen können. Soweit das Versprechen.

Wie schafft es Apple nun, den Schritt von der reinen Lifestyle- zur Gesundheitsmarke zu vollziehen? Während andere einfach nur von einer Quantify-Yourself-Bewegung sprechen, und damit eher Nerds adressieren, verfolgt Apple den Plan, sich damit bei den Markenfreunden unentbehrlich zu machen.

Elementar hierfür ist Vertrauen. Vertrauen darin, dass die persönlichsten und intimsten Informationen absolut sicher sind. Und auch hier ist Apple (bislang zumindest) über jeden Zweifel erhaben. Oder wie Fast Company nach der letzten Keynote titelte: “Forget the new iPhones: Apple’s best product is now privacy”.

Und in diesem Punkt unterscheidet sich Apple von vielen anderen Digital-Giganten nicht erst seit der letzten Keynote. Schon in den letzten Jahren hat Apple sich im Umgang mit ihren – nein, besser unseren – Daten durch die absolute Abschottung aller persönlichen Daten der Nutzer und Schutz vor externem Zugriff hervorgetan – selbst wenn mal das FBI persönlich anfragt. Was sie durch diese konsequente Haltung erreicht haben, ist ein großes Maß an Vertrauen der Kunden. Und damit die wohl beste Basis dafür, auch in einem Mega-Markt der Gesundheitsprodukte der Zukunft ordentlich mitmischen zu können.

Der vertrauensvolle Umgang von Apple mit unseren Daten führt dazu, dass für die heute 30- bis 40-jährigen Fans, die übermorgen die gealterten Heavy-User dieser Angebote sind und über Jahr hinweg konditioniert wurden, sich ein Leben im Alter ohne Apple-Produkte gar nicht mehr vorstellen können. Strategisches Kalkül? Nein, sowas würden Apple-Jünger ihrer Love Brand niemals unterstellen. Doch schlau wäre diese Weitsichtigkeit allemal.

Stephan Enders, Head of Plan.Net Innovation Studio und – zugegeben – ein echter Apple-Fanboy

In der Serie „Dreimal aufgeschlaut“ erklären Experten der Plan.Net Gruppe regelmäßig ein aktuelles Thema der digitalen Welt aus unterschiedlichen Perspektiven. Was bedeutet es für die Oma, was für den Agentur-Kollegen? Und was hat der Kunde, also ein Unternehmen, davon?

Während man in ausländischen Geschäften und Restaurants oft Schilder mit der Aufschrift „No cash, only cards“ findet, ist Bargeld in Deutschland weiterhin das beliebteste Zahlungsmittel. EC- oder Kreditkarten werden vielerorts nicht akzeptiert. Auch Mobile Payment hatte es bisher schwer in Deutschland, doch das könnte sich dieses Jahr ändern. Mit der Einführung von Google Pay im Juni und dem geplanten Launch von Apple Pay im September soll endlich der deutsche Markt erschlossen werden. Höchste Zeit also für Händler und Marketer sich mit den Auswirkungen von Mobile Payment auf das Einkaufserlebnis zu beschäftigen.

Die Nutzung von Mobile Payment ist in Deutschland bisher noch verschwindend gering

Oma, wir müssen reden. Warum hältst du so sehr an deinem geliebten Bargeld fest und bist so zurückhaltend mit neuen Zahlungsmethoden? Hast du etwa Sicherheitsbedenken? Die Angst vor Internetbetrügern und die Sorge um Datenschutz ist in Deutschland wohl der ausschlaggebende Grund, weshalb sich Mobile Payment bisher noch nicht durchsetzen konnte. Mobiles Bezahlen wird bisher eher für kleine Geldbeträge mit geringem Risiko genutzt, etwa beim Lebensmitteleinkauf oder im öffentlichen Nahverkehr.

Oder liegt deine Zurückhaltung daran, dass du den Mehrwert von Mobile Payment bislang noch nicht für dich erkennst? Zugegebenermaßen, durch die Möglichkeit des kontaktlosen Bezahlens mit Giro- oder Kreditkarten an der Kasse eines stationären Händlers, genießt man die gleichen Vorzüge wie beim Mobile Payment: Geschwindigkeit und Komfort.

Welche Gründe dich auch davon abhalten Mobile Payment eine Chance zu geben, du bist damit nicht allein. Einer Umfrage von Oliver Wyman (2017) zu Folge, haben lediglich sieben Prozent der deutschen Befragten schon einmal mit ihrem Smartphone am Point-of-Sale bezahlt. Die positive Nachricht: ein Drittel der Nichtnutzer können sich vorstellen in Zukunft Mobile Payment zu nutzen.

In Asien ist Mobile Payment längst in der breiten Masse angelangt

Während wir in Deutschland noch über den kommenden Durchbruch von Mobile Payment diskutieren, gehört das Bezahlen per Smartphone in Asien längst zum Alltag. Letztes Jahr haben 70 Prozent der mobilen Internetnutzer in China mobil bezahlt (CNNIC 2017) und machten damit laut einer Studie der Deutschen Bundesbank mehr als die Hälfte des gesamten Zahlungsvolumens aus. Die führenden Anbieter sind der Instant Messenger WeChat (WeChat Pay) und der Online Retailer Alibaba (Alipay). Die Benutzung der beiden Mobile Payment Apps ist simpel. Für eine Transaktion wird lediglich ein QR Code und die jeweilige App benötigt. Einfach den QR Code scannen und innerhalb der App bezahlen. Alipay und WeChat Pay funktionieren nicht nur in großen Geschäften, sondern ebenso gut zum Bezahlen einer Melone bei einem kleinen Straßenhändler.

Noch spannender ist jedoch die Aussicht zukünftig nicht einmal mehr sein Smartphone zur Authentifizierung von Bezahlvorgängen zu benötigen.
In der chinesischen Metropole Hangzhou können Kunden der Fast-Food-Kette KFC mit einem Lächeln bezahlen. Die verwendete Gesichtserkennungssoftware „Smile to Pay“ braucht ein bis zwei Sekunden um einen 3D Scan des Gesichtes zu erstellen und den Kunden zu identifizieren. Aus Sicherheitsgründen wird die Bestellung zusätzlich durch die Eingabe der Mobilfunknummer verifiziert.

Haben die Entwicklungen im Mobile-Paymentbereich Auswirkungen auf die Agenturarbeit? In absehbarer Zeit wohl eher nicht. Vielleicht ist es aber in Zukunft möglich bei Google Pay die Post-Payment Seite als Werbemittel zu buchen und Ads auszuspielen, die auf das Nutzerprofil – Alter, Geschlecht, Region und Konsumverhalten – zugeschnitten sind.

Wie können Händler Mobile Payment für sich nutzen?

Mobile Payment ist von stationären Händlern bisher eher stiefmütterlich behandelt worden. Waren doch digitale Trends wie Augmented Reality, Virtual Reality und Sprachassistenten viel spannender. Doch Mobile Payment ist ein wichtiger Bestandteil der Digitalisierung des stationären Handels und sollte deshalb nicht außer Acht gelassen werden. Denn viele Kunden nutzen ihr Smartphone bereits während des Offline-Einkaufs. Als Storefinder, zur Produktrecherche oder für die Navigation innerhalb des Stores mit Hilfe von Augmented Reality Apps. Der nächste logische Schritt ist nun die Digitalisierung des Kaufabschlusses.

Wenn stationäre Händler Mobile Payment als Zahlungsmethode unterstützen, dann bieten sie ihren Kunden zwei Vorteile, nämlich Zeitersparnis und Bequemlichkeit. Angesichts des immer schneller und mobiler werdenden Lebensstils der Konsumenten, sind diese Faktoren entscheidend für die Customer Experience und die Zufriedenheit der Kunden.

Vorreiter in Sachen Mobile Payment ist in Deutschland das Fashionkaufhaus Breuninger. Breuninger bietet als erstes deutsches Kaufhaus Alipay und WeChat Pay als Zahlungsmethode an und richtet sich damit an finanzstarke und shopping-freudige, chinesische Touristen.

Ob auch deutsche Shopper künftig mehr mobil bezahlen, wird sich zeigen. Auf jeden Fall sollte der stationäre Handel schon jetzt darüber nachdenken, wie man Mobile Payment sinnvoll in die Customer Experience integrieren kann.

Dieser Beitrag erschien zuerst bei lead-digital.de.

SEO News

Jetzt haben wir Dürre und Hitze überstanden, nur um uns mit Oktoberfest und Halloween in den nächsten Exzess zu stürzen. Um nicht ganz den Halt zu verlieren, widmen wir uns in den aktuellen SEO-News für den Monat September der kritischen Reflektion von Superlativen, No-Click-Suchen und dem Verkaufstalent von Amazons Alexa.

1) Die besten SEO News der Branche

Von Allem nur das Beste! Der Superlativ hat der Werbung seinen Stempel aufgedrückt, wie kaum eine andere grammatikalische Konstruktion. Zwar streitet die Werbewirkungsforschung seit vielen Jahrzehnten, ob sich die potentielle Kundschaft von einem schlichtweg behaupteten Superlativ überhaupt beeindrucken lässt, im Suchmaschinenmarketing kann man die Frage jedoch relativ leicht beantworten. Laut einer aktuellen Google-Studie für den US-Markt, sind mobile Suchen nach dem Attribut „Best“ im Verlauf der vergangenen zwei Jahre um rund 80 Prozent gestiegen. Dies belegt: Ein Konsumenteninteresse nach den maximal besten Produkten jeglicher Kategorie ist durchaus vorhanden. Doch was ist die Motivation hinter dieser Suche, bei der man als Nutzer erwarten kann, dass ein Großteil der Suchergebnistreffer von SEOs auf genau diesen Begriff hin optimiert wurde? Sara Kleinberg, Googles Head of Ads Research and Insights, erklärt in ihrem Beitrag zur Studie, dass die Menschen mit dem Adjektiv gezielt individuelle Lösungen für allgemeine Bedürfnisse, wie das „beste Restaurant“ oder die „beste Tagescreme“ suchen. Und das, obwohl gerade auf der individuellen Ebene die Definition eines Superlativs für jeden User eine ganz persönliche Angelegenheit ist. Laut Google verbirgt sich hinter den zunehmenden Superlativ-Suchanfragen die Intention, eigene Entscheidungen in einer komplexer werdenden Welt zunehmend abzusichern. „Wir sehen, dass die Menschen immer mehr und längere Recherchen für große aber auch kleine Kaufentscheidungen durchführen“, so Kleinberg. Im Kern gehe es den Menschen darum sicherzustellen, dass sie den Kauf später nicht bereuen. In Umfragen habe man festgestellt, dass Nutzer gezielt nach Bestenlisten von Produktkategorien suchten, um die Auswahl potentieller Produkte oder Dienstleistungen einzugrenzen. Vom Suchattribut „beste“ erwarten sich Nutzer laut Kleinberg eine Art kollektiv legitimierte Vorauswahl. Gerade bei Themenbereichen, in denen man sich nicht auskenne, erwarte man den schnellsten Zugang zu aggregierten Informationen und Bewertungen, so Google. Für den Werbetreibenden bedeutet diese Entwicklung, dass eine Optimierung ausgewählter Produktseiten auf den Begriff „(die/der/das) beste“ eine echte Option ist, um potentielle Käufer in der Kaufentscheidungsphase, aber auch mit Aftersales-Themen zu erreichen. Dies kann entscheidend auf eine positive Markenwahrnehmung beim Endkunden einzahlen, stärkt aber auch die Autorität eines Markenbegriffs im Kontext von Suchsystemen wie Google oder Bing.

2) Keine Panik: Zeitenwende im Search-Marketing

Suchmaschinenexperten können seit einiger Zeit Trends erkennen, die auf einen signifikanten Umbruch des Nutzerverhaltens in der Interaktion mit den großen Suchsystemen hindeuten. Für SEOs bedeutet dieser Wandel, dass man eingefahrene Muster und Strategien hinterfragen, sowie Zielsetzung als auch Methoden der eigenen Arbeit anpassen muss. Such-Guru Rand Fishkin hat die Entwicklung Blogbeitrag zusammengefasst. Laut Fishkin lassen sich anhand von Clickstream Daten, also Referrer-Daten auf Server-Ebene und anonymisierten Klickprotokollen aus Webapplikationen, vier zentrale Beobachtungen ableiten:

  1. Die Zahl der durchgeführten Suchen in allen Systemen und Plattformen stagniert seit geraumer Zeit.
  2. Die Klickraten auf organischen Suchergebnissen gehen mit der Ausdehnung bezahlter Positionen in den Suchergebnissen zurück. Hier ist insbesondere Mobile betroffen.
  3. Immer mehr Suchanfragen werden direkt in Googles oder Bings Suchergebnisseiten beantwortet. Ursache ist die signifikante Zunahme von Featured Snippets und Instant Answers sowohl auf dem Desktop also auch auf mobilen Endgeräten.
    Alle drei Phänomene verursachen so genannte „No-Click-Searches“, also Impressionen in Suchergebnissen, auf die kein Klick zu einer Website mehr erfolgt.
  4. Und schließlich entsteht mit dem Erfolg der SEO-Branche auch ein zunehmender Wettbewerb im in der organischen Suche.
    Bei genauer Betrachtung muss man einschränken, dass von den genannten Phänomenen in erster Linie etablierte Websites, vor allem aus dem Bereich E-Commerce betroffen sind. Deren Inhalte sind weithin optimiert und sie dienen dank hoher Autorität als Referenz für die Featured Snippets der Suchmaschinen. Ihr transaktionales Nachfragepotential wird von neuen Kanälen wie Amazon oder Google Shopping am stärksten abgeschöpft. Neue Domains, Nischenanbieter aber auch B2B-Webseiten sind dagegen weiterhin in der Lage, direkt vom signifikanten Wachstumspotential der organischen Suche profitieren. Doch Fishkins Beobachtungen machen nachdenklich: Wenn bei stagnierendem Traffic weniger Klicks generiert werden, sinkt der ROI auf Investitionen in Suchmaschinenoptimierung. Auf der anderen Seite wird auch zukünftig kein E-Commerce-Unternehmen auf aktives Search Marketing verzichten können. Google, Bing und Co. werden auch auf absehbare Zeit die verlässlichsten Quellen für qualitativ hochwertigen, skalierbaren Traffic bleiben. Entwicklungen wie Voice Search sind hier als Risiko und Chance gleichzeitig zu bewerten. SEO-Strategien müssten sich daher mehr auf Nachfragesteigerung und Brandbuilding fokussieren, lautet das Fazit von Rand Fishkin. Das deckt sich mit den Erfahrungen aus der Praxis: Deutliche Zuwächse an Klicks und Traffic gewinnt man zunehmend außerhalt transaktionaler Suchanfragen in der Kaufanbahnung und Post-Sales-Phase. Die enge Vernetzung von bezahlter und organischer Suche wird dabei entscheidend für den Erfolg sein. Die Tage, in denen man als SEO allein mit Traffic-Zuwachs und der Steigerung von Conversions punkten konnte, scheinen endgültig gezählt. Marken- und Produktpositionierung im Hinblick auf Zielgruppenrelevanz, Informationsdichte und Usability werden hingegen immer wichtiger.

3) Alexa ist noch keine Verkaufsmaschine

Weltweit haben rund 50 Millionen Alexa-Sprachassistenten die Wohn- und Schlafzimmer im Sturm erobert. Nicht nur der Hersteller Amazon verspricht sich viel von seinem neuen Mensch-Maschine-Interface, auch Werbetreibende weltweit hoffen darauf, dass sich mit dem digitalen Assistenten und dessen unmittelbaren Verknüpfung mit der weltweit größten Verkaufsplattform, neue Impulse im E-Commerce setzen lassen. Nach Informationen des Branchenblogs „The Information“ bleibt die Realität bislang jedoch hinter den großen Erwartungen zurück. Dem Bericht zufolge haben bislang nur rund 100.000 Nutzer mit Hilfe ihres Alexa-Assistenten einen Einkauf getätigt. Das sind nur rund zwei Prozent aller Nutzer weltweit. Den Angaben zufolge haben rund eine Million Nutzer einen Bestellprozess begonnen, diesen aber vor Abschluss der Transaktion abgebrochen. Die Gründe für das vergleichsweise geringe Shoppingvolumen auf der Alexa-Plattform haben wir auch in den letzten SEO News schon ausführlich besprochen. Es bestätigt sich, dass Nutzer vor einer Kaufentscheidung umfassende Informationen über das Produkt oder die Dienstleistung recherchieren und mit Konkurrenzprodukten vergleichen. Der Trend zur Absicherung der Kaufentscheidung nimmt sogar weiter zu. Sprachassistenten wie Alexa oder Google Home sind mit ihrer Fokussierung auf Sprachausgabe bislang nicht in der Lage, dieses Informationsbedürfnis zu befriedigen. Bis zu einem echten, von Alexa vermittelten Verkaufsgespräch zwischen einem potentiellen Käufer und der Anwendung eines Händlers oder Verkäufers auf dem Sprachassistenten wird es noch ein wenig dauern. Aktuell stehen die Smart-Home Steuerung, einfache Informationsanfragen wie die Wettervorhersage und Musikdienste an erster Stelle der beliebtesten Nutzungsszenarien. Man sollte die Technologie jedoch nicht unterschätzen. Die Individualisierung der Nutzeransprache im E-Commerce wird dank Künstlicher Intelligenz und dem großen Datenschatz von Amazon und Google nicht mehr lange auf sich warten lassen. Und ordentlich menscheln kann Alexa schon heute. Wie Amazon auf der Internationalen Funkausstellung (IFA) in Berlin bekanntgab, hat die bekannteste Tochter des Hauses bereits mehr als 100 Millionen Witze erzählt und Millionen von Menschen zum Geburtstag gratuliert.

Dieser Beitrag erschien zuerst bei Internet World Business.

In der Serie „Dreimal aufgeschlaut“ erklären Experten der Plan.Net Gruppe regelmäßig ein aktuelles Thema der digitalen Welt aus unterschiedlichen Perspektiven. Was bedeutet es für die Oma, was für den Agentur-Kollegen? Und was hat der Kunde, also ein Unternehmen, davon?

Schon mal von Kuro Takhasomi gehört? Nein? Unter dem Spitznamen KuroKy gehört der 25-jährige Berliner zu den größten Stars seiner Sportart und hat in seiner Karriere schon über 3,7 Mio. US-Dollar an Preisgeldern gewonnen. Mitte August tritt KuroKy zusammen mit seinen Mitspielern von Team Liquid beim Turnier „The International“ in Vancouver an. Das Ziel: Die Titelverteidigung beim höchstdotierten ESports Event der Welt. Die Sportart? Dota 2., ein teambasiertes Computerspiel. ESports, lange als weltfremdes Hobby für Kellerkinder verspottet, ist auf dem Weg zum Milliardenmarkt. Die Szene entwickelt sich rasant und die Potentiale für Sponsoring und Werbung sind gigantisch.

ESports: So vielfältig wie der klassische Sport, mit Vorbildern für Millionen

Wenn meine Oma mich fragt, was ESports eigentlich sein soll, ist die Antwort recht trivial. Wie bei den Olympischen Spielen treten Spieler alleine oder im Team in verschiedensten Disziplinen gegeneinander im Wettkampf an. Nur sind die Disziplinen nicht Handball, Tennis oder Bogenschießen, sondern Computerspiele wie Dota 2, League of Legends oder Counterstrike. Die Sportgeräte? Maus und Tastatur, statt Schläger, Turnschuhe oder Ball. Und so vielfältig wie die klassischen Sport-Disziplinen sind auch die verschiedenen Games, den „einen“ ESport gibt es nicht.
Organisiert sind die verschiedenen Spiele in Ligen und Meisterschaften, oft mit Teams aus der ganzen Welt. Die Finalrunden füllen große Arenen mit Tausenden von Zuschauern, übertragen werden die Events im Internet und immer häufiger auch im klassischen Fernsehen.

Eines aber haben Sport und ESport gemeinsam – nur mit jahrelangem, harten Training und sehr viel Disziplin gelingt der Sprung vom Hobby zum Beruf. Und genau hier verbirgt sich das Geheimnis zur oft gestellten Frage „Wieso schaut man anderen Leuten beim Zocken zu?“. Aus dem gleichen Grund, wieso man Lionel Messi, LeBron James oder Serena Williams bei ihren Sportarten vor dem Fernseher zusieht: weil sie zu den besten ihrer Zunft gehören und auf dem Platz Dinge anstellen, von denen man als Hobby-Spieler nur träumen kann.

ESports: Attraktives Media-Umfeld und Wachstumsmotor der Streaming-Plattformen

ESports ist primär ein digitales Unterhaltungsmedium und eignet sich aufgrund hoher Reichweiten und Sehdauern hervorragend für digitale Display- und Bewegtbildwerbung. Die primäre Zielgruppe sind junge, techaffine Männer, die über klassische Medien oft nur noch schwer zu erreichen sind. Die wichtigste Plattform ist zweifelsohne die Amazon-Tochter Twitch, ESports Inhalte gehören zu den am meistgesehenen Inhalten auf der Plattform. Eine Besonderheit ist die enge Verbindung zwischen der Fan-Community und den Profis: viele ESports-Begeisterte verfolgen nicht nur die großen Turniere, sondern sind auch treue Zuschauer der täglichen Trainings-Sessions der Spieler, in denen sie direkt mit ihren Vorbildern interagieren und mehr über ihre bevorzugten Games lernen können.

In den letzten Jahren haben auch YouTube und Facebook begonnen, massiv in ESports zu investieren. Die Electronic Sports League hat Anfang des Jahres mit Facebook einen exklusiven Streaming-Deal für einige ihrer populären Turnier-Serien, unter anderen für Counterstrike, abgeschlossen.

Wo junge Zielgruppen Sponsoring und Marketing noch richtig großartig finden

Für Unternehmen ist ESports ein enorm attraktives Sponsoring-Umfeld. Gerade Zielgruppen, die ansonsten nicht im Verdacht stehen, Sponsoren und werblicher Kommunikation gegenüber sonderlich aufgeschlossen zu sein, haben großes Interesse daran, „ihr“ Spiel und „ihre“ Helden wachsen zu sehen.

Die Multiplikator-Effekte des Sponsorings von ESports-Teams oder Spielern sind nicht zu unterschätzen. Durch die ständige Präsenz der Gamer auf den Streaming-Plattformen auch abseits der Turniere werden die Sponsoren elementarer Bestandteil der Community – ermöglichen sie es doch den Athleten ihr Hobby zum Beruf zu machen und auf hohem Niveau ohne finanzielle Sorgen zu bestreiten. Genau das wissen die Fans zu schätzen, Marken können so sehr einfach positive Wahrnehmung in der Szene erzeugen. In Kombination mit einem Social Media-Team, das sich ein wenig auf die Gaming-Kultur einlässt und mit den Fans auf Augenhöhe interagiert, sowie kleinen Aktionen wie Give-aways, entsteht ein schlagkräftiges Marketing-Instrument.

Eine kürzlich veröffentlichte Untersuchung der Kollegen von WaveMaker hat gezeigt, dass im ESports-Umfeld präsente Marken, vor allem aus den Branchen Getränke und Technologie neben hoher Awareness auch sehr gute Aktivierungsleistung unter den ESports-Fans generieren konnten.

Und: Eine gute Gelegenheit, erste Eindrücke rund um ESports, Gaming und die Fans zu sammeln, hat man Ende August während der GamesCom in Köln.

Dieser Beitrag erschien zuerst bei lead-digital.de.

SEO News

Endlich Sommerloch. Doch eine künstliche Intelligenz kennt kein Hitzefrei und kann daher auch mitten im Stau am Brenner das perfekte Kindermädchen im Auto geben. Vorausgesetzt der Sprachassistent hat auch etwas zu erzählen. Genau darum geht es in unseren SEO News für den Monat August. Und natürlich darf auch das notorische Sommerlochmonster nicht fehlen.

1) Ein Sprechzettel für Google Home

Das Zwiegespräch mit der Maschine bleibt ein Thema. Nachdem wir vergangenen Monat über automatisierte Sprachbefehle des Google Assistant an die Erwerbsbevölkerung berichtet haben, gibt es aus Mountain View nun eine handfeste Erleichterung für Content Publisher auf ihrem Weg in die Welt der Sprachassistenten. Mit „Speakable“ hat Google erstmal ein semantisches Markup zur Auszeichnung von Textausschnitten zur Sprachausgabe veröffentlicht. Die Auszeichnungen wurden über die Brancheninitiative „Schema.org“ zur Verfügung gestellt und befinden sich nach Angaben des Unternehmens noch in der Beta-Phase. Mit „Speakable“ können Nachrichtenanbieter und andere Content Publisher einen kurzen und auf Sprachausgabe optimierten Abschnitt eines Textes direkt für die Nutzung durch den Google Assistant bereitstellen. Ähnlich wie ein Teaser sollte der Text maximal zwei bis drei Sätze lang sein, sodass sich für die Ausgabe beim Assistenten eine Sprechzeit von 20 bis 30 Sekunden ergibt, rät Google. Für den optimalen Einsatz solle der Inhalt des Textes das Thema informativ und in kurzen Sätzen darstellen, auch Überschriften dürften verwendet werden, hieß es weiter. Bei der Auswahl der Inhalte muss sichergestellt werden, dass keine technischen Informationen wie Bildunterschriften sowie Datums- oder Quellenangaben das Nutzererlebnis beeinträchtigen können. Der optimierte Einsatz von Markup rückt für Suchmaschinenoptimierer im Zeitalter von künstlicher Intelligenz und der Multiplikation von Ausgabeplattformen immer stärker in den Fokus. Mit Hilfe dieser standardisierten Zusatzinformationen im Quelltext kann sichergestellt werden, dass alle an Auswahl und Darstellung der Suchergebisse beteiligten Systeme die Daten zuverlässig erfassen und optimal verarbeiten können. Das „Speakable“-Feature ist zunächst nur für die englische Sprache im US-amerikanischen Markt verfügbar. Den Start in weiteren Märkten plant Google jedoch nur unter der Voraussetzung, dass „eine hinreichende Anzahl von Publishern Speakable implementieren“, so das Unternehmen. Der SEO-Branche wird die Arbeit also so schnell nicht ausgehen.

2) Mehr Möglichkeiten für Amazons Alexa

Denkt man über die Zukunft der digitalen Suche nach, so verschiebt sich der Fokus langsam von der Analyse von Anfragen und Intentionen zur Reflektion über Antworten und Ausgabesysteme. Die entscheidende Herausforderung für eine gelungene Mensch-Maschine-Kommunikation im Wechsel zwischen interaktiven Displays, augmentierter Realität und Sprachassistenten wird es sein, das bestmögliche Ergebnis für jeden Kanal bereit zu stellen. Gibt es eine Antwort, mehrere Antworten oder beginnt mit der ersten Frage sogar eine Konversation zwischen Suchsystem und Suchendem? Im Prinzip läuft es mit den virtuellen Assistenten ähnlich wie mit dem Berater im stationären Geschäft: Will man ein schnelles Ergebnis haben oder ein komplettes Verkaufsgespräch beginnen? Will der Nutzer nur in Ruhe stöbern oder benötigt er die Hilfe eines Verkäufers? Reicht eine kurze Antwort oder muss der Suchende seine Anfrage mehrfach nachspezifizieren, bis er zum passenden Ergebnis kommt? Die US-amerikanische Firma „Yext“ hat nun eine Kooperation mit Amazon vorgestellt, die es erlaubt, sogenannte NAP-Daten (Name, Adresse und Telefonnummer), sowie Öffnungszeiten lokaler Unternehmen direkt zur Verarbeitung durch den Sprachassistenten Alexa zu importieren. Das Unternehmen aus New York teilte gegenüber Journalisten jedoch mit, dass für die Zukunft eine noch tiefere Integration ihrer Schnittstelle mit Amazon Alexa geplant sei. Ob damit auch Produktdaten und -kataloge gemeint sind, blieb zunächst offen. Die Automatisierung des Datenaustauschs zwischen den Inhabern digitaler Angebote und Suchsystemen mit dem Ziel einer optimalen Nutzererfahrung am Ausgabepunkt und valider Messbarkeit des Erfolgs ist schon heute einen Schlüssel zum Erfolg im digitalen Retailgeschäft. Für Googles Shoppingfunktion PLA (Product Listing Ads) oder auch den Einsatz auf Preissuchmaschinen und Affiliate Netzwerken ist die Bereitstellung und Optimierung von Datenfeeds ein zentraler Mechanismus. In der Amazon-Welt entstehen die dafür notwendigen Schnittstellen und Tools erst nach und nach. Dabei liegt genau hier das derzeit größte Potential, um vom Wachstum der digitalen Sprachassistenten zu profitieren.

3) Ein SEO Kaninchen auf SERP-Raubzug

Erinnern Sie sich noch Lotti die schnappende Schildkröte, Yvonne die flüchtige Kuh oder den Brillenkaiman Sammy? Wie gut, dass es Suchmaschinen gibt, die einem die Möglichkeit geben, das Schicksal der unzähligen Sommerlochtiere noch einmal zu erleben. Und das viele Jahrzehnte nachdem wir gebannt mit ihnen durch die mehr oder weniger nachrichtenlose Ferienzeit gefiebert haben. Neu aber ist, dass ein virtuelles Kaninchen die weltgrößte Suchmaschine Google in die Knie zwingt. Publiziert wurde die Geschichte unter dem Namen „Rabbit Bug“ vom spanischen Programmiererkollektiv „La SEOMafia“. Nach deren Angaben handelt es sich um das gezielte, manipulative Einfügen eines Tabellenformats in den Quelltext einer Website. Der Bug bestehe darin, dass Google beim Ausspielen des Suchergebnisses diese Formatierung nicht interpretieren könne, was zum plötzlichen Abbruch der Suchergebnisanzeige nach dem manipulierten Eintrag führe, hieß es. Dieser Fehler konnte auf einer rankenden Seite für das Keyword „Conejos“ (spanisch für Kaninchen) implementiert werden, sodass als Ergebnis nur der eine, manipulierte Suchtreffer angezeigt wurde. Man mag sich gar nicht vorstellen, welch traumhafte Klickraten sich auf diese Weise erzielen lassen könnten. Es ist auch in der inzwischen recht erwachsenen SEO-Branche immer wieder eine Freude zu sehen, wie ein paar kreative Geister den Laden ein wenig aufmischen. Letztendlich wurde sogar Googles SEO-Verbindungsoffizier John Müller auf den Rabbit Bug aufmerksam und meldete auf Twitter augenzwinkernd, er habe die Sichtung des Kaninchens intern weitergegeben. Dem Kaninchen droht nun das Schicksal aller Sommerlochtierchen. Am Ende wurden die meisten eingefangen oder erlegt.

Dieser Beitrag erschien zuerst bei Internet World Business.

Raus aus Schema F, rein in den Kopf des Kunden

Sie haben Award-verdächtige Werbung geschaffen und ordentlich in Media investiert – dann hängt Ihr Kunde über eine halbe Stunde in einer inkompetenten Hotline. Sie haben ein perfekt personalisiertes Mailing verschickt – nur landet Ihr Kunde beim Klick leider auf einer allgemeinen Kategorieseite des Webshops. Sie starten eine befristete Verkaufsaktion und noch Wochen nach deren Ende verfolgt das Retargeting-Banner die User. Marketing funktioniert ein bisschen wie Dating: Da sind es manchmal gerade die Kleinigkeiten, die den ersten guten Eindruck zerstören.

Wenn Kunden heute Erfahrungen mit Marken oder Produkten sammeln, tun sie das an vielen Stellen: im Laden, auf der Website, in den sozialen Kanälen, am Telefon und auf der Straße. Im besten Fall ergibt diese Customer Experience ein stimmiges Gesamtbild. In der Realität tut sie das oft nicht. Warum? Weil in den Unternehmen Strukturen vorherrschen, die es in vielen Fällen erschweren, das Kundenerlebnis als zentrales Element in den Mittelpunkt des Handelns zu stellen. Und das, obwohl immer mehr Firmen wissen, wie wichtig dieser Aspekt ist.

Eine stimmige Customer Experience braucht neue Strukturen

In Zeiten zunehmender Preistransparenz und abnehmender Markentreue stellt eine stimmige Customer Experience ein wichtiges Differenzierungsmerkmal dar. Wer es da nicht schafft, seine Kunden zu finden UND zu binden, bekommt schnell Probleme. Für Marken bedeutet das: Sie müssen sich darauf konzentrieren, den Kunden Gründe geben, warum sie Kunden werden, sein und bleiben sollen. Und weil die Plattformökonomie der digitalen Welt (Preis-)Vergleiche begünstigt und Wechselhürden senkt, ist es oft mit dem EINEN Grund – einem tollen Produkt, einem unschlagbaren Preis, einem guten Markenimage, mit dem man sich gerne schmückt etc. – nicht mehr getan. Der Schlüssel für Erfolg und Zukunftsfähigkeit im digitalen Zeitalter ist eine stimmige und vor allem relevante Customer Experience.

Dabei ist eine weitere Herausforderung, dass die Digitalisierung sehr viele, wenn nicht fast alle, Bereiche eines Unternehmens beeinflusst: von der Produktentwicklung über das Management bis hin zu Marketing und Service. Stellen Firmen wirklich den Kunden in den Mittelpunkt ihres Tuns, müssen sie diese Aufgabe abteilungsübergreifend in Angriff nehmen: also die Schranken zwischen Bereichen einreißen und/oder eine andere Art der Zusammenarbeit im Unternehmen fördern. Das ist – zugegeben – eine komplexe und keineswegs einfache Aufgabe. Nehmen wir wieder Marketing und Kommunikation als Beispiel: Da existieren klassische Werbung, digitales Marketing, CRM bzw. Dialogmarketing, PR/Unternehmenskommunikation und Social Media häufig nebeneinander in historisch getrennten Silos.

Nutzwert und Benutzerfreundlichkeit machen den Unterschied

Erfolgsentscheidend für eine wirksame Customer Experience ist Relevanz. Relevanz ist bestimmt durch die subjektive Erfahrung des Kunden. Gefällt einem die Werbung? War der Mensch in der Hotline freundlich? Hat man auf der Webseite das Gewünschte schnell gefunden? Jeder Kunde trifft sein eigenes Urteil. Fasst man die Bewertungskriterien zusammen, kann man sie in zwei übergreifende Kategorien einteilen: Erstens Nutzwert (Utility) und zweitens Benutzerfreundlichkeit (Usability).

Die Utility beschreibt, wie werthaltig die Erfahrung, das Erlebnis, der rezipierte Inhalt für den Nutzer waren. Wie gut entspricht das Erlebte meinen individuellen Anforderungen? Beantworten die Inhalte meine Fragen, lösen sie mein Problem? Wie gut werden meine Erwartungen ge- oder vielleicht sogar übertroffen?

Die Usability steht als Überbegriff für die erlebte Benutzerfreundlichkeit. Hierbei geht es also nicht um den Inhalt, sondern darum, wie einfach Nutzen, Steuern und Bedienen sind. Und natürlich müssen die Erfahrungen an den unterschiedlichen Touch Points auch noch ein passendes Gesamtbild ergeben und sehr gut vernetzt sein.

Die Erfahrungen aus vielen Projekten zeigt: Utility und Usability ergeben nur dann ein stimmiges Bild, wenn Unternehmen ihre unterschiedlichen Experten innerhalb und außerhalb des Unternehmens dazu befähigen, gemeinsam an einer relevanten Customer Experience zu arbeiten.

Personalisierungsbeispiel Lufthansa: 500 Millionen Newsletter

Die Menschen erwarten in einer digitalisierten Welt von Marken sinnvoll personalisierte Inhalte. Ein Unternehmen wie die Lufthansa versendet beispielsweise jedes Jahr weltweit 500 Millionen Newsletter an unterschiedliche Zielgruppen, zu unterschiedlichen Destinationen, mit unterschiedlichsten Angeboten. Da verbirgt sich hinter dem Schlagwort „Personalisierung“ eine extrem komplexe und aufwändige Kommunikationsarchitektur, um eine stimmige digitale User Journey von der Inspiration des Nutzers weit vor dem Start bis hin zur Landung am Heimatort zu gewährleisten. Allein für die Personalisierung des Newsletters hat Plan.Net ein eigenes Newsletter-Cockpit für die Kranich-Airline gebaut. Eine gemeinsame Plattform für das Lufthansa Marketing und seine Dienstleister mit einer intuitiven Oberfläche, einem modularen Baukastensystem für die Inhalte und einer Vorschau in Echtzeit. Übergreifend synchronisiert wird die Dialogkommunikation via Mail außerdem mit Bannern, Apps und Social-Plattformen. Nur ein Beispiel für ein Projekt, dass durch abteilungsübergreifendes und zwischen Marke und Dienstleister abgestimmtes Arbeiten realisiert werden konnte.

Einen anderen Weg geht Audible, das hundertprozentige Tochterunternehmen von Amazon. Der Marktführer im digitalen Vertrieb von Hörbüchern verfolgt einen 360-Grad-Ansatz, der Kommunikation, Media, Research und Tracking verbindet. Um die Nutzer – je nach Interesse und Bedürfnis – sowie ihrer Stufe innerhalb der User Journey passend anzusprechen, werden verschiedenste Inhalte aufbereitet und über mediale Platzierungen ausgesteuert. Mit diesem, auf die User Experience abgestimmtem Content Marketing, kann der Cost-Per-Lead deutlich gesenkt werden.

Die Wege, eine stimmige User Experience zu gewährleisten, sind vielfältig und je nach Unternehmen und Produkten auch oft einzigartig. Deshalb mein Rat: Stellen Sie eine relevante Customer Experience, und damit ihre bestehenden Kunden selbst, an den Anfang und in den Mittelpunkt der Transformation im Marketingbereich. Dazu sollten Sie sich fünf Fragen stellen:

  1. Wer sind meine Kunden?
    Das klingt banal, aber in vielen Unternehmen werden die verfügbaren Daten und Informationen nicht so umfassend ausgewertet und abteilungsübergreifend genutzt, wie es möglich wäre.
  2. Was bewegt meine Kunden?
    Nicht nur die sozialen Medien geben Ihnen die Möglichkeit, zu erfahren, wie die Menschen über Sie denken und welche Bedürfnisse sie haben. Nutzen Sie diese Möglichkeiten und denken Sie bei allen Ihren Angeboten immer aus der Nutzerperspektive.
  3. Wo erreiche ich meine Kunden?
    Welche medialen und nicht medialen Berührungspunkte nutzen meine Kunden in welcher Beziehungsphase und mit welcher Intention.
  4. Welche Mehrwerte können mir dabei helfen, kundenzentrierter zu sein?
    Produkterweiterungen, Services – es gibt viele Möglichkeiten, ein Angebot kundenzentriert zu erweitern. Greifen Sie bei Bedarf auf Lösungen von Partnern zurück – man muss nicht jedes Mal das Rad neu erfinden!
  5. Wie kann ich meine Angebote personalisieren?
    Kommunikation, Websites, Angebote und Produkte – mittlerweile kann fast alles personalisiert werden. Nutzen Sie diese Möglichkeit, um höchstmögliche Relevanz zu schaffen.

Wenn Sie diese Fragen ehrlich und umfassend beantwortet haben, schaffen Sie eine sehr gute Grundlage einerseits für größtmöglichen Erfolg heute und andererseits für die Zukunftsfähigkeit Ihres Marketings morgen.

Dieser Beitrag erschien zuerst auf cmo.com/de.

SEO News

Der Sommer ist nun endgültig da, die Nächte sind lang und das gibt uns genug Zeit dafür, uns mit den grundsätzlichen Fragen des Lebens zu beschäftigen. Daher geht es in den SEO News des Monats Juli nicht nur um bevorstehende Google-Updates sondern auch um das Quiz der Erkenntnis und die zukünftige Hackordnung auf unserem Planeten.

1) Schnell und sicher zu guten Rankings

Wieder einmal ist Google am Komfort und der Sicherheit der Internetnutzer gelegen. Die Firma, welche nach eigenen Angaben niemals böse sein will, bringt im Juli gleich zwei Updates auf die Straße, von deren Auswirkungen Internetnutzer und Webseitenbetreiber gleichermaßen profitieren sollen. Beide Änderungen sind seit langem angekündigt und in Teilen bereits umgesetzt. In einem ersten Schritt wird die Ladegeschwindigkeit von mobilen Seiten zum offiziellen Rankingfaktor. Bereits in den ersten zehn Grundregeln von Google zur Qualität einer Seite wurde die Ladegeschwindigkeit als Qualitätskriterium gelistet. Es hat nur sehr lange gedauert, bis daraus nun wirklich ein Ranking Faktor wurde. Damals war der Schritt auf Grundlage von Studien erfolgt, wonach sich langsame Webseiten direkt auf deren Clickthrough- und Konversionsraten auswirken. Auch auf den Veranstaltungen der Search-Konferenzsaison 2018 wurde das Argument der Geschwindigkeit von Google-Vertretern wie ein Mantra wiederholt. Mit der sukzessiven Einführung des Mobile First Index (wir berichteten), wird dieser Schritt nun auch für den mobilen Bereich offiziell nachgeholt. Webseitenbetreiber sollten ihre Domains mit den hauseigenen Tools „Page Speed Report“ und „LightHouse“ analysieren und entsprechende Maßnahmen für mobile Webseiten umsetzen, so Google. Neben dem Speed Update macht Google im Juli auch Ernst mit seiner Ankündigung, Webseiten im Chrome Browser als unsicher („non-secure“) zu markieren, welche zum Stichtag nicht auf das verschlüsselte HTTPS-Protokoll umgestellt wurden. Auch dieser Schritt markiert den Endpunkt einer Kampagne, die bereits vor mehr als zwei Jahren begonnen hatte. 2016 hatte Google bereits mit einem kleinen Ranking-Boost für gesicherte Webseiten mit der Aufklärungsarbeit begonnen. Diese war nach eigenen Angaben von Erfolg gekrönt. So wird nach Angaben des Unternehmens mittlerweile rund 68 Prozent des gesamten Traffics im Chrome Browser auf Android und Windows über HTTPS vermittelt. Ein Wert, welcher sicher noch steigerungsfähig ist. Dass Google seine Marktmacht zur Umsetzung technischer Standards mit dem Ziel der Verbesserung der Nutzererfahrung einsetzt ist ein richtiger Schritt. Erst vor dem Hintergrund drohender Traffic- oder Umsatzverluste war so manches Unternehmen bereit, in schnellere Technologie oder sichere Lizenzen zu investieren. Um für zukünftige Entwicklungen gerüstet zu sein, sollte man neue Technologien wie AMP (Accelerated Mobile Pages), mobile Checkoutprozesse, oder Frameworks mit Prerendering zum Vorladen von Inhalten im Auge behalten. Diese Neuerungen können dabei helfen, vor allem die Wahrnehmung der Ladegeschwindigkeit beim User über alle Plattformen hinweg zu verbessern.

2) Das ganze Leben ist ein Quiz

Jetzt wird es kompliziert für alle, die in Mathematik nicht aufgepasst haben. Die späte Erkenntnis, in der Schule zwischen Integralrechnung und Stochastik irgendwann den Faden verloren zu haben, rächt sich im Zeitalter der Algorithmen. Erst recht, für Menschen im Berufsfeld des Online Marketings. Banal gesagt ist so ein Algorithmus lediglich eine wohl geordnete Kette von Entscheidungen zur strukturierten Lösung eines Problems. Die entscheidende Neuerung der letzten Jahre ist das Erscheinen der künstlichen Intelligenz und des Maschinellen Lernens. Heutzutage werden die einzelnen Glieder der Algorithmuskette nicht mehr von Menschen, sondern von Programmen zusammengefügt. Stellt man einer Suchmaschine eine Frage, so wird diese Information entgegengenommen, mittels semantischer Analysen ihr zentrales Informationsobjekt (Entität) und ihre Intention ermittelt, sowie das empirisch passendste Ergebnis (Ranking) im richtigen Kontext (z.B. lokal und mobil) zurückgegeben. Eine Gruppe von sieben Google-Ingenieuren hat auf der ICLR-Konferenz in Vancouver nun ein Forschungsprojekt vorgestellt, in welchem das Frage-Antwort-Prinzip auf den Kopf gestellt wird. Die Forscher nutzten dafür Aufgaben aus der beliebten US-Quizshow „Jeopardy“. In dieser Show müssen die Kandidaten seit 1964 die richtigen Fragen auf komplexe Antworten finden. In ihrer Studie nutzten die Google-Ingenieure dem Umstand, dass bei Jeopardy-Aufgaben Informationsdefizite und Unsicherheiten bestehen, welche erst durch die Formulierung der passenden Frage aufgelöst werden können. Die Frage muss also so lange angepasst werden, bis die vorgegebenen Informationen in ihrer Kombination und ihrem Kontext Sinn machen. Das menschliche Gehirn leistet diese Arbeit in Sekundenschnelle und kann dabei auf einen umfangreichen Satz an intellektuellen und sozialen Hilfsmitteln zurückgreifen. Stellt man aber einer Suchmaschine eine Jeopardy-Frage, wie beispielsweise: „Wie die Bibel war diese islamische Schrift zwischen 1926 und 1956 in der Sowjetunion verboten“, so erhält man keine passende Antwort. Google liefert einen Wikipedia Eintrag über die Sowjetunion, hat also diesen Suchbegriff als Entität, als zentrales Informationsobjekt erkannt, und greift damit zu kurz. Microsofts Suchmaschine Bing kommt der aus menschlicher Sicht naheliegenden Antwort „Was ist der Koran?“ ein wenig näher, kann aber auch kein zufriedenstellendes Ergebnis liefern. An dem kleinen Trick mit den Jeopoardy-Fragen erkennt man, was den Suchmaschinen bis heute die größten Kopfschmerzen bereitet, obwohl es als Qualitätsmerkmal moderner Suchsysteme vermarktet wird: Das präzise Erkennen der Intention des Suchenden. Was SEOs in Unternehmen und Agenturen aufwändig erarbeiten, soll seitens der Suchmaschinen zuverlässig automatisiert werden. Zu diesem Zweck wurde von den Google-Forschern ein System maschinellen Lernens entwickelt, welches mögliche Antworten auf die Jeopardy-Frage in vielen unterschiedlichen Versionen reformuliert, bevor diese an den eigentlichen Kernalgoritmus weitergegeben werden. Die erhaltenen Antworten werden in einem zweiten Schritt aggregiert und mit den Ausgangsfragen abgeglichen. Erst nach diesen zwei Zwischenschritten wird ein Ergebnis präsentiert. Der selbstlernende Algorithmus erhielt im Anschluss die Auflösung, ob seine Antwort richtig oder falsch war. Mit dieser Methode und einem großen Datensatz wurde das KI-System in der Folge trainiert. Das Ergebnis der Trainings war, dass das System gelernt hatte selbstständig vielschichtige Fragen zu bekannten Antworten zu ERSTELLEN. Dieser Meilenstein geht weit darüber hinaus, die durch den Einfluss von Voice und Visual Search immer komplexeren Suchanfragen nur zu VERSTEHEN. Obwohl diese Studie von Google durchgeführt wurde, kann man davon ausgehen, dass auch Microsoft, Yandex und Baidu an entsprechenden Technologien arbeiten, die Erkenntnis der Dinge weiter zu automatisieren und in nicht allzu ferner Zukunft komplexe Inhalte automatisiert und individualisiert zu erstellen. Welche Auswirkungen dies für die Vielfalt und Transparenz im Netz hat, können wir zum jetzigen Zeitpunkt noch gar nicht abschätzen.

3) Google Assistant gibt den Ton an

Passend zum Thema der automatischen Inhaltserstellung gibt es auch noch ein Update zu Googles unheimlicher Präsentation zweier Telefonate zwischen dem Google Assistant und der arbeitenden Bevölkerung. Im Mai hatte der Suchmaschinenriese aus Mountain View auf seiner Entwicklerkonferenz „IO“ ein Video präsentiert, ein welchem eine KI-Erweiterung des Google Assistant namens „Duplex“ selbstständig und menschliches Sprachverhalten perfekt imitierend, Reservierungen in einem Friseursalon und einem Restaurant beauftragt hat. Die menschlichen Gesprächspartner waren während der Unterhaltung offensichtlich nicht in der Lage zu erkennen, dass sie in der Ausübung ihrer Tätigkeit gerade mit einer Maschine interagierten. Die enge Zusammenarbeit mit Robotern und künstlichen Systemen ist die für Industriearbeiter der westlichen Welt schon lange nichts Neues mehr. Nun kommt diese Entwicklung aber auch in der Dienstleistungsgesellschaft und damit in unserem Alltag an. Das Google-Szenario wirkte auf den ersten Blick verblüffend und überzeugend. Mit dem leichten Schauder des Unheimlichen stellten sich aber zugleich auch einige drängende Fragen. Vor allem der Umstand, dass sich Duplex gegenüber den menschlichen Gesprächspartnern nicht als Maschine identifiziert hatte, wurde kontrovers diskutiert. Nun hat Google reagiert und ein neues Video veröffentlicht, in dem sich der Google Assistant zu Beginn des Gesprächs zu erkennen gibt, und ähnlich wie eine Bandansage im Callcenter die Aufzeichnung des Telefonats zur Qualitätssicherung ankündigt. Mit einigem Abstand aber muss man sich fragen, ob dieses Entgegenkommen der künstlichen Intelligenz nicht völlig überflüssig ist. Den Anweisungen des Google Assistant folgt der Restaurantmitarbeiter im Video dann auch brav, ganz als ob er mit einem Menschen sprechen würde, es besteht kein Unterschied. Im Search Marketing versuchen wir, die Intentionen von Zielgruppen und Konsumenten in den von Suchmaschinen erzeugten Inhalten (Ergebnisseiten) im Sinne des eigenen Interesses zu reflektieren. Im Voice Search kommandieren wir eine Maschine mit Befehlen und werden erst einigen Jahren erfahren, wie uns das verändern wird. Und im Google-Zukunftsszenario einer unsichtbaren, allgegenwärtigen Orientierungs-, Lösungs- und Komfortmaschinerie ist der Mensch Objekt und Subjekt der Technologie zugleich. Mit seinen Daten hat er das System geschaffen, gefüttert und trainiert, dann durfte er sich kurz als dessen Herrscher fühlen. Ob wir jedoch noch merken werden, wann es kippt, ob wir den Zeitpunkt der Auslieferung erkennen werden, dass kann und muss nach Lage der Dinge ernsthaft bezweifelt werden.

Dieser Beitrag erschien zuerst bei Internet World Business.