Am Heiligabend 2018 werden jede Menge Sprachassistenten das Licht der Welt erblicken. Zum ersten Mal mit Strom versorgt, werden ihre Kameras den heimeligen Kerzenschein des Weihnachtsbaums erblicken und ihre Mikrofone werden zum ersten Mal die Stimmen ihrer zukünftigen, menschlichen Familienmitglieder hören. Für welchen Hersteller dieser Marketingtraum Realität wird, und wie Bing sich in Sachen Shoppinghilfe mausert, erfahren Sie in den letzten SEO News des Jahres 2018

Sprachassistenten im Weihnachtsstress

Weihnachten ist das Fest der Liebe. Und auch dieses Jahr werden sie sich erneut in vielen Haushalten wiederfinden: Die allgegenwärtigen Sprachassistenten. Zählten Alexa & Co. schon im vergangenen Jahr zu den Rennern unter dem Weihnachtsbaum, Marktführer Amazon hatte zum Fest 2017 nach eigenen Angaben mehrere Millionen seiner Alexa-Modelle verkauft, so blicken wir auch dieses Jahr mit Spannung auf die Verkaufszahlen. Stellt sich doch die Frage, ob sich der Trend zum Massenprodukt verfestigt und wer das Rennen um die Marktbeherrschung letztlich für sich entscheiden kann. Doch 2018 ist die Konkurrenz schärfer geworden und einige der größten Wettbewerber haben ihre Marktanteile signifikant ausbauen können. Nach Angaben der Unternehmensberatung „Strategy Analytics“ bleibt die weltgrößte Shoppingplattform aus Seattle mit rund 75 Prozent aller Smart Speaker zwar globaler Marktführer. Beim Wachstum im Jahresvergleich konnte aber Google mit seinem „Google Home“-Assistenten die Führung übernehmen. Um mehr als 420 Prozent konnte der Suchgigant aus Mountain View seine Verkäufe steigern und hält nun mit knapp 16 Prozent Marktanteil den 2.Platz im Ranking. Besonders auffällig: Der gemeinsame Marktanteil von Amazon und Google ist im Jahresvergleich von rund 90 Prozent auf nur noch 69 Prozent gefallen. Vor allem die Konkurrenz aus Asien macht Boden gut. So hat der chinesische Amazon-Konkurrent Alibaba auf der kanadischen KI-Konferenz NeurIPS einen Assistenten vorgestellt, welcher in seinen Fähigkeiten dem Technologieführer Google in nichts nachzustehen scheint. Ebenso wie Google auf seiner Entwicklerkonferenz mit einem spektakulären Telefongespräch zwischen Mensch und Maschine Schlagzeilen machte (wir berichteten), so hat auch Alibaba für die Demonstration einer Entwicklungsversion seines Assistenten „AliGenie“ ein menschliches Gespräch gewählt. Bei der Absprache eines Liefertermins schaffte es die Alibaba-Maschine, sich von Zwischenfragen nicht aus der Ruhe bringen zu lassen. Aus indirekten Hinweisen des menschlichen Gesprächspartners konnte das System sogar die richtigen Schlüsse in Bezug auf den Lieferort ziehen, eine Herausforderung, an der andere Sprachassistenten bislang gescheitert sind. Im Gegensatz zu Alexa und Google Home, die als Smart Speaker ihren festen Platz in unserer Lebenswelt finden sollen, integriert Alibaba seinen Sprachassistenten unmittelbar in die Geschäftsprozesse seines Unternehmens. So werden telefonische Bestellungen, Preisvergleiche und das Liefermanagement die ersten Teilbereiche sein, in denen AliGenie zum Einsatz kommen soll, so das Unternehmen. Wie sehr die digitale Welt auch beim Sprachassistenten gespalten ist, zeigt sich unter anderem  auch an den Verkaufdzahlen im Reich der Mitte. Den Angaben von Strategy Analytics zufolge hat Google 2017 auf dem weltweit größten Markt lediglich eine halbe Million Google Assistant-Geräte abgesetzt. Zum Vergleich: In den USA hat die Anzahl von Smart Speakern bereits fast die 50-Millionen-Marke erreicht. Das Rennen ist also noch nicht entschieden, die Zukunft der Sprachsuche so offen wie je zuvor.

Shoppen statt suchen

Microsoft hat seiner Suchmaschine Bing eine Reihe neuer Funktionen spendiert, mit deren Hilfe der Nutzer bei Suchen mit Kaufintention unterstützt werden soll. Mit dem Black Friday hat der Tech-Gigant aus Redmond den Zeitpunkt der Präsentation gut gewählt. So war ein Teil der neuen Funktionen speziell für den Black Friday konzipiert, und auch nur an diesem Tag verfügbar. Der Großteil der Funktionalitäten jedoch wird das ganze Jahr bleiben, soll aber gerade in der Vorweihnachtszeit besonders hilfreich sein. In einer Produktvergleichs-Funktion speziell für die Produktkategorie Mobiltelefone zeigt Bing Bewertungen, Rezensionen von Experten und Produkthighlights prominent über den organischen Suchergebnissen. Laut dem Unternehmen, soll es damit erleichtert werden, den neusten Hardware-Trends im Bereich der Mobiltelefonie zu folgen.

Eine zweite Funktion präsentiert Produkte in einer Art Featured Snippet-Vergleichstabelle. Eine Suche nach dem Superlativ (wir berichteten) „Bester Laptop“ resultiert beispielsweise in einer Vergleichsübersicht mit Produktbild, Aufzählung der Funktionalitäten und weiterführender Links. Es handelt sich aber nicht über eine Erweiterung von Bing Shopping, sondern um organische Suchergebnisse. Lediglich die exklusive Black-Friday-Funktion war über Bing Shopping erreichbar und ermöglichte Nutzern das Stöbern durch lokale und überregionale Angebotsflyer zur größten Rabattschlacht des Jahres. Während Google versucht, sein Shopping Produkt mit Hilfe von dubiosem Wettbewerb aus der Schusslinie der Aufsichtsbehörden zu nehmen, setzt Microsoft, die schon häufig in der Vergangenheit, auf Innovationen in der organischen Suche. Es macht also doch einen Unterschied, ob ein Suchsystem komplett vom Anzeigenumsatz abhängig ist, oder nicht.

Dieser Beitrag erschien zuerst bei Internet World Business.

2019 klopft bereits an die Tür – neues Jahr, neue Trends. Zum Ende des Jahres haben wir die Experten der Serviceplan Gruppe nach ihren persönlichen Trends für 2019 gefragt. Was neben Influencer Marketing, New Work und Nachhaltigkeit auf uns zukommen wird, erzählen die Kommunikationsprofis hier. Viel Spaß beim Lesen!

Scrum, Kanban, Design Thinking, Prototyping und Kollaboration sind Arbeitsweisen und -methoden, die ihren Ursprung im Produktdesign und der Softwareentwicklung haben. In den letzten Jahren fanden sie Eingang in die Entwicklung digitaler Plattformen, Produkte sowie Services. Nun erleben wir, wie sie auch die Arbeitsweise innerhalb von Kommunikationsagenturen in der Breite zu verändern beginnen: Zukünftig werden sowohl Kommunikationsstrategien, wie auch Kommunikationskampagnen und Maßnahmen immer häufiger kollaborativ – auch gemeinsam mit Kunden – in Sprints iterativ entworfen und konzipiert.

 

Dieser Beitrag ist ein Teil der Reihe Trends 2019 der Serviceplan Gruppe.

Die aktuelle Funktionalität von Voice Interfaces ist noch lange nicht optimal. Vokabeln werden missverstanden und komplette Sätze falsch interpretiert. Zudem gibt es bei den gängigen Interfaces viele Entwicklungsbeschränkungen. Was muss sich technologisch verbessern, um eine höhere Akzeptanz seitens des Menschen zu bekommen? Welche Entwicklungstrends gibt es bei den Big Playern am Markt? Wir geben einen Ausblick darauf, wie sich Voice Interfaces weiterentwickeln und wo großes Potenzial steckt.

Der internationale Markt für Voice Interfaces entwickelt sich rasant und in verschiedene Richtungen. Einige Unternehmen konzentrieren sich auf die Verbesserung des Sprachverständnisses, andere arbeiten daran, etablierte Technologien um Komfortfunktionen zu erweitern. So bietet Alexa demnächst die Möglichkeit, per Stimmenanalyse zwischen mehreren Nutzern zu unterscheiden. Smart Assistants wird tieferes Wissen mit auf den Weg gegeben, um immer komplexere Spracheingaben verstehen zu können und somit intelligenter zu werden.

So wird beispielsweise bei Samsung’s Viv an Modellen gearbeitet, die zukünftig von externen Entwicklern erweitert werden können, um eine immer breitere Wissensbasis zu schaffen. Zusätzlich bilden sich Nischenmärkte für ganz spezielle Anwendungsgebiete von Conversational Interfaces – so gibt es sie schon jetzt für das Arbeiten mit Produktdaten oder InCar-Lösungen.

Die Pläne der Big Player

Amazon hatte mit Alexa nicht den Anspruch einen Smart Assistant auf den Markt zu bringen. Allerdings sollte sie die Möglichkeit bieten, von Entwicklern um Skills erweitert werden zu können. Ihre Funktionalität sollte wachsen, ihre Einsatzmöglichkeiten dadurch größer werden und es sollte sich ein Markt speziell für dieses Interface etablieren. Bei anderen Systemen gestaltet sich die Erweiterung durch externe Entwickler eher schwierig. Möchte man beispielsweise das Wissen von Siri um eine Domäne vergrößern – also um Wissen auf einem bestimmten Gebiet – hat dies massiven Einfluss auf die gesamte Funktionalität.

Ein gutes Beispiel ist hier das Wort „lieblich“, das sich auf einen Geschmack oder auch einen Duft beziehen kann. Würden beide Wissensdomänen ohne aufeinander abgestimmt zu sein, implementiert werden, wären Sätze wie „Ich mag es eher lieblich“ schwer zu interpretieren. Bei nur einer Wissensdomäne wäre die Zuordnung entgegen eindeutig. Daher gibt es im Umfeld von Apple auch noch keine Möglichkeit, Siri frei zu programmieren. Bei Cortana und dem Google Assistant(?) sind die Möglichkeiten zur Erweiterung dahingehend beschränkt, dass Voice Skills oder Actions – Googles äquivalent zu Skills – zwar entwickelt werden können, diese aber nicht auf das vorhandene Domänenwissen zugreifen können, was sie für Entwickler auf eine Stufe mit Alexa stellt.

Amazon setzt auf In-Skill Purchasing

Microsoft und Amazon arbeiten daran eine Integration von Alexa in Cortana und umgekehrt zu schaffen, um so den Markt zu erweitern. Erste Reviews dazu sind im Netz bereits zu finden. Zusätzlich ist Amazon dabei immer mehr Hardware für Alexa oder mit direkter Alexa-Unterstützung auf den Markt zu bringen. So gibt es zum Beispiel Buzzer – einfache Knöpfe, mit denen man eine Aktion auslösen kann, um das Umfeld von Gamification zu erweitern, Echos in allen Variationen und sogar mit Smart-Hub-Integration – unter anderem für Philips Hue.

Bisher offenbarte sich der Markt für Alexa-Skills allerdings eher als ein Nullsummenspiel. Einnahmen brachten lediglich die Erlöse, die durch die Nutzung von Amazon Web Services generiert wurden und das auch nur ab einem bestimmten Nutzungsvolumen. Dies hat sich mit der Einführung von „In-Skill Purchasing“ zumindest in den USA geändert: In-Skill Purchasing ist vergleichbar mit In-App Käufen und ist die erste, vom Anbieter unterstützte Art der Monetarisierung von Voice Interfaces. An jedem Kauf und mit jedem Abo verdient Amazon 30%. Das entspricht in etwa dem, was auch Apple und Co. im App-Markt verlangen. Dieses Modell wird es auch bald in Deutschland geben, wobei Amazon dazu noch keine genaueren Informationen veröffentlicht hat.

Google fokussiert sich auf Künstliche Intelligenz

Google spannt in seiner Entwicklung von Voice Interfaces ein weitaus größeres Feld auf. So wurde auf der diesjährigen Konferenz „Google I/O“ das System Duplex vorgestellt, das Funktionserweiterungen für den Google Assistant bietet. Es nutzt Künstliche Intelligenz (KI), ist in der Lage, Unterhaltungen zu verstehen und spricht mit einer täuschend echt klingenden menschlichen Stimme.

Doch was genau bedeutet das? Angenommen, mein bevorzugter Sushi-Lieferant hat keinen Online-Bestellservice, muss ich dann via Telefon bestellen? Solche telefonischen Bestellungen laufen alle nach demselben Prinzip: Ich sage, wo ich wohne und welches Gericht ich bestellen möchte. Als Antwort bekomme ich, wieviel ich zu zahlen habe und wann das Essen bei mir ankommt. Genau für solche Situationen hat Google Duplex geschaffen. Auf Anweisung kann es selbstständig Anrufe tätigen und beispielsweise Termine für uns vereinbaren. Dabei ist es kaum zu glauben, dass es sich nicht um einen echten Anrufer handelt. Neben dem natürlichen Sprachfluss spielen hier zusätzlich die Betonung und die Pausen eine besondere Rolle. Dabei kommt Duplex zugute, dass Google sich allgemein bereits tiefgehend mit natürlicher Sprache beschäftigt.

Bei der künstlichen Erzeugung der menschlichen Sprechstimme, der sogenannten Sprachsynthese, entwickelte Google Tacotron 2. Wie bisher, trainiert und erzeugt auch dieses neue System mit dem schon etablierten neuronalen Netz Deepmind WaveNet die natürliche Sprache. Neu ist jedoch, dass nun auch Daten zu Tonhöhen in das neuronale Netz einfließen. Wie genau das funktioniert und wie dieses System arbeitet, wird in diesem YouTube Video von CodeEmporium anschaulich dargestellt. Auf Cloud-Text-To-Speech kann man dieses System mit verschiedenen Sprachen testen. Wichtig ist lediglich, dass man hier den Voice-Typ „WaveNet“ angibt. Wer dieses System nutzen möchte, sollte allerdings bedenken, dass es viermal so teuer ist wiedas herkömmliche Cloud-Text-To-Speech.

Samsung und Apple lassen sich noch nicht in die Karten schauen

Warum Samsung Viv Labs übernommen hat und wie sich dieses System weiterentwickelt, ist leider völlig unklar. Ob Viv Samsungs bisherige Lösung Bixby ablöst oder die Viv- Technologie in Bixby integriert wird, bleibt abzuwarten. Klar ist jedoch, dass Viv auf Grund der gesamten Historie eine stark verbesserte Siri zu sein scheint und großes Potential hat (vgl. Voice Interfaces – Das Hier und Jetzt).

Siris Entwicklung scheint stattdessen eher zu stagnieren. Die einzigen großen Neuerungen im vergangenen Jahr waren Sprachmakros. Diese ermöglichen es, kleine Makros durch einen zuvor hinterlegten Sprachbefehl zu aktivieren. Es könnte sich hier aber auch um die sprichwörtliche Ruhe vor dem Sturm handeln. Denn Apple‘s HomePod wäre als mögliche Konkurrenz für Alexa prädestiniert. Dafür müsste Apple den Entwicklern allerdings die Schnittstelle zu Siri öffnen und die Möglichkeit schaffen, Software für den HomePod zu schreiben.

Wo geht die Reise hin?

Neben den Voice bzw. den Conversational Interfaces ist momentan auch Machine Learning in aller Munde. Die Fortschritte, die in den letzten Jahren bei den Voice Interfaces gemacht wurden, wären ohne Machine Learning nicht machbar gewesen. Ob beim Transkribieren, bei der Analyse von Texten oder bei der Sprachsynthese: Überall werden neuronale Netze eingesetzt und sorgen für immer verblüffendere Ergebnisse.

So könnte ein Voice Interface, das auf eine Stimme trainiert wurde, mithilfe von neuronalen Netzen und dem Wissen zu all ihren Eigenheiten auch im totalen Geräuschchaos die Stimme einer bestimmten Person sauber erkennen und verarbeiten. Wer schon mal versucht hat, während eines laufenden Films seine Alexa Smart-Home-Steuerung zu benutzen, versteht, wie wichtig dieser Schritt wäre. Schließlich möchte man sein Voice Interface nicht anschreien, um den Geräuschpegel im Raum zu übertreffen, sondern in normaler Lautstärke kommunizieren. Wenn darüber hinaus einzelne Stimmen separiert werden könnten, würde das die Einsatzgebiete von Voice Interfaces deutlich erweitern.

Neben der optimierten Sprachverarbeitung fällt auf, dass bisher alle Smart Assistants völlig gesichtslos sind. Das könnte sich bald ändern; So wurde in China gerade ein voll digitaler Nachrichtensprecher vorgestellt. Für Anbieter eines Produktes birgt das großes Potenzial. Auch wenn der Film „Her“ eine sehr persönliche Beziehung zu einer Stimme thematisiert, baut man zu etwas personenähnlichem sicherlich eine noch engere Bindung auf –man denke dabei an den Erfolg von Influencer Marketing. Mit der VR- und AR-Technologie könnte uns solch ein Assistent in menschlicher Form überall Gesellschaft leisten.

Wo versteckt sich das größte Potenzial?

Die Leistungsfähigkeit der Rechner: Bezüglich des Sicherheitsaspekts, dass jegliche Datenverarbeitung eines Voice Interfaces in der Cloud stattfindet, ist zu sagen, dass es zukünftig mehr Lösungen geben wird, bei denen die Verarbeitung lokal geschieht. Aktuell werden fast alle Daten in der Cloud des Anbieters verarbeitet und gespeichert. Das liegt vor allem daran, dass viele Lösungen noch an der notwendigen Leistungsfähigkeit der eigenen Rechner scheitern. Die Rechenleistung wird jedoch permanent höher und billiger. Daher ist es nur eine Frage der Zeit, bis es einwandfrei funktionierende Voice Interfaces auch auf einem Smartphone geben wird, das gerade nicht online ist.

Das Verständnis von Sprache: Viele Firmen beschäftigen sich zudem mit dem Verständnis von Sprache auf inhaltlicher Ebene. Wenn es um mehr als einen einzelnen Satz geht, zum Beispiel um den Inhalt einer gesamten Geschichte, sind heutige Voice Interfaces allesamt nutzlos. Bei einem Voice Interface wie wir es kennen, geht es in erster Linie nicht um Wissensinhalte, sondern um Willenserklärungen. Das Interface soll verstehen, was der Benutzer von ihm will, um dann darauf zu reagieren. Bei der Extrahierung von Wissen aus Texten geht es aber darum Wissen zu erfassen und in geordneten Strukturen zu speichern.

Nehmen wir beispielsweise einen Service-Mitarbeiter einer Hotline, der mit einem fünfminütigen Beschwerdedialog eines Kunden umgehen muss. Um ihn bei seiner Arbeit zu unterstützen, gibt es aktuell schon einige Ansätze, Gespräche automatisch zu verschlagworten und dem Mitarbeiter als Hilfestellung passende Themen auf einem Screen anzuzeigen. Noch sinnvoller wäre es jedoch, wenn das Interface aus einem Gespräch die Quintessenz extrahieren könnte, um dem Mitarbeiter die wichtigsten Stichpunkte auf einem Screen anzuzeigen, auf die er dann im Gespräch eingehen kann. Dafür muss so ein System aber inhaltlich verstehen, was der Nutzer sagt und gegebenenfalls auch bewerten oder priorisieren können. Weiterführend könnte ein Conversational Interface auch Informationen aus E-Mails oder sogar Chatbots extrahieren und Service-Mitarbeitern schnell alle relevanten Fakten zur Verfügung stellen.

Im Bereich Wissensrepräsentation und Natural Language Understanding wird weiterhin viel geforscht. Ebenso werden immer mehr selbstlernende Technologien zur Textanalyse wie zum Beispiel das „Word Embedding“ entwickelt. Auch hier ist es also nur eine Frage der Zeit, bis es Systeme geben wird, die sehr komplexe Inhalte verstehen.

Die Erkennung und das Verbalisieren von Bildinhalten: Wovon die meisten Menschen eher nur am Rande etwas mitbekommen, ist die sogenannte „Accessibility“ oder auch Barrierefreiheit in der digitalen Welt. So hat Siri in der Vergangenheit einen großen und sehr wichtigen Beitrag geleistet, damit auch Menschen mit Sehbehinderungen komfortabel mit einem Smartphone umgehen können. Gerade für sie ist die Nutzung von Voice Interfaces ganz besonders relevant.

Darüber hinaus gibt es im Bereich Machine Learning mittlerweile viele Forschungsarbeiten, die sich mit der Erkennung von Bildinhalten beschäftigen. Dabei geht es längst nicht mehr darum einen Hund oder eine Katze zu unterscheiden, sondern um Bildkonstruktionen mit vielen Komponenten. Man stelle sich ein System vor, das erkennt und beschreibt, wo sich beispielsweise eine Straße befindet – was davor ist, was dahinter – oder wahrnimmt, ob eine Ampel gerade rot ist beziehungsweise was auf Straßenschildern steht. Die Kombination dieser Technologien hätte einen echten Mehrwert. Ein System für Sehbehinderte, das beschreibt, was gerade vor ihnen passiert, das warnt, wenn Hindernisse in Sicht kommen und das sicher navigiert.

Fazit

Voice Interfaces sind auf einem guten Weg, jedoch fühlt es sich im Alltag noch nicht wirklich natürlich an, solch ein Interface zu benutzen. Dafür schwächelt mitunter das Sprachverständnis noch zu stark. An diesen Problemen wird allerdings gearbeitet und es ist abzusehen, dass wir in Zukunft fast beiläufig mit unserem digitalen Assistenten plaudern, ihm vielleicht sogar von unseren Hochs und Tiefs erzählen und verständnisvolle Antworten oder sogar Anregungen von ihm bekommen werden. Was dies für Auswirkungen auf unser soziales Leben haben wird, wird sich zeigen. Bisher hat jede große Technologie Vor- und Nachteile mit sich gebracht, wir müssen sie nur gewissenhaft einsetzen.

Dieser Beitrag erschien zuerst bei ADZINE und ist der letzte Beitrag einer vierteiligen Serie zum Thema Voice Interfaces:

2019 klopft bereits an die Tür – neues Jahr, neue Trends. Zum Ende des Jahres haben wir die Experten der Serviceplan Gruppe nach ihren persönlichen Trends für 2019 gefragt. Was neben Influencer Marketing, New Work und Nachhaltigkeit auf uns zukommen wird, erzählen die Kommunikationsprofis hier. Viel Spaß beim Lesen!

Influencer Marketing entwächst (endlich) den Kinderschuhen: Die Messung des Beitrages von Bloggern, Instagrammern & Co. auf ihre Werbewirkung hin sowie eine Effizienzbetrachtung der Maßnahme in einem ganzheitlichen Kommunikationsmix stehen ebenso im Vordergrund wie die kreative, individuelle und zielgruppengerechte Umsetzung der Markenbotschaft. Aus dem Hype um Influencer wird so langsam richtig gute Werbung.

Immer mehr Unternehmen und Brands interessieren sich für die Zusammenarbeit mit Bloggern, Vloggern, großen und kleinen Social Media Stars. Sie versprechen sich eine authentische Vermarktung ihrer Produkte und Dienstleistungen, eine gesteigerte Sympathie für ihre Marke oder die Erreichung einer neuen, mit klassischen Medien nur schwer zugänglichen Zielgruppe.
Das alles kann und muss Influencer Marketing leisten – jedoch ist für Unternehmen, die sich auf dieses Spielfeld begeben, die Messung der Wirkung auf business-relevante Ziele wie eine gesteigerte Aufmerksamkeit für ein Produkt bzw. eine Dienstleistung oder der Abverkauf immer noch eine Herausforderung. Daher wird – um Komplexität zu reduzieren – oft nur die Reichweite (die zudem mit der Follower-Zahl auf dem jeweiligen Kanal gleichgesetzt wird) als wichtigste Metrik zur Erfolgsmessung hinzugezogen.

Woher diese starke Vereinfachung kommt? Meiner Meinung nach aus dem Versuch, Influencer Marketing mit klassischen Media-Buchungen eins zu eins gleichzusetzen. Man jongliert mit CPCs, CPMs und CPOs und vergisst dabei, dass Influencer Marketing so viel mehr sein kann: Es ist die Arbeit mit Menschen, die sich für die eigene Marke begeistern und diese ihren Followern näherbringen möchten – selbstverständlich gegen Bezahlung; aber die Influencer stellen ihre mühsam, oft über Jahre aufgebaute und loyale Fangemeinde für die Werbemaßnahmen eines Unternehmens zur Verfügung und erstellen dafür Content in Eigenregie, der den Marken in der Regel sogar für weitere Verwendung zur Verfügung gestellt wird.

Genau diese Aspekte sollten bei einer Bewertung von Influencer Marketing-Kooperationen künftig stärker in die Waagschale geworfen werden – und aus diesen Überlegungen leitet sich der für uns größte kurzfristige „Trend“ dieser Disziplin ab: die Professionalisierung des Influencer Marketings mit einem Fokus auf der Effizienz- und Wirkungsmessung im Vergleich zu anderen Mediengattungen und Kanälen.

Durch den gezielten Einsatz von Instrumenten aus der qualitativen und quantitativen Werbewirkungsforschung, der Nutzung von Äquivalenz-Studien sowie diversen technischen Plattformen und Tools, die mediarelevante KPIs wie Reichweiten, Impressions oder Engagements anhand des geplanten Budgeteinsatzes prognostizieren, arbeiten wir an einer ganzheitlichen Bewertung von Influencer Marketing-Projekten. Nur so kann aus dem Trend „Influencer Marketing“ eine Disziplin werden, die in der Werbelandschaft der Zukunft nicht mehr wegzudenken ist.

 

Dieser Beitrag ist ein Teil der Reihe Trends 2019 der Serviceplan Gruppe.

In der Serie „Dreimal aufgeschlaut“ erklären Experten der Plan.Net Gruppe regelmäßig ein aktuelles Thema der digitalen Welt aus unterschiedlichen Perspektiven. Was bedeutet es für die Oma, was für den Agentur-Kollegen? Und was hat der Kunde, also ein Unternehmen, davon?

In den westlichen Medien wird Chinas Social Credit System gerne mit der Folge „Nosedive“ von Black Mirror verglichen und als Orwellsche Dystopie bezeichnet. Anhand von Onlinesuchanfragen, dem Shoppingverhalten, der Ausbildung und der Kriminalakte, dem Verhalten in sozialen Medien, sowie vielen weiteren Faktoren soll jeder Bürger nach einem Punktesystem bewertet werden. Fällt der dreistellige Score zu niedrig aus, gibt es weitreichende Konsequenzen. Bestimmte Jobs werden einem verwehrt, die Kinder kommen nicht auf gute Schulen, man kann nicht mehr verreisen und bekommt auch keinen Kredit. Das Bild, das die westliche Presse vom Social Credit System zeichnet, klingt höchst beunruhigend. Doch die Realität sieht zum Glück nicht ganz so dystopisch aus.

Chinas Social Credit System ist ein Ökosystem aus verschiedenen Initiativen

2014 hat die chinesische Regierung einen Plan veröffentlicht, der vorsieht bis 2020 ein umfangreiches Social Credit System zu etablieren. Das Ziel ist, die Staatsführung zu verbessern und Ordnung in einem Land herzustellen, das oft mit Betrug zu kämpfen hat. Da China erst auf dem Weg hin zu einer Marktwirtschaft ist, verfügt es noch nicht über gut funktionierende Institutionen wie etwa Gerichte um mit solchen Problemen umzugehen. Aus diesem Grund versucht die chinesische Regierung eine Art Belohnungs- und Bestrafungssystem zu etablieren, um Vertrauenswürdigkeit und Integrität zu fördern. Das zentrale Joint Punishment Systems setzt Bürger auf eine schwarze Liste, wenn sie gegen gewisse Regeln verstoßen. Wird ein Bürger beispielsweise vom Gericht zu einer Geldstrafe verurteilt und er zahlt diese nicht, kommt er auf eine Blacklist. Passiert dies, können die Betroffenen keine Flüge mehr buchen, in der ersten Klasse von Zügen reisen oder Luxusgüter auf TMALL und Taobao kaufen, bis sie die Strafe beglichen haben. Darüber hinaus wird ihnen der Zugang zu Krediten und Jobs in der Regierung verwehrt.

Doch dieses Joint Punishment System vergibt Bürgern keine Scores. Der Grund für diesen Irrglauben hängt mit Alibaba zusammen. Denn nicht nur die chinesische Regierung arbeitet an einem Social Credit System, sondern auch private Unternehmen haben Initiativen gestartet. Dies wird jedoch von der westlichen Presse oft in einen Topf geworfen und durcheinandergebracht.

Wie Amazon ist Alibaba ein Online-Retailer, über dessen Plattform Händler ihre Produkte an Konsumenten verkaufen. Zu der Zeit, als Alibaba sein E-Commerce Business aufgebaut hat, war China weitgehend ein Bargeldland, in dem nur wenige Leute Kreditkarten besaßen. Um sein Geschäftsmodell ausführen zu können, musste Alibaba den Zahlungsverkehr zwischen Käufern und Verkäufern sicherstellen. Da es in China keine Anbieter wie Visa oder Mastercard gab, die diese Aufgabe übernehmen konnten, musste Alibaba seine eigene Payment Infrastruktur aufsetzen. Daraus ist Alibabas Tochterfirma Ant Financial mit seiner Bezahlplattform Alipay entstanden. Da die meisten Chinesen keine dokumentierte Zahlungshistorie vorweisen konnten, brauchte Alibaba andere Faktoren, um die Kreditwürdigkeit der Konsumenten bewerten zu können und Vertrauen zwischen Händlern und Käufern aufzubauen. Das war die Geburtsstunde des Sesame Credit Scores.

Der Score kann zwischen 350 und 950 Punkten liegen und setzt sich aus mehreren Faktoren zusammen. Aus der Menge an Umsatz bei Alibaba. Ob gekaufte Produkte, sowie Strom und Telefonrechnungen rechtzeitig bezahlt werden. Aus der Vollständigkeit an persönlichen Informationen und den sozialen Kontakten.

Daneben plant die Public Bank of China (PBoC) die Entwicklung einer nationalen Bonitätsprüfung, vergleichbar mit der SCHUFA Auskunft in Deutschland. Da ihr dafür allerdings die benötigten Daten fehlen, hat die PBoC 2015 acht Unternehmen testweise damit beauftragt, ein offizielles Credit Scoring System zu entwickeln. Sesame Credit war eines der Unternehmen. Aufgrund von Datenschutzbedenken und Interessenskonflikten hat allerdings keines dieser Unternehmen eine offizielle Lizenz für ihre Rating-Systeme bekommen. Anstatt dessen wurde ein Joint-Venture aus den acht Unternehmen, sowie der China Internet Finance Association gegründet. Dieses Joint-Venture heißt Baihang Credit und ist die erste einheitliche Kreditauskunft in China.

Der Sesame Credit Score bietet meiner Oma viele Vorteile

Zurzeit ist die Teilnahme an Sesame Credits Punktesystem freiwillig und bringt den Nutzern keine Nachteile. Vielmehr erinnert der Score an ein Loyalitätsprogramm ähnlich wie beim Sammeln von Flugmeilen. Ant Financial hat zahlreiche Kooperationen mit externen Partnern abgeschlossen, die Kunden mit einem hohen Score belohnen und ihnen vielfältige Vorzüge bieten. Dazu gehört beispielsweise, dass meine Oma mit ihrem hohen Score keine Anzahlungen bei Hotels, Auto- oder Fahrradvermietungen tätigen muss. Sie bekommt Zugang zur Fast Lane an den Sicherheitskontrollen am Flughafen. Außerdem wird ihr Visumsantrag für Luxemburg und Singapur in einem Eilverfahren bearbeitet. Manche Singles geben ihren Sesame Credit Score auch auf Baihe an, Alibabas Online Dating Service, in der Hoffnung ihre Chancen zu erhöhen.

Der Score soll ein Mittel sein, um gegenseitiges Vertrauen aufzubauen. Dass er außerhalb der Alibaba Plattform und des unmittelbaren finanziellen Kontextes auch als Kriterium für staatliche Aufgaben wie etwa Flughafensicherheit oder das Ausstellen eines Visums genutzt wird, ist jedoch eine bedenkliche Vermischung verschiedener Ebenen.

Auswirkung des Scores auf Unternehmen: werden Produktkategorien unterschiedlich bewertet?

In einem Presseinterview hatte Li Yingyun, Technology Director bei Sesame Credit, angedeutet, dass die Art der gekauften Produkte sich auf den Score auswirkt. So würde der Kauf von Windeln den eigenen Score erhöhen, da das System davon ausgehe, die Person sei ein verantwortungsvolles Elternteil. Wer hingegen viele Videospiele kauft, wäre weniger vertrauenswürdig, was sich negativ auf die Punkteanzahl auswirkt. Zwar hat Ant Financial diese Aussage später bestritten, doch es bleiben Zweifel. Für Unternehmen, die ihre Produkte über Alibabas Plattformen vertreiben, stellt dies eine große Unsicherheit dar. Wenn ihre Produkte in eine Produktkategorie fallen, die vom Algorithmus negativ gewichtet wird, könnte es dazu führen, dass der Absatz dieser Produkte zukünftig sinkt, weil Konsumenten Angst vor einem Punkteabzug haben.

Hat der Score meines Agentur-Kollegen Einfluss auf meinen eigenen Score?

Ein Punkt, der in der westlichen Presse für Aufsehen gesorgt hat, war das Gerücht, dass das Onlineverhalten und der Score von Freunden in die Berechnung des eigenen Scores mit einfließen. Alibaba hat dies abgestritten. Nach eigenen Aussagen ist nicht das Onlineverhalten von Kontakten ausschlaggebend, sondern lediglich die Größe seines sozialen Netzwerkes. Je mehr verifizierte Freunde man besitzt, desto unwahrscheinlicher ist es nämlich, dass es sich um einen Fake-Account handelt.

Wir sollten die Entwicklungen in China mit kritischem Blick verfolgen

Wie sich das Social Credit System bis 2020 entwickelt, bleibt abzuwarten. Fakt ist jedoch, dass es zu diesem Zeitpunkt (noch) kein übergreifendes, KI-basiertes Super-System gibt, das die chinesische Bevölkerung nach einem Ratingsystem bewertet und sich auf alle Aspekte ihres Lebens auswirkt.

Wenn es um China und Technologie geht, nehmen wir schnell das Schlimmste an und können uns dystopische Szenarien leicht vorstellen. Oft sind die Entwicklungen allerdings etwas komplexer und es lohnt sich eine kritische Auseinandersetzung mit den News aus Fernost. Besonders für Unternehmen, die auf dem chinesischen Markt agieren, ist es essentiell, ihre eigene Recherche zu betreiben und den Markt genau zu beobachten. Als Startpunkt können Websites dienen, die über die technischen, wirtschaftlichen und kulturellen Entwicklungen in China berichten:

  • TECHINASIA und Technode sind zwei Blogs, auf denen Technologietrends und die aktuellsten News zu Startups und großen Unternehmen aus China beschrieben werden. Auf Technode gibt es kurze Daily Briefings, die erklären, was vor sich geht und weshalb diese Nachrichten relevant sind. Ebenfalls empfehlenswert sind ihre China Tech Talk Podcasts
  • Die South China Morning Post hat neben einem guten Wirtschaftsressort auch einen ausführlichen Tech-Bereich. Wer die aktuellsten Schlagzeilen zu Chinas Internetgiganten Alibaba, Tencent oder JD.com erfahren will, ist hier an der richtigen Stelle. Man sollte nur im Hinterkopf behalten, dass Alibaba 2015 die Zeitung gekauft hat.
  • Radii China beschäftigt sich vor allem mit den kulturellen Aspekten des modernen Chinas und Magpie Digest gibt gute Einblicke und Insights in Chinas Jugendkultur.

Dieser Beitrag erschien zuerst bei Lead-digital.de.

Es ist keine Frage mehr, ob künstliche Intelligenz (KI) kreativ sein kann. Die Frage lautet: Welche Bedeutung übernimmt KI künftig im kreativen Prozess? Wird sich Ihre Rolle auf die eines Werkzeugs vergleichbar mit der eines Pinsels oder eine Fotokamera beschränken? Oder wird sie zur Muse? Zum eigenständigen Schöpfer neuer Kreationen? Ersetzt sie vielleicht gar den Art Director? Und wann wird das sein?

Für meine KollegInnen kann ich – vorerst noch – Entwarnung geben. Aber sie sollten sich schon mal langsam mit Kollege KI anfreunden. Auch wenn die Entwicklung künstlicher Intelligenzen ihre Anfänge bereits in den 1950er Jahre hatte, ermöglichen erst heute die exponentielle Entwicklung der drei ABC-Faktoren, dass sie so richtig in Fahrt kommt: A wie Algorithmen, B wie Big Data und C wie Computerchips. Deshalb muss sich jede Branche und jedes Unternehmen die Frage stellen, wie die Umsetzung und Integration von Artificial Intelligence in unseren Arbeitsalltag geschehen soll.

Im Marketing konzentrieren sich die Anwendungsszenarien für KI bisher hauptsächlich auf die Bereiche Predictive Analytics (zum Beispiel für Empfehlungen in Online Shops), Personalisierung (zum Beispiel für die individualisierte Ansprache in Newslettern), der Nutzung von Sprachassistenten und der Automatisierung (beispielsweise in der Mediaplanung). Ein wichtiger Bereich des Marketings wird bisher meist komplett ausgeklammert: die Kreativität. Sie wird oft fest in Menschenhand gewähnt und als uneinnehmbare Bastion dargestellt. Raffinierte Wortspiele, Gedichte, rührselige Melodien, großartige Grafiken bzw. alles was mit Emotion zu tun hat, kann schließlich nicht in einer kalten Maschine via Prozessor entstehen – oder?

Zu sicher sollten wir uns da nicht sein. Denn es gibt schon heute zahlreiche Beispiele dafür, wie künstliche Intelligenz menschliche Kreativität unterstützen, erweitern oder sogar nachahmen kann. Und es werden täglich mehr.

KI kann schreiben

Welcher Journalist hat schon Lust, die immer gleichen Börsen-News, Sportergebnisse und Wetterberichte mühsam herunterzutippen? Kein Problem, mittlerweile können Maschinen solche Texte, die nach einem bestimmten Schema aufgebaut sind, übernehmen. Ohne, dass der Leser etwas davon merkt. Wer weiß, wann nach dem Robo-Journalismus auch die ersten Anzeigentexte von Maschinen (den Copy-Cads) verfasst werden?

KI kann sprechen

Adobe hat mit Photoshop nicht nur das wichtigste Programm zur Bildbearbeitung erstellt, sondern widmet sich auch der menschlichen Sprache: Adobe VoCo ist das Photoshop für Sprachdateien. Nachdem sie 20 Minuten einer Person beim Reden zugehört hat, kann die KI die Stimme komplett nachahmen. Nicht, indem sie Wortschnipsel zusammenschneidet, sondern komplett neue Wörter, die eingetippt werden, ausspricht.

KI kann komponieren

Ein Team der University of Toronto konnte eine KI so programmieren, dass sie Musik zum Mitsingen selbst komponieren und texten kann. Das Programm namens Neural Karaoke wurde mit über 100 Stunden Musik gefüttert und hat darauf ein komplettes Weihnachtslied inklusive Text und Cover-Grafik erstellt.

KI kann Bilder und Grafiken erstellen

Sogenannte Generative Adversarial Networks können verblüffend echte Bilder aus von Menschen geschriebenen Beschreibungen erstellen. Sie funktionieren grob gesagt so, dass ein „Generator“ zufallsgenerierte Bilder produziert, die dann von einem Diskriminator, der anhand von echten Bildern gelernt hat Objekte zu bestimmen, bewertet werden. Aus „Ein kleiner Vogel mit kurzem, spitzen, orangefarbenem Schnabel“ wird dann ein fotorealistisches Bild.

KI kann malen

Die KI Vincent des Produktdesign-Unternehmens Cambridge Consultants basiert ebenfalls auf Generative Adversarial Networks und hat die Stile der wichtigsten Maler des 19. und 20. Jahrhunderts studiert. Vincent lässt jede Skizze, die per Tablet gezeichnet wird, wie ein Gemälde eines bestimmten Renaissance-Künstlers aussehen.

KI kann Produktdesign

Das intelligente CAD-System Dreamcatcher von Autodesk kann tausende Designoptionen für ein Bauteil, beispielsweise aus Metall oder Kunststoff, mit denselben Funktionen generieren. Diese sehen dabei erstaunlich organisch und überhaupt nicht „mechanisch“ oder „logisch“ aus.

KI kann Videos drehen

Das kanadische Unternehmen Nvidia hat gemeinsam mit dem MIT Computer Science & Artificial Intelligence Laboratory eine Technologie entwickelt, die komplette hochauflösende Video-Sequenzen synthetisch herstellen kann. Die Videos mit einer Auflösung von 2K sind bis zu 30 Sekunden lang und können komplette Straßenszenen mit Autos, Häusern, Bäumen, etc. enthalten.

KI wird zum Art Director

Die Werbeagentur McCann Japan hat schon vor längerer Zeit eine KI als Creative Director „eingestellt“. AI-CD ß wurde mit preisgekrönter Werbung der letzten zehn Jahre gefüttert und hat daraus einen TV-Spot erstellt.

https://www.businessinsider.de/mccann-japans-ai-creative-director-creates-better-ads-than-a-human-2017-3?r=US&IR=T

Große Veränderungen beginnen mit kleinen Schritten

Was bedeutet das jetzt für uns? Vielleicht lachen wir heute noch über die Unzulänglichkeiten so mancher KI-Anwendung. Doch die Entwicklung verläuft exponentiell und die Fortschritte sind beeindruckend. Daher sollten wir jetzt damit anfangen, Vorurteile und Ängste abzubauen und uns zu überlegen, wie wir kreative Prozesse in Zukunft gestalten und welche Rolle wir der Künstlichen Intelligenz dabei geben wollen. Große Veränderungen lassen sich nicht auf einen Schlag implementieren, sondern am besten in viele kleine Schritte. Barrieren baut man am besten ab, indem man neue Technologien spielerisch ausprobiert und Erfahrungen sammelt. Ja, dafür muss man als Unternehmen Zeit und Ressourcen bereitstellen. Aber wer einmal mit einem kleinen Projekt beginnt und sich dann langsam vorantastet, bei dem sind die Erfolgsaussichten deutlich höher, langfristige Erfolge zu erzielen und vielleicht sogar die ein oder andere Entwicklung im KI-Bereich mitzugestalten.

Dieser Beitrag erschien zuerst bei Horizont.net.

SEO News

Das Weihnachtsgeschäft nimmt langsam Fahrt auf und auch in diesem Jahr wird wieder hauptsächlich hübsch verpackte Technik unter den Tannenbäumen der Republik liegen. Warum man der Technologie grundsätzlich kritisch gegenüberstehen sollte und ob sich Google mit dem Relaunch seiner Startseite nasse Füße holen wird, das erfahren Sie in den SEO-News für den Monat November.

Google wird ein langer, ruhiger Fluss

Nun ist es also passiert. Zwanzig Jahre lang hat Google nicht nur die Standards für webbasierte Suchdienste gesetzt; auch was das Design seiner Startseite anging, war Google Vorreiter in Sachen Minimalismus und Effizienz. Ein simpler Suchschlitz mit Logo – bzw. Doodle – und zwei darunterliegenden Buttons waren im aufblühenden Internet der frühen 2000er-Jahre so etwas wie die Antithese zu unübersichtlichen Linkwüsten und nervigen Flash-Intros. Doch es hat sich viel getan seit 1998 und so folgt der Marktführer aus Mountain View dem Trend zur personalisierten Dauerberieselung. „Discover Feed“ nennt sich das neue Feature, welches seit den letzten Oktobertagen sukzessive weltweit auf Desktop- und Mobilgeräten sowie den Search-Apps ausgerollt wird.  Es ist die erste von einigen neuen Funktionen, die Google zu seinem Firmenjubiläum angekündigt hat, und markiert den ersten Schritt auf dem Weg zu einer individualisierten Antwortmaschine, die ganz ohne Fragen auskommen soll (wir berichteten). Zwar hatte die Suchmaschine schon in der Vergangenheit mit dem einen oder anderen Homepage-Feature zum Einstieg in populäre Themenwelten oder der Integration seines Assistenzdienstes „Now“ experimentiert, nun aber werden relevante Inhalte, die im Kontext zur persönlichen Suchhistorie stehen, in Form eines Endlos-Streams präsentiert. Und ähnlich wie bei YouTube gibt es das Ganze ab sofort auch im dunkel eingefärbten Nachtmodus.

Mit dieser umfassendsten Designänderung seit dem Start von Google hat man sich in Mountain View scheinbar schwergetan. Und das, obwohl die Konkurrenz von Microsoft mit ihrer Suchmaschine Bing von Beginn an einen anderen, visuellen Weg gegangen ist. Mit sich täglich ändernden, kraftvollen Startbildern und aktuellen News hatte Bing für seine Nutzer schon immer mehr Einstiegspunkte angeboten, als der Marktführer. Interessant ist auch der Vergleich mit Amazon: Die Personalisierung der Inhalte ist für die Einkaufssuchmaschine aus Seattle selbstverständlich der zentrale Ausgangspunkt bei der Startseiten-Gestaltung. Der immerwährende Upsell mit Hilfe des A9-Algorithmus befördert zahllose, individuell passende Angebote zu Tage. Die User Experience und Usability des Designs aber haben gerade in letzter Zeit stark unter der Integration immer neuer Features und Platzierungen gelitten. Das Design der Amazon-Homepage entwickelt sich scheinbar konsequent zurück in die unübersichtlichen Zeiten kleinteiliger Frontpage-Webseiten. So lange die Kasse stimmt, tritt die User Experience auch gerne mal in den Hintergrund. Und natürlich ergeben sich auch für Google neue Formen der Monetarisierung durch die Integration bezahlter Werbung im Discover-Stream.

Vielleicht ist die Startseite am Ende aber eben ein Auslaufmodell. Mit Voice- und Visual Search ergeben sich unzählige Touchpoints für Suchsysteme, die vielleicht in naher Zukunft schon an der klassischen Darstellung im Web oder als App vorbei ein maßgeschneidertes Angebot an Antworten und Lösungen zur Verfügung stellen werden.  Bis es soweit ist, müssen SEOs beobachten, ob der neue Google-Stream von den Nutzern angenommen wird und nach welchen Kriterien sich der Discover-Feed generiert. Die neue, größere Bühne sollte nicht ungenutzt bleiben.

An der Nase herumgeführt

Der technologische Fortschritt ist eine Funktion der Moderne, ihre Bedingung und Konsequenz zugleich. Wie sehr sich Technologie in unser Leben eingebettet hat, wird insbesondere am Phänomen der Suchmaschinen deutlich. Ob Googles Vision eines unsichtbaren Begleiters für die Herausforderungen der unplanbaren Außenwelt oder Amazons Versprechen der unmittelbaren Konsumbefriedigung – beide Projekte wären ohne ihren technologischen Kern nicht denkbar. Das war im Falle der Dampfmaschine oder des Verbrennungsmotors zwar nicht anders, beim aktuellen Schritt der Modernisierung aber bleibt der Blick in die Maschine verwehrt. Konnte man ein Dieselaggregat noch mit den eigenen Händen zerlegen, so verstecken sich Algorithmen und künstliche Intelligenzen in einer weit entfernten Wolke aus Daten. Zuweilen wird man den Eindruck nicht los, dass die hochtrabenden Versprechen und Visionen der High-Tech-Industrie nicht viel mehr sind, als eine funkelnde Marketingshow für ein hilflos naives Publikum.

Da tut es gut, wenn die Technikelite dabei erwischt wird, dass sie auch nur mit Wasser kocht. In diesem Sinne hatte die SEO-Gruppe SignalsLab einen Wettbewerb ausgerufen, bei dem es das Ziel war, innerhalb von 30 Tagen für die Suchanfrage „Rhinoplasty Plano“ zu ranken. Dabei handelt es sich um die Suche nach einer Praxis für plastische Nasen-OPs im Großraum Dallas, Texas.  Eine eher wenig umkämpfte Anfrage mit hoher lokaler Relevanz. Das Ergebnis der kleinen Challenge überrascht. Googles Mantra zu Erfolgsfaktoren in der organischen Suche lässt sich auf drei Kernpunkte herunterbrechen: Relevante Inhalte, nutzerfreundliche User Experience und saubere technische Umsetzung über alle Plattformen hinweg. Da ist es mehr als erstaunlich, dass die Gewinnerseite des SignalsLab-Wettbewerbs bis auf URLs, Überschriften und den Footer komplett in lateinischer Sprache erstellt ist. Die Verwendung von lateinischem Blindtext ist zwar nichts Ungewöhnliches bei der Produktion von Webseiten. In diesem Falle aber handelte es sich nicht um einen vergessenen Platzhalter für noch zu erstellenden Content, sondern um eine Strategie zur Offenbarung der Fehlbarkeit des Algorithmus. Darüber hinaus war die Seite ausgestattet mit erfundenen lokalen Daten, gefälschten Reviews und minderwertigen Backlinks. Dass Google diese offensichtlich gefälschte Webseite auf Position zwei für besagte Suchanfrage als Ergebnis anbietet, ist entweder ein Ausrutscher oder ein blinder Fleck im allwissenden Google-Universum.

Zwei Lehren lassen sich aus diesem kleinen Experiment ziehen. Erstens ist es für die Suchmaschinenbranche tröstlich zu wissen, dass trotz des angeblichen Reifegrads der Google-Technologie, das klassische Old-School-Fake-Spam-SEO noch immer funktioniert. Und für Nutzer ist es ein kleiner Warnhinweis, dass die Vertrauensfrage gestellt werden sollte, bevor man sich vom technologischen Fortschritt gänzlich einnehmen lässt. Suchmaschinen sind zwar praktisch, werden aber niemals Teil der menschlichen Realität sein. Egal ob Google oder Bing: Suchsysteme sind letztendlich datenbankgestützte Anzeigenverkaufsveranstaltungen mit einer kompakten Gratis-Version des echten Lebens als Lockangebot. Übrigens: Lateinische Nasen-OPs gibt es angeblich auch in Florida.

Dieser Beitrag erschien zuerst bei der Internet World Business.

After Work XChange am 15. November 2018 im Plan.Net Innovation Studio

Wir alle haben täglich häufig Kontakt mit Marken: Indem wir ihre Produkte nutzen, ihre Werbung sehen, mit einem Kundenberater sprechen oder die Webseite oder App der Brand nutzen. Diese Vielzahl der Kontakte zu einem stimmigen Markenerlebnis zu vereinen, ist das Ziel eines jeden Unternehmens. Das ist aber im Alltag gar nicht so einfach bei der Vielzahl an Touchpoints, die es on- und offline gibt. Beim After Work XChange am 15. November im Plan.Net Innovation Studio stand deshalb das Thema „Customer Experience“ im Mittelpunkt. Nach der Begrüßung durch Plan.Net-Geschäftsführer Klaus Schwab zeigte Thomas Meyer, Director Digital Strategy Group EMEA bei Adobe, wie ausgerechnet Künstliche Intelligenz helfen kann, einen menschlicheren Kontakt zwischen Unternehmen und ihren Kunden aufzubauen. Marcus Armbrus, geschäftsführender Gesellschafter der Plan.Net Business Intelligence, präsentierte Beispiele, wie die einzelnen „Gewerke“ Marketing, Vertrieb, CRM und IT besser an einem Strang ziehen – und empfahl, dass man dafür besser mit kleinen Projekten beginnt, anstatt alles auf einmal zu verändern.

Dr. Jan Myszkowski, Head of Best Practice Lab bei der Talanx AG, zeigte in seinem Vortrag, dass Zeit der wichtigste Faktor einer guten Customer Experience ist. Talanx ist nach Prämieneinnahmen die drittgrößte deutsche und eine der großen europäischen Versicherungsgruppen. Zum Konzern gehören die HDI, die Hannover Rück oder auch die TARGO Versiche

rungen. Wir haben die Gelegenheit genutzt, um mit Jan Myszkowski ausführlicher über das Thema des Abends zu sprechen.

Was genau kann man sich unter einem „Best Practice Lab“ eines Versicherungskonzerns vorstellen? Was sind Ihre Aufgaben?

Jan Myszkowski: Der Name sagt es schon: Es geht um die besten Beispiele aus der Praxis von Unternehmen. Unser Ziel ist es, etwas wirklich Praktisches zu finden, aufzubauen und mit dem Konzern zu teilen. Und „Lab“ hat natürlich mit experimentieren und ausprobieren zu tun. Unser Best Practice Lab besteht aus unterschiedlichen Communities weltweit, die sich mit Themen wie Pricing, Schadensabwicklung oder den Kontakt-Centern befassen. Dazu gehören auch innovative Methoden wie der „Agile Desk“, bei dem sich Mitarbeiter für eine Woche oder zwei treffen, um Prototypen für Chatbots, Voice Bots oder Image Recognition zu entwickeln. Das Lab lebt von der Community, in der sich die Mitarbeiter austauschen, vernetzen, sehr schnell Dinge entwickeln und öfter auch mal verwerfen. Wenn die Entwicklungen ausgereifter sind, können wir sie auf unkomplizierte Art und Weise mit anderen teilen.

Welche konkreten Maßnahmen setzt die Talanx Gruppe national und international um, um die Customer Experience kontinuierlich zu verbessern?

Jan Myszkowski: Wir haben zunächst einen Vorteil durch die Communities: Da tauscht man sich aus, was funktioniert und was nicht. Neben Best Practices aus der Talanx-Gruppe schauen wir uns auch „Peers Best Practices“ von anderen Versicherungen, aber auch aus anderen Branchen an. Natürlich blickt jeder erst einmal auf Amazon. Aber, wir versuchen auch von kleineren Firmen und Startups zu lernen, die sehr beliebt sind und von Kunden oft weiterempfohlen werden: Dann überlegen wir uns, wie wir das Gelernte auf unser Geschäft übertragen können. Die Lösungen für die meisten Probleme muss man gar nicht neu erfinden, die gibt es schon. Man muss sie nur anders anwenden. Und diesee ‚not-inveted-here‘ Einstellung ist aus meiner Sicht die höchste Hürde. Schnell heißt es da „Bei uns in Deutschland funktioniert das ganz anders“ oder „Das lässt der Betriebsrat niemals zu“. Unsere Arbeit besteht also nicht so sehr darin, allein die Maßnahmen zu finden, sondern die Hürden danach aus dem Weg zu räumen.

Viele internationale Unterschiede gibt es gar nicht, die sind meiner Meinung nach nur mental sehr stark ausgeprägt. Ich glaube, wir sind gleicher als wir glauben: Jeder möchte geliebt werden, jeder möchte Aufmerksamkeit für sich und seine Ideen und jeder hat vor Veränderungen ein bisschen Angst. Aber es gibt Tricks, die sehr gut funktionieren, um diese mentalen Hürden zu überwinden.

Für eine perfekte Customer Experience müssen viele kleine und große Rädchen ineinander greifen: Daten, User Interface, verschiedene Touchpoints, On- und Offline. Viele Themenfelder bedeuten aber gleichzeitig auch viele Verantwortliche. Welche Arbeitsweisen sind aus Ihrer Sicht entscheidend, um Erfolge zu erzielen?

Jan Myszkowski:  Wenn man diese Metapher der Uhr oder Maschine mit Rädchen verwendet, kommt man schnell auf eine Schlussfolgerung: Es bewegt sich darin kein Rädchen von selbst, nur, wenn das erste Rad sich in Bewegung setzt. Diese Bewegung wird dann transformiert. Man muss also das erste Rad bewegen, damit sich der Rest bewegt. Wenn wir die Produktentwicklung, den Vertrieb, das Schadenkontakt-Center und das Beschwerdemanagement voranbringen und weiterentwickeln wollen, müssen wir die jeweilige Person finden, die Verbindung hat zu der nächsten, übernächsten und so weiter. Wenn ich eine Person überzeuge, die in einem bestimmten Prozess das erste Rad dreht, dann muss ich mich nicht um die anderen kümmern, weil es dann ganz automatisch läuft. Bei einem Team oder einer Gruppe ist das gar nicht so einfach. Manchmal muss man erst mal alle auseinanderdividieren, um letztendlich die Person zu identifizieren, die Veränderung lostritt. Wenn man sie gefunden hat, dann läuft es!

Auf Ihrem LinkedIn-Profil erklären Sie in kurzen Videos viele Begriffe aus dem Bereich Leadership. Was muss eine moderne Führungskraft heutzutage mitbringen, um eine gute Customer Experience zu ermöglichen?

Jan Myszkowski:  Das beste Führungsprinzip ist, keine Follower zu erzeugen. Das klingt erst einmal komisch, aber jemanden zum Follower zu machen, ist relativ einfach. Das passiert beispielsweise bei der Bundeswehr, in dem man große Strukturen mit Hierarchien aufbaut und Gehorsam fordert. Eine gute moderne Führungskraft wird ihre Leute auf Neudeutsch jedoch „empowern“, ihnen die Freiheit geben, nicht der Führungskraft zu folgen, sondern sie dazu ermutigen, eigenständig zu arbeiten. Da geht es auch wieder um diese Barrieren, die man im Kopf hat. Das als Führungskraft zu erreichen, erfordert ein Umdenken. Das fängt mit ganz simplen Dingen an, die Kinder im dritten, vierten Lebensjahr eigentlich schon wissen: Bitte sagen, Danke sagen und dem anderen nicht in den Sandkasten pieseln. Damit hat man schon ganz viel erreicht.

Wer Probleme im Unternehmen hat oder mit Veränderungen nicht klar kommt, holt oft zu schnell eine externe Unternehmensberatung ins Haus. Ich glaube, viele würden sich wundern, was passieren würde, wenn sie erst einmal ihre eigenen Mitarbeiter an das Problem ranlassen würden. Am Anfang ist das vielleicht schwierig, aber irgendwann platzt der Knoten. Und es ist unglaublich, was für Ideen die Mitarbeiter haben, was für Geschäftsmodelle und Empfehlungen. Aber das muss man aus ihnen rauskitzeln. Die meisten Mitarbeiter werden leider nie gefragt, weil man es ihnen nicht zutraut. Vielen Führungskräften fehlt auch einfach die Verbindung zu ihren Leuten oder sie sind zu ungeduldig. Dafür braucht man eine Mischung aus Wertschätzung, Geduld und auch ein bisschen Disziplin. Ein guter Leader kann das, ein schlechter wird wahrscheinlich ungeduldig sein, auf externe Berater ausweichen oder er geht die Veränderung gar nicht erst an.

Wie kann man als Unternehmen schlechte Kundenerfahrungen als Learning nutzen, um tatsächlich besser zu werden?

Jan Myszkowski:  Wenn die Kunden ihre Beschwerde äußern, ist das schon mal gut. Es gibt ja auch Fälle, wo die Kunden aufgegeben haben und denken, die Firma wird eh nichts ändern. Das ist eine wichtige Erkenntnis im Kundenkontakt: Wenn jemand sagt, bei mir beschwert sich keiner, dann kann er entweder super gut sein, oder er ist im negativen Sinne schon „über den Berg“. Es gibt verschiedene Möglichkeiten: Einerseits kann man Beschwerden zentralisieren, dann analysieren, also das typische Beschwerdemanagement. Andererseits kann jeder Mitarbeiter auch Kundenkontakt haben, indem er sich die Aufnahmen aus dem Kontaktcenter anhört und vielleicht selber einmal „an der Front“ mitarbeitet.

Dieser direkte Kontakt ist sehr wichtig, damit man am Puls der Zeit ist. Das nimmt Zeit in Anspruch und ist ein Investment, aber es lohnt sich: der Kunde freut sich, ich lerne etwas und meine Mitarbeiter sehen, dass mir die Anliegen der Kunden wichtig sind. Und ich glaube, nicht nur negative, auch positive Erfahrungen sollte man ernst nehmen und – wenn es geht – direkt an die Mitarbeiter weitergeben. Wir überlegen momentan zum Beispiel, aus den Kontakt-Center-Aufnahmen einen Podcast zu machen. Dann könnte ich jeden Tag, wenn ich zur Arbeit fahre, drei Kundentelefonate im Podcast anhören: ein positives, ein neutrales, ein negatives. Man muss gewisse „Tricks“ anwenden, damit die Mitarbeiter so etwas nicht als mühsam und zeitraubend betrachten. Einen Podcast beispielsweise kann man auf dem Weg zur Arbeit anhören und später drüber reden. Ich glaube, je weniger das Kundenfeedback analysiert, strukturiert, protokolliert ist, desto besser sonst wird es zum Flohmarkt, second-hand Einsicht. Jeder Mitarbeiter sollte direkt diese Verantwortung für den Kunden spüren, und wissen, wo wir als Unternehmen stehen. Das kann man zu erzwingen versuchen, es ist aber viel besser, wenn man es vom Chef und anderen Mitarbeitern vorgemacht bekommt. Das regt viel mehr an.

Mit welcher Marke oder Dienstleistung hatten Sie in letzter Zeit die beste Customer Experience und wieso?

Jan Myszkowski:  Vor zwei Wochen waren wir mit unseren Nachbarn in Warschau. Über Booking.com habe ich das Hotel gebucht. Das lief super schnell und einfach mit ein paar Klicks – das mag ich. Danach habe ich von Booking verschiedene Informationen zu Sehenswürdigkeiten in Warschau bekommen, bei denen man einen Discount bekommt oder online Tickets kaufen kann. Erst habe ich das ignoriert. Aber dann sind wir zum Kulturpalast gegangen: Als wir reinkamen, gab es am Ticket-Schalter eine riesige Schlange, bestimmt über hundert Leute. Und dann habe ich bei Booking noch einmal nachgeschaut. Und siehe da, man konnte ein digitales Ticket kaufen, von der anderen Seite an die Kasse gehen, einen QR-Code vorzeigen und ein Ticket bekommen, ohne zu warten – und das auch noch billiger. Das hat uns bestimmt eineinhalb Stunden Zeit gespart. Das digitale Ticket war eigentlich  nichts Besonderes, aber in dem Moment passte es perfekt.

Es gibt natürlich noch viele andere Anbieter, die ein tolles Erlebnis für den Kunden bieten. Amazon ist sicherlich ein Benchmark für Customer Experience. Manchmal ist es aber auch mein Bäcker um die Ecke: Die kennen mich und wissen, was ich mag. Diese Wertschätzung, dass man sich an einen Kunden erinnert, scheint simpel. Manche tun es trotzdem nicht. Es muss also nicht alles online sein, eine gute Customer Experience geht auch am Kiosk oder im Café.

 

Mit Voice Interfaces glaubt man – wie bei jedem Trend – ein Allheilmittel gefunden zu haben. Doch ist ihr Einsatz längst nicht bei jedem Problem sinnvoll. Für welche Dienstleistungen können sie einen echten Mehrwert bieten? Wie muss ein guter Dialog aussehen und wie garantiert man Kunden einen sicheren Umgang mit ihren Daten? Wir zeigen Ihnen, auf was Sie unbedingt achten sollten.

In der Theorie müssten sich Voice Interfaces hervorragend in unseren Alltag integrieren lassen. Wir sind es gewohnt, Informationen in Sprache zu verpacken und unsere Wünsche verbal­ zu äußern. Für die Informationsweitergabe benutzen wir allerdings nicht ausschließlich diesen Weg der Kommunikation. Häufig werden Informationen auch nonverbal weitergegeben, mittels Gestik, Mimik oder Tonfall. In Online-Chats versuchen wir die mangelnden Möglichkeiten der nonverbalen Kommunikation mit Hilfe von zahlreichen Emojis auszugleichen. Meist gestikulieren wir wild herum, wenn wir Superlative beschreiben. So machen wir beispielsweise ausladende Gesten, um die Größe oder Breite von etwas zu untermauern. Sehen wir etwas Außergewöhnliches und möchten es beschreiben, können dies aber wie bei einem Telefonat, einer E-Mail oder einem Brief nur verbal, fühlen wir uns in unseren Möglichkeiten meist sehr beschränkt und verweisen lieber auf die mitgeschickten Bilder.

Wenn wir online auf ein tolles Gadget mit unzähligen Gadgets gestoßen sind, und einem Freund davon erzählen, zählen wir nur einige davon auf. Das tun wir nicht nur, weil wir nicht genügend Zeit haben, sondern auch, weil wir wissen, dass unser Gegenüber vielleicht ganz andere Features spannend findet. Unsere Erfahrung sagt uns, dass es viel sinnvoller wäre, ihm einfach den Link zu dem jeweiligen Produkt zu schicken, damit er selbst nachsehen kann, was ihm an diesem Gadget besonders gefällt.

Wie es sich im Alltag mit der rein verbalen Kommunikation verhält, so ist es auch mit Voice Interfaces. Längst nicht jeder Anwendungsfall hat das Potenzial durch Voice Interface einen Mehrwert zu generieren. Ein Beispiel dafür ist der Skill Store von Amazon‘s Alexa. Dort gibt es sehr viele sogenannte Skill-Leichen, also schlecht bewertete Skills, die niemand nutzt. Skills für Voice Interfaces sind das Äquivalent zu Apps aus der Mobile-Welt. Was charakterisiert diese Skill-Leichen? Sie haben keinen Mehrwert für den Nutzer. Entweder sind sie einfach nicht für Voice Interfaces ausgelegt oder nicht vernünftig für Dialoge konzipiert und treiben so manchen Nutzer in den Wahnsinn. Aber woran liegt das? Was muss man besser machen und wie kann man Skill-Leichen vermeiden?

Finden Sie einen sinnvollen Anwendungsfall

Häufig nutzen wir im Alltag Phrasen wie „Kannst du mir mal eben…?“, „Ich brauche mal kurz…“ oder „Wie war noch gleich…?“ – vor allem, wenn wir wenig Zeit oder schlicht die Hände voll haben. Gerade in diesen Situationen haben wir nicht die Möglichkeit, uns vor einen Computer zu setzen oder unser Handy herauszuholen. Und genau hier gibt es die perfekten Szenarien für die sinnvolle Nutzung von Voice Interfaces.

Denkbar sind Auskünfte aller Art, die Steuerung von anknüpfenden Systemen wie Smart Home oder auch Dienstleistungen wie die Buchung eines Mietwagens. Auch sind alle „Hand Free“- Szenarien prädestiniert für Voice Interfaces. Der Mechatroniker, der mit öligen Händen am Motor arbeitet und eine spezielle Information zu einem Ersatzteil benötigt oder der Hobbykoch, der beim Teigkneten den nächsten Rezeptschritt wissen möchte.
Software dient dazu, unseren Alltag leichter oder angenehmer zu machen. Und genau das zählt beim Einsatz von Voice Interfaces. Es geht um kurze Anfragen, sinnvolle Unterstützung und schnelle Resultate. Um Pragmatismus eben. Überlegen Sie deshalb genau, welchen Service oder welchen Anwendungsfall Sie für ein Voice Interface anbieten möchten und ob es für den Nutzer in seinem privaten oder beruflichen Alltag wirklich eine Hilfe ist.

Denken Sie Dialoge immer neu und niemals in visuellen Konzepten

Als seinerzeit die Smartphones und damit auch mobile Apps in einer Revolution den Markt überschwemmten, wurden die bereits bestehenden Konzepte einfach kleiner skaliert und übernommen. Erst im Laufe der Zeit wurden diese adaptierten Konzepte verfeinert und für die mobile Darstellung angepasst. Die visuelle Informationsverarbeitung des Menschen ist jedoch sehr selektiv. Das Unterbewusstsein wirkt wie ein Filter, der unsere Aufmerksamkeit auf die für uns wichtigen Dinge lenkt. Weitere Informationen führen wir uns erst später gezielt vor Augen. Dagegen funktioniert die auditive Wahrnehmung ganz anders. Hier kann nicht das Unterbewusstsein entscheiden, welche Informationen wir zuerst aufnehmen. Stattdessen konsumieren wir alles Gehörte in vorgegebener Reihenfolge.

Und genau hier hat der erste große Fehler seinen Ursprung: Bei der Konzeption eines Skills für ein Voice Interface geht man fälschlicherweise davon aus, dass es mit der einfachen Adaption eines bereits funktionierenden visuellen Konzepts getan sei. Doch visuelle Konzepte beinhalten zu viele Informationen für ein Voice Interface. Übernimmt man all diese Inhalte, wird der Nutzer mit langen Texten und unzähligen Informationen überflutet. Das ist sehr anstrengend und unangenehm. Aus diesem Grund hat Amazon bereits die sogenannte „ein-Atemzug-Regel“ ins Leben gerufen. Sie besagt, dass der Text, den Alexa in einer Interaktion mit dem Nutzer sagen soll, nicht länger als ein langsamer Atemzug sein darf. Damit sich der Nutzer also nicht überfordert fühlt und das Voice Interface besser annimmt, muss man sich eingehend mit den zu transportierenden Informationen beschäftigen und sollte Textlängen sowie Informationsbeschränkung berücksichtigen.

Lange Dialogstrecken vermeiden: Ein zweiter großer Fehler in Bezug auf Dialoge, der auch auf der Adaption von visuellen Konzepten beruht, sind zu lange Dialogstrecken. Besonders im E-Commerce sind wir gewohnt, Seite für Seite durch einen Prozess geführt zu werden, damit das System am Ende alle für den Kauf benötigten Informationen zur Verfügung stehen hat. Diese Prozesse sind stabil und führen in den meisten Fällen zum Erfolg. Anders verhält es sich bei einem Voice Interface. Ein einfacher, vom Interface geführter Frage-Antwort-Dialog in mehreren Schritten, kann schnell mehrere Minuten dauern. Lässt man sich bei der Antwort zu viel Zeit, wird der Dialog meist einfach beendet. Wird etwas falsch oder gar nicht verstanden, kann es zu Fehlern kommen. Hinzu kommt, dass einige bekannte Interfaces, auch ohne ersichtlichen Grund, einfach mal aus dem Dialog aussteigen. Das ist umso ärgerlicher, je weiter fortgeschritten dieser zähe Dialog ist.

Um das zu vermeiden, können bei der ersten Nutzung eines Voice Interfaces bestimmte Grundinformationen des Nutzers abgefragt und als Grundannahmen in der weiteren Nutzung vorausgesetzt werden. Gegebenenfalls kann man auf diese sogenannten Default-Daten auch von anderer Stelle zugreifen. Möchte ein Nutzer beispielweise eine Reise nach München buchen, benötigt das Voice Interface dafür folgende Daten: Abreiseort, Zielort, Datum, Uhrzeit, bevorzugte Reise- und Zahlungsart. Der Nutzer hat zuvor bereits schon einmal angegeben, dass er in Hamburg lebt, meist mit der Bahn reist und häufig mit Kreditkarte bezahlt. Als Abreisezeit wird standardmäßig der nächstmögliche Zeitpunkt gewählt. Das Interface würde also mit nur einer Frage, nämlich der nach dem Zielort, eine valide Buchung vornehmen können. Und das ohne ein langes und möglicherweise fehlerbehaftetes Frage-Antwort-Spielchen mit vielen Wiederholungen und fehlender Dynamik. Änderungen der vorhandenen Daten sollte der Nutzer im Anschluss immer vornehmen können.

Unterschiedliche Phrasen zur richtigen Zeit und in angenehmer Dynamik: Sprache gibt uns die Möglichkeit, eine bestimmte Aussage auf viele unterschiedliche Weisen auszudrücken. Sprachliche Varianz ist ein Ausdruck von Intelligenz. Warum sollten Voice Interfaces in ihren Formulierungen deshalb nicht ebenfalls variieren können? Durch mehr Dynamik und zahlreiche Phrasen wirken der Umgang und die gesamte Interaktion deutlich natürlicher. Das Interface passt sich so dem Nutzer an statt umgekehrt. Diese sprachlichen Anpassungen beziehen sich auch auf die wiederholte Nutzung des Interfaces. Wenn das Interface bei der ersten Nutzung alles ausführlich erklärt, sollten Wiederholungen bei der weiteren Nutzung vermieden werden, außer der Nutzer bittet darum.

In Situationen, in denen der Nutzer Hilfe benötigt, gibt es ebenfalls einiges zu beachten. Bei einem Voice Interface ist nicht „ersichtlich“ wie man mit ihm umgehen soll. Daher gibt es die Möglichkeit, um Hilfe zu fragen. Dabei kann das Interface berücksichtigen, in welcher Situation sich der Nutzer gerade befindet. Schließlich weiß es, ob sich der Nutzer beispielsweise gerade in einem Warenkorb oder bei der Angabe eines Datums für eine Reise befindet. So ist es kein Problem, dem Nutzer bei einer Hilfsanfrage im Warenkorb auch tatsächlich nur Hilfe zum Warenkorb anzubieten. Dieses Wissen sollte unbedingt genutzt werden, um situativ die bestmögliche Unterstützung zu geben.

Sorgen Sie für sichere Dialoge

Wie bei jeder Softwareentwicklung ist Datensicherheit auch bei Voice Interfaces ein zentrales Thema. Was muss also bei Analyse und Konzeption beachtet werden? Im Beitrag „Voice Interfaces – Das Hier und Jetzt“ wurden bereits die Big Player unter die Lupe genommen. Die dort beschriebenen Interfaces sind allesamt Cloud-basiert. Somit findet die Analyse und Verarbeitung der Sprache nicht lokal auf dem eigenen Rechner statt, sondern in den jeweiligen Rechenzentren der Anbieter. Im Rahmen der DSGVO müssen diese Anbieter nicht nur Auskunft darüber geben, wo sich die verarbeitenden Server befinden, sondern sich ebenfalls an die geltende Grundverordnung halten. Doch stellt sich die Frage, welcher Finanzdienstleister oder welche Krankenkasse hoch sensible Kundendaten in der Cloud eines fremden Unternehmens speichern möchte. Amazon beispielsweise bietet beim Zugriff auf ihre Services mit der verschlüsselten Übertragung oder der Authentifizierung via OAUTH2 zwar ein hohes Maß an Sicherheitsstandards, doch ist alles andere in deren Infrastruktur für Nutzer oder Entwickler nicht einsehbar. Es ist nahezu unmöglich ein Voice Interface, welches mit sensiblen Daten arbeiten soll, so zu anonymisieren, dass auf Cloud-Seite des Anbieters keine Rückschlüsse auf den Nutzer möglich wären. Alles Gesagte wird in der Cloud verarbeitet – und alles, was das Interface zum Nutzer sagt, ebenfalls. Es gibt hier also nur die Möglichkeit einen Anwendungsfall zu finden, bei dem keine sensiblen Daten genutzt werden.

Warum die Cloud? Segen und Fluch bei aktuellen Voice Interfaces ist, dass das Transkribieren und Analysieren von Sätzen auf Machine-Learning-Technologie basiert. Sobald ein Dialogmodel erarbeitet wurde, muss das System dieses Model lernen, damit es anschließend auch ähnliche Satzvarianten verstehen kann. Dieses „Lernen“ ist ein rechenintensiver Vorgang, welcher auf der Hardware eines Servers ausgeführt wird. Aus dieser Perspektive sind diese Cloud-Lösungen natürlich pragmatisch und scheinbar essenziell. Doch es gibt einige wenige Lösungen im Bereich Voice Interfaces, die auf lokalen Rechnern oder eigenen Servern lauffähig sind. So bietet beispielsweise der Softwarehersteller „Nuance“ mit der Spracherkennungssoftware Dragon ein Tool, welches das Transkribieren auf eigener Hardware ermöglicht.

Was ist im Umgang mit Pins und Passwörtern zu beachten? Ein weiterer Aspekt bei der Datensicherheit ist die Art des Interfaces. Während wir bei einem visuellen Interface mit einem schnellen Schulterblick prüfen können, ob uns jemand bei der Eingabe unseres Passworts auf die Finger guckt, ist es bei der Sprache weitaus problematischer. Das Abgreifen sicherheitsrelevanter Daten ist daher ein leichtes Spiel. Pins und Passwörter sollten deshalb niemals Teil eines Voice Interfaces sein. Hier ist die Verbindung mit einer visuellen Komponente ratsamer. In der visuellen Komponente wird der Nutzer authentifiziert, während die sonstige Bedienung über die auditive Komponente läuft.

Fazit

Nach wie vor ist der Umgang mit sensiblen Daten eine der größten Herausforderungen beim Einsatz von Voice Interfaces. Hier gilt es, mit einem besonders kritischen Blick zu arbeiten und Dialoge entsprechend zu konzipieren. Sicherheitsabfragen sollten niemals Teil eines Dialogs in einem Voice Interface sein. Auch wenn es verlockend ist, sollten visuelle Konzepte keinesfalls eins zu eins auf ein Voice Interface übertragen werden. Dadurch wird der Nutzer überfordert sowie Dialoge viel zu lang oder auf Grund von Fehlern abgebrochen. Wenn Sie all diese Punkte berücksichtigen, wird der Nutzer das Arbeiten mit einem Voice Interface als angenehm, natürlich und hilfreich empfinden. Ob das Interface insgesamt Sinn macht, liegt natürlich maßgeblich an der Idee und dem Einsatzgebiet.

Dieser Beitrag erschien zuerst bei Adzine und ist der dritte Teil einer vierteiligen Serie zum Thema Voice Interfaces:

Wer seine Produkte im Internet bewerben will, macht das bislang über Anzeigen in Suchmaschinen, sozialen Netzwerken oder auf den Seiten von Medien. Inzwischen wächst aber noch eine weitere Säule heran. Denn Werbung können Firmen auch auf immer mehr Seiten von Händlern schalten. Die Handelsplattformen entdecken die Werbung als lukrative Einnahmenquelle. Sie besitzen einen entscheidenden Vorteil: Daten über die Kundenwünsche aus erster Hand. Und Firmen sehen durchaus noch weitere Vorteile auf ihrer Seite, denn die Nutzer sind ja bereits in Kauflaune.

   1. Top-Player wie Amazon, Zalando, Otto und Alibaba

Und genau auf dieser Datenbasis und dort zu werben und abzuverkaufen, wo sich das Kundeninteresse unmittelbar manifestiert, ist spannend. Top-Player wie Amazon, Zalando, Otto und Alibaba haben diese Vermarktungspotenziale längst auf dem Zettel Es wird deutlich mehr Geld in diese Marktplätze fließen, da immer mehr Nutzer (mehr als 50% bei Amazon) nicht nur nach Produkten suchen, sondern in den meisten Fällen über kurz oder lang auch kaufen wollen!

Platzierung, Budgets und Aufwände zur Erstellung von Anzeigen sind auf Marktplätzen deutlich Sales-näher als in anderen Kanälen oder auf anderen Plattformen. Gerade die logistischen Aspekte von Marktplatzbetreibern (Verfügbarkeit, Terminlieferung, Versandkosten, Sonderkunden-Vorteile etc.) werden von vielen Käufern als hoch kaufrelevant eingestuft – neben der Vergleichbarkeit von Preisen oder abgestimmten, angrenzenden Produktsortimenten.“

    2. Was ändert sich in Bezug auf die Strategien?

Zur effektiven Ansprache von Kunden, die sich am Ende des Customer Decision Funnels befinden, muss neben Performance Marketing in Suchmaschinen auch zwingend der Kontakt auf Marktplätzen gesucht werden. Insbesondere der Einsatz von Nutzerdaten auf den zusammengefassten Retail Media-Plattformen, ermöglicht eine noch effizientere Ausspielung der unterschiedlichen Werbeformate. Darüber hinaus sollte auch der werbliche Effekt von Markenbotschaften, über solche Plattformen hinausgehend, nicht vernachlässigt werden, ungeachtet der Fokussierung auf Conversions und Abverkauf. Mit ihren tlw. sehr hohen Reichweiten und unmittelbaren Platzierung im Wettbewerbsumfeld, ermöglicht Retail Media viele Optionen, um über die reine Optimierung der Kosten-Umsatz-Relation (KUR) hinaus, additiven Umsatz zu generieren.

   3. Was lässt sich über das Spendingverhalten der Kunden sagen – wo wurde erhöht und wo reduziert?

Laut jüngster eMarketer Studie werden sich die Spendings in den USA in den nächsten zwei Jahren auf Amazon nahezu verdoppeln – vor allem zu Lasten von Google und Facebook. Die übrigen Kanäle und Plattformen entwickeln sich aber stabil. Eine spannende, neuere Entwicklung werden die aus dem Boden sprießenden Marktplätze darstellen, die Werbekunden noch mehr Platzierungs- und/oder Kooperationsmöglichkeiten geben und, strategisch richtig gewählt, mindestens eine thematisch relevante Alternative zu Amazon oder Preisvergleichern darstellen.

Dieser Artikel erschien zuerst bei Internet World.