Anlässlich des 15-jährigen Firmenjubiläums richtet Mediascale in einem aktuellen Blogbeitrag den Blick in die Zukunft.

Wie bereits 2012 wurden einige Marketing-Experten zu ihren Erwartungen in Bezug auf digitale Trends für das Jahr 2022 befragt. Dabei werden Fragen wie „Wird künstliche Intelligenz 2022 selbstverständlich für uns sein?“ oder „Welchen Trend aus 2017 werden wir in fünf Jahren belächeln?“ beantwortet.

Die Ergebnisse stellt Mediascale ab sofort jeden Dienstag auf Facebook und Twitter vor.

Die ersten Marketingmaßnahmen mit Augmented Reality (AR)tauchten in Deutschland um das Jahr 2011 herum auf. Plan.Net integrierte dazumal beispielsweise AR-Funktionen in eine Kampagne für den Spartensender Syfy. Plakate wurden mit Hilfe der damals verfügbaren Technologie des Münchner Unternehmens Metaio eindrucksvoll zum Leben erweckt.

Seither wurden immer mal wieder vereinzelte Projekte im Bereich Augmented Reality umgesetzt, der große Durchbruch blieb jedoch aus. Mit Pokemon Go war AR im vergangenen Jahr plötzlich wieder Gesprächsthema. Augmented Reality wurde euphorisch von Marketing-Experten gefeiert. Das sei der Durchbruch gewesen. Mitnichten war dies der Fall. Pokemon Go war ein riesiger Hype, aber AR nur ein ad on. Vielmehr trat Virtual Reality auf den Plan, zog die Aufmerksamkeit mit Hardware von HTC, Oculus und Sony auf sich, verbunden mit vielen interessanten Anwendungsszenarien. VR blieb bislang jedoch eine tolle Option eher für lokale Inszenierungen oder technisch begeisterte Zielgruppen.

Was Apple jetzt mit der Veröffentlichung des ARKit auslöst, wird eine andere Dimension erreichen. Unter der Haube des Systems verbirgt sich u. a. die seit 2011 weiterentwickelte Software von Metaio aus München. Jetzt aber für alle Apple-Developer sehr einfach zugänglich gemacht und noch einfacher in iOS-Apps implementierbar.

Mit großer Freude und Spannung haben wir uns im jüngst gegründeten Plan.Net Innovation Studio auf die neuen Möglichkeiten gestürzt – und wurden auch von der aktuell noch verfügbaren Beta-Version des ARKits nicht enttäuscht. Gewohnt gute Software-Dokumentationen ermöglichen einen schnellen Einstieg in die verfügbaren Möglichkeiten, die Einstiegshürden in die AR-Welt werden damit maximal reduziert.

Auch wenn die im Juni von Apple veröffentlichte Beta-Version in ihrem Funktionsumfang technisch noch etwas begrenzt erscheint, haben wir bereits in kürzester Zeit viele spannende Einsatzmöglichkeiten prototypisch erforscht und erste Kundenprojekte damit angereichert. Die Einsatzbeispiele reichen von AR-gestützter Navigation über das Platzieren von virtuellen Möbelstücken bis hin zu ersten Mixed-Reality-Beispielen. In jedem Fall ist zu erwarten, dass bei Veröffentlichung von iOS 11 eine Flut von ARKit-unterstützten Apps in den App-Store publiziert wird.

Quelle: Apple

Es wird noch etwas dauern, bis die Möglichkeiten der Plattform voll ausgereizt werden können, insbesondere in Hinblick auf ortsbasierte Datenlayer (Location Based Services) gibt es noch eine Funktionslücke. Aber Apple wird aller Wahrscheinlichkeit nach bald Funktionen ergänzen und auch bei neuen iPhones seitens Hardware noch die ein oder andere Komponente nachrüsten.

Die Möglichkeiten bei den vorhandenen Geräten sind jedenfalls bereits sehr vielversprechend. Und bei ca. 380 Mio. unterstützen Geräten, die zur Zeit im Umlauf sind, ist die Zielgruppe nicht gerade klein.

Und auch der nächste zu erwartende Meilenstein wird uns in Atem halten: Wenn Augmented Reality Anwendungen den Smartphone-Rahmen immer weiter sprengen und in alltagstauglichen Brillen und Linsen Einzug halten. Dann wird die Lücke zwischen Hardware-Hürde und bereits verfügbaren Daten geschlossen und jeder kann an jedem Ort sofort Umfeldinformationen einblenden. Zu Gebäuden, Kunstwerken, Personen, Produkten.

Eine Welt der grenzenlosen Vernetzung, die wir auch immer wieder konstruktiv, wie auch kritisch mitgestalten wollen. Wir freuen uns darauf!

Suchmaschinen machen keine Ferien. Daher präsentieren wir pünktlich zum Sommerloch die wichtigsten SEO-News des Monats Juli – mit neuer Konkurrenz für Amazons Alexa, positiven Neuigkeiten für Bing und natürlich spannenden Google-Updates.

1. Mobile Google Suche ermöglicht direkten Kontakt mit potentiellen Kunden

Nach ersten Tests im November vergangenen Jahres startet Google in den USA nun offiziell die Funktion, dass Nutzer Unternehmen direkt aus den Suchergebnissen auf mobilen Endgeräten kontaktieren können. Nach einer lokalen Suche (z.B. nach einem Restaurant, Frisör etc.) können sie zukünftig per Messaging App direkt das Geschäft ihrer Wahl anschreiben. Für Anbieter ist die neue Funktion über den Google MyBusiness-Account schnell aktiviert. Die Kommunikation läuft entweder über die Google-Messaging-App “Allo” auf Android-Geräten oder direkt in der nativen Messaging-App auf iOS.

2. Videos auf Google und YouTube: Neue Studie erklärt Unterschiede im Ranking

Fokussiere ich mich bei der Optimierung meiner Bewegtbildinhalte auf Google oder YouTube? Eine Hilfestellung bei dieser Entscheidung bietet eine neue Studie aus den USA. Durch eine umfassende Rankinganalyse konnte diese zeigen, dass sich die Algorithmen beider Suchmaschinen aufgrund unterschiedlicher Nutzerintentionen und Monetarisierungsmodelle deutlich unterscheiden. Im Ergebnis ist der Inhalt des Videos entscheidend: Während in der klassischen Google-Suche vor allem informative Inhalte wie Anleitungen, Seminare oder Reviews hohe Sichtbarkeiten erreichen, kann man bei YouTube mit Unterhaltungsinhalten und Serienformaten hohe Rankings erzielen. Interessante Lektüre für jeden SEO.

3. Bing baut Marktanteile bei Desktop-Suchen aus

Für erfolgreiche Suchmaschinenoptimierung ist es wichtig, sich nicht alleine auf den Marktführer Google zu verlassen. Um die eigene Zielgruppe zu erreichen, muss man das vielfältige Spektrum von allgemeinen und spezialisierten Suchsystemen genau beobachten. Dazu zählt natürlich auch Microsofts Suchmaschine Bing, welche nach eigener Aussage eine deutlich ältere und zahlungskräftigere Zielgruppe bedient als Konkurrent Google. Nach neuesten Zahlen der Marktforscher von Comscore konnte Bing, getrieben von einer stärkeren Integration der Suchmaschine im aktuellen Betriebssystem Windows 10 und seiner Sprachsuche „Cortana“, im ersten Halbjahr 2017 seinen europäischen Marktanteil bei Desktopsuchen auf neun Prozent ausbauen, in Deutschland auf zwölf Prozent, in den USA sogar auf 33 Prozent. Je nach Publikum und Zielmarkt lohnt es sich also, das Unternehmen aus Redmond im Blick zu behalten.

4. Bing erweitert Ergebnisanzeige für Markensuchen

Und gleich noch einmal Bing: In der Vergangenheit hat sich gezeigt, dass auch Google sich nicht scheut, neue Features von Microsofts Suchmaschine zu kopieren. Beispielsweise bei der Bildersuche konnte sich Bing mit neuen Darstellungsformen auf Suchergebnisseiten profilieren. Seit kurzem zeigt Bing in den USA bei der Suche nach Markenbegriffen zusätzlich zu den bekannten Sitelinks auch direkte Einstiegspunkte für „Beliebte Inhalte“ in Form von Screenshots und Bildern an. Ob dieses Feature für den Nutzer einen Mehrwert bietet, ist zwar fraglich, der Aufmerksamkeitssteigerung und damit einer potentiell höheren Klickrate dient es ganz bestimmt.

5. Konkurrenz für Google und Amazon: Samsung und Facebook planen eigenen smarten Lautsprecher

Bisher wird der Markt der smarten Lautsprecher vor allem von Amazon und Google kontrolliert, wobei der Handelsriese derzeit mit Echo inklusive Alexa eine dominierende Rolle einnimmt. Jetzt sollen auch Samsung und Facebook den Einstieg in diesen Markt vorbereiten. Samsung setzt dabei auf den in der Entwicklung befindlichen Sprachassistenten Bixby und positioniert sich einmal mehr als Konkurrenz zu Google. Facebook will angeblich im ersten Quartal 2018 ein entsprechendes Angebot auf den Markt bringen. Diese Entwicklungen unterstreichen den Trend, dass SEO angesichts der rasanten (Weiter-)Entwicklungen von Sprachsuche und der vielfältigeren Endgerätelandschaft in Zukunft deutlich an Komplexität zunehmen wird.

Dieser Artikel wurde auf internetworld.de veröffentlicht.

Haben Kreative keine Lust auf die neuen faszinierenden Möglichkeiten von Programmatic Advertising? Verstehen Mediaplaner überhaupt, wie Kreation on- und offline entsteht? Oder sind Kreation und Media zwei derart unterschiedliche Pole, dass man sie generell nur schwer zusammenbringt? Unter dem Motto „Lass uns reden“ haben sich mediascale-Geschäftsführer Wolfgang Bscheid und Markus Maczey, Chief Creative Officer der Plan.Net Gruppe, an einen Tisch gesetzt und offen über Vor- und Nachteile, Chancen und Schwierigkeiten gesprochen. Sie unterhalten sich über Marketingautomation, Kreation und die künftige Zusammenarbeit zwischen Werbetreibenden und Agenturen.

Der Veränderungsprozess im digitalen Werbemarkt konfrontiert die Branche permanent mit neuen Werbeformen, neuen Technologien und daraus resultierend auch wechselnden Herausforderungen. Zu letzteren zählen auch betrügerische Maßnahmen, sprich Adfraud. Der systematische Kampf gegen Adfraud erfordert erweiterte Ansätze und mehr Kooperation von allen Marktteilnehmern. Mit den folgenden sechs Maßnahmen kann AdFraud wirksam bekämpft werden.

 1. Verantwortung wahrnehmen

Vermarkter nehmen ihre Verantwortung für die Leistungserbringung verstärkt wahr. Dazu zählen Sicherstellung der auftragsgemäßen Abwicklung und des transparenten Leistungsnachweises von Schaltungen. Parallel dazu nehmen Agenturen stellvertretend für ihre Kunden die Kontrollfunktion auf der Nachfrageseite ein und fordern die für die Sicherstellung und Überprüfung der Kampagnenqualität notwendigen Evaluationen und Informationen beim Vermarkter ein.

2. Steuerung

Werbeauslieferung darf ausschließlich auf den gebuchten Inventaren erfolgen – das muss ausnahmslos gewährleistet werden. Zur Unterstützung stehen u.a. Steuerung anhand von White- und Black-Lists zur Verfügung; für Kontrollen Domain-Reporting, welches Vermarkter und Agenturen über Adserver und Ad-Verification-Systeme umsetzen. Auch hier gilt: Abweichungen sind konsequent zu identifizieren und im Austausch der Marktpartner zu eliminieren.

3. Monitoring und Dokumentation

Vermarkter und Agenturen erfassen, sowohl die Qualität von Targeting-Daten als auch der damit ausgelieferten Kampagnen in nachvollziehbarer Form. Der Vermarkter setzt geeignete Monitoring-Instrumente ein, zum Beispiel über Panels, Adserver-interne Systeme oder das Campaign-Monitoring der Targeting-Dienstleister. Hier gilt es, volle Transparenz in Richtung der Auftraggeber zu gewährleisten. Auch Agenturen setzen zur doppelten Qualitätssicherung vergleichbare Systeme auf ihrer Seite ein.

4. Umfassende Absicherung

Agenturen und Marken sichern sich gegen maschinellen Fraud, betrügerische Werbemitteleinbindung sowie Click- und Conversion-Betrug ab. Dazu nutzen Vermarkter und Agentur oder Advertiser gemeinsam Pre- und Post-Bid-Kontrollen. DSP-interne Systeme und externe Fraud-Detection-Systeme unterstützen die Pre-Bid-Kontrolle. Bei der Post-Bid-Kontrolle kommen Reportings und Logfile-Analysen zum Einsatz.

5. Sanktionierung

Identifizierte Vergehen sind konsequent juristisch zu verfolgen. Diese Ahndung sollte idealerweise auch grenzüberschreitend erfolgen. Handelt es sich um Dienstleister, die etwa einen Code of Conduct des BVDW unterzeichnet haben, sind ergänzenden Maßnahmen einzusetzen: Ein fest definierter Beschwerdebeirat hat verschiedene Sanktionierungsoptionen, die bis zur öffentlichen Abmahnung und zum Ausschluss aus dem Unterzeichnerkreis reichen.

6. Standardisierung

Wo es Standards gibt, fallen Abweichungen erst recht auf: Um eine Ahndung zu ermöglichen und für alle Marktteilnehmer Klarheit zu schaffen, einigt sich die Branche auf Standards zu oben genannten Punkten. Hierfür werden Arbeitsgruppen genutzt, in denen alle relevanten Marktpartner vertreten sind.

Im Prinzip ist es simpel: Transparenz und Verbindlichkeit sind die Feinde von Betrug. Die durch den FOMA geforderten Maßnahmen tragen zur Sicherung der digitalen Werbeumfelder bei und verbessern das Nutzererlebnis von Online-Werbung.

Dieser Beitrag erschien zuerst bei wuv.de.

Das neue Echo Show ist ein Hardware gewordenes Learning von Amazon, das auf die Probleme und Hürden aller Voice Interfaces eingeht: Die Informationsvermittlung. Echo Show kompensiert nämlich die Limitierung der Informationsvermittlung eines Voice Interfaces mit einem klassischen Display. So wird aus einem No-Interface Device ein neuer Full Service Touchpoint im digitalen Ökosystem, das für uns noch ungeahnte Möglichkeiten mit sich bringt. Wie wir diese neue Komponente, den Screen mit Delegation über den Amazon Endpoint ansprechen können, sehen wir uns im Folgenden genauer an. Reverse Engineering ist hier das Stichwort.

Der Look von Echo Show ist nicht sonderlich aufregend und erinnert in seiner Art an SciFi-Filmen aus den 70ern. Vorne eine schräge Fläche, im Mittelpunkt ein Display, darüber die Kamera, darunter das Lautsprechergitter. Trotzdem wirkt das Gerät im Wohnzimmer nicht deplatziert. Unser Echo Show mussten wir über eine amerikanische Adresse beziehen, da es in Deutschland noch nicht erhältlich ist. Ein Erscheinungsdatum für den deutschen Markt hat Amazon bisher noch nicht genannt.

Aktuell gibt es noch keinen Leitfaden für Developer

Ähnlich spartanisch sieht es mit den Informationen für Developer und die Entwicklung von Skills auf dem Echo Show aus. Der Developer-Bereich Amazons liefert zwar Auskunft darüber, wie die JSON-Kommunikation zwischen Skill und Endpoint aussehen muss, damit man die neue Funktionalität ansprechen kann. Parameter werden beschrieben, Templates gezeigt und Callbacks erklärt. Aber eben alles nur auf Basis der Kommunikationsprotokolle und nicht als Leitfaden. Sind wir traditioneller Nutzer des Alexa Skill Kit-Frameworks für Java gucken wir also erstmal in die Röhre. Ein Vermerk in der neusten Framework-Version im Github verrät uns zwar, dass die Version 1.4 für Echo Show vorbereitet wurde, allerdings gibt es dazu weder Dokumentationen noch Code-Beispiele.

Welche Darstellungsmöglichkeiten bietet Echo Show?

Nun haben wir hier aber ein Echo Show stehen und möchten dafür auch einen Skill entwickeln. Also Augen zu und hinein in den Framework-Code, der beim letzten Release commited wurde. Zuerst müssen wir uns fragen, was wir eigentlich erwarten. Echo Show kann auf vielfältige Weise Informationen abbilden. Es muss also eine Möglichkeit geben, Informationen zu layouten und diese dann irgendwie als Response an den Alexa-Endpoint zu übermitteln. Schauen wir uns das Response-Objekt an, sehen wir, dass sich hier zum letzten Release so gut wie nichts geändert hat. Die einzige Stelle, an der wir ansatzweise dynamische Daten übergeben könnten, sind die sogenannten Direktiven. Suchen wir ein wenig im Framework, finden wir die RenderTemplateDirective und genau diesen kann man ein Template übergeben.

Templates sind uns bereits auf den Development-Seiten Amazons begegnet (https://developer.amazon.com). Zurzeit gibt es insgesamt sechs feste Templates: Zwei zur Darstellung von Content Lists und vier zur Darstellung von Single Content. Die beiden Templates für Content Lists unterscheiden sich darin, dass das eine für horizontale, das andere für vertikale Listen gedacht ist. Die vier Templates für Single Content unterschieden sich in ihren Darstellungsmöglichkeiten wie folgt (siehe Abbilung 1):

  • BodyTemplate1
  • Title (optional)
  • Skill icon (provided in developer portal)
  • Rich or Plain text
  • Background image (optional)
  • BodyTemplate2
  • Title (optional)
  • Skill icon (provided by developer portal)
  • Image (optional – can be a rectangle or square)
  • Rich or Plain text
  • Background image (optional)
  • BodyTemplate3
  • Title (optional)
  • Skill icon
  • Image (optional – can be a rectangle or square)
  • Rich or Plain text
  • Background image (optional)
  • BodyTemplate4
  • No title
  • Skill icon
  • One full-screen image (1024 x 600 for background)
  • Rich or Plain text

Abbildung 1: Unterschiede der Templates für Single Content

Wollen wir also Informationen aufs Display des Amazon Show bekommen, müssen wir uns erst einmal darüber im Klaren sein, welches Template zur gewünschten Information passt. Ein Creative Conceptioner muss hier genau planen, damit die User Experience erwartungskonform und vor allem intuitv gestaltet ist. Kommt der User mit der dargestellten Information nicht zurecht, nützt die sauberste Programmierung nichts. Um erste Hnweise und Feedback zu erhalten, eignen sich qualitative Nutzerbefragungen besonders gut.

Wie erstelle ich Bilder- und Textinhalte?

Technisch gesehen instanziieren wir einfach eines der Templates, das wir unter com.amazon.speech.speechlet.interfaces.display.template finden. Für entsprechende Properties wie Title, Icon, Background usw. gibt es jeweils Getter und Setter. Für Bilder gibt es eine Image– und eine ImageInstance-Klasse. Bilder werden in Form von Url´s zum entsprechenden Imagesource übergeben. Text-Content kann als Plain- oder Richtext übergeben werden. Bei letzterem gibt es die Möglichkeiten einige Markup-Tags für die Formatierung zu benutzen, die wir auch von HTML kennen. So gibt es <br/>,<b>,<i>,<u> und <font size=“n“>. Hier sind ebenfalls unterschiedliche Bereiche für Content innerhalb des Text Contents zu finden. Haben wir nun Bilder und Texte definiert und in die Properties des entsprechenden Templates eingetragen, ist der nächste Schritt dieses Template an die RenderTemplateDirective-Instanz zu übergeben. Unsere neue Direktive tragen wir nur noch in die Liste von Direktiven ein und übergeben diese dem Response-Objekt. Wenn wir den Skill jetzt aufrufen, ist der neu erstellte Content zu sehen.

Wie definiere ich Content für den Touch Screen?

Das Display des Echo Shows ist ein 7-Zoll Touchdisplay. So ist es auch möglich, Elemente einer Content List oder Single Content auszuwählen. Dazu hat jedes Single Content Template und jedes Element eines List Templates einen sogenannten Token. Aus der Sicht des Frameworks ist dieser Token eine Property vom Typ „String“ und dient beim Callback zur Identifikation des gedrückten Elements. Schauen wir uns an, wie wir bisher Skills entwickelt haben, stellen wir fest, dass wir den Callback nur zu einem erkannten Intent bekommen, also nur, wenn der Nutzer etwas gesagt hat. Das ist zwar für das Voice Interface ausreichend, nicht aber für das Display. Das SpeechletV2- Interface unterstützt jedoch ausschließlich Voice Callbacks.

Schauen wir uns aber den SpeechletRequestDispatcher im Framework genauer an, sehen wir, dass der Dispatcher auf ganz unterschiedliche Requests reagieren kann. So gibt es AudioPlayerRequest, PlaybackController, SystemRequests, aber auch DisplayRequests. Wird ein DisplayRequest erkannt, versucht der Dispatcher vom Interface Display die Methode onElementSelected aufzurufen. Was wir also tun müssen, um dieses Callback zu bekommen, ist, nicht nur das SpeechletV2 in unserer Speechlet-Klasse zu implementieren, sondern auch das Display-Interface. Haben wir dies getan, können wir mit folgender Methode überschreiben:

 

public SpeechletResponseonElementSelected(SpeechletRequestEnvelope<ElementSelectedRequest> requestEnvelope)

Abbildung 2: Überschreibung des Callbacks

Diese Methode des Callbacks wird nun immer dann aufgerufen, wenn auf dem Display ein Element selektiert wird. Wird der Callback aufgerufen, können wir uns aus dem requestEnvelope über requestEnvelope.getRequest().getToken() den Token, also den Bezeichner des Elements, welches gedrückt wurde, zurückgeben lassen und entsprechend reagieren. Bei der Wahl des Bezeichners sind wir völlig frei.

Die Response auf ein ElementSelectedRequest ist eine normale SpeechletResponse. Wir können also sowohl Sprache als auch ein weiteres Display Template zurückgeben. Daher ist es auch möglich die von Mobile Devices gängigen Master/Detail-Views zu implementieren. Genau für diese Mechanismen ist der Backbutton gedacht, der standardmäßig für jedes Template aktiviert werden kann. Die Implementierung der Funktionalität bei einem „go back“ liegt allerdings beim Entwickler.

Fazit

Zurzeit ist es für Java-Entwickler eher schwierig, sich dem Thema Echo Show zu nähren. Google und Stack Overflow geben weder Links zu Beispielen noch Dokumentationen. Außer den wenigen Informationen direkt von Amazon ist bisher nicht viel zu finden. Will man seine Zeit nicht mit der Analyse des Frameworks verbringen, ist man gezwungen zu warten, bis die Entwicklerszene oder Amazon weitere Informationen liefern. Hat sich einem die Erweiterung des Frameworks jedoch erschlossen, macht die Entwicklung von Skills für Echo Show einen stimmigen und durchdachten Eindruck.

Negativ aufgefallen sind eher Kleinigkeiten. So funktioniert das Preloading von Bildern in Content Lists eher schlecht als recht. Es ist nicht sehr schön anzusehen, dass Bilder von Listenelementen erst peu à peu erscheinen. Hier muss man bei der Konzeption von Skills zukünftig also auch auf die Zugriffszeit von Content Servern achten oder darauf hoffen, dass Amazon entsprechende Mechanismen verbessert. Generell bleibt abzuwarten, was sich Amazon an Erweiterungen einfallen lassen wird.

Was Entwickler zukünftig aus der Kombination von Voice Interfaces und Touch Screens herausholen werden ist sehr interessant. Eine enge Zusammenarbeit zwischen Konzeption, Kreation und Entwicklung scheint hier unerlässlich zu sein. Insgesamt wird Amazon Echo Show sicherlich wieder große Veränderungen in den Markt bringen.

Der Artikel wurde auf Entwickler.de veröffentlicht.

Beim Thema Web Analytics hören wir immer wieder, wie kompliziert es doch sei, brauchbare Daten und Erkenntnisse zu sammeln, um die Performance einer Website device-übergreifend und über den Aufruf von URLs hinaus zu analysieren und damit die User Journey zu optimieren. Die Standardfunktionen von Google Analytics liefern dafür nicht die gewünschten Daten, so der Vorwurf. Das stimmt so allerdings nicht. Oftmals ist Connected Commerce eben doch einfacher als man denkt.

Google Analytics trackt vieles, aber bei weitem nicht alles

Viele Webseitenbetreiber greifen beim Webtracking ausschließlich auf die Standardimplementierung von Google Analytics als Werkzeug für ihre Auswertungen zurück. Dies kann in bestimmten Fällen auch völlig ausreichend sein, gibt Google Analytics doch Auskunft über eine ganze Reihe wichtiger Kennzahlen (KPIs), wie etwa die Anzahl der Nutzer, Sitzungen und Seitenaufrufe oder die Absprungrate in einem definierten Zeitraum. Darüber hinaus liefert das Tool neben demographischen Merkmalen eine ganze Reihe von Geräteinformationen, um beispielsweise die Unterseiten zu erkennen, auf denen besonders viele Benutzer von Mobilgeräten abspringen – so können Sie eventuelle Probleme bei der mobilen Nutzung Ihrer Seite aufdecken.

Doch wie gehen Sie vor, wenn Sie auswerten möchten, wie oft ein ganz bestimmter Button auf einer Seite angeklickt wurde? Oder von welcher Seite aus ein Nutzer mit Ihrem Support-Chat interagiert hat? Und wie sieht es mit der Scroll-Tiefe aus, den Datei-Downloads oder dem Aufruf externer Links? All diese Fragen kann Google Analytics nicht per se beantworten. Es gibt aber eine einfache und zugleich mächtige Lösung, die fest in Google Analytics integriert ist: das Event-Tracking, also das Erfassen von Ereignissen alle Art.

Bisher mussten diese Ereignisse bereits im Vorfeld genau geplant und in der Programmierung einer Webseite verankert werden, damit sie auch an Google Analytics zum Tracken gesendet wurden. Durch den Google Tag Manager ist das Einrichten von Events agiler und deutlich einfacher. Sie benötigen keine Programmierkenntnisse und können direkt loslegen sobald der Google Tag Manager in Ihrer Seite eingebunden ist. Für viele CMS- und Shop-Systeme gibt es bereits fertige Plugins, sodass Sie nicht einmal einen Entwickler für den Einbau benötigen.

Sie haben noch nichts vom Google Tag Manager gehört? Christoph Küpfer von ad agents beschreibt das Tool im Artikel „Der Google Tag Manager: Die eierlegende Wollmilchsau“ auf internetworld.de sehr treffend wie folgt: „Webanalytics ohne Tag Manager ist wie Wäsche waschen ohne Waschmaschine. Es geht – aber es ist Zeit- und Ressourcen-Verschwendung.“

Erfassen und Auswerten von Events mittels Google Tag Manager – drei Beispiele zeigen, wie es geht

1. Sie möchten wissen, wie oft ein Button/eine Grafik geklickt wurde?

Webseiten verfügen in der Regel über mehrere Formulare oder Teaser-Grafiken, die den Besucher zu einer Aktion auffordern. Wie oft Besucher tatsächlich mit diesen Call to Actions (CTAs) interagieren, können Sie leicht mit dem Google Tag Manager erfassen. Dazu richten Sie jeweils einen Trigger (das „WENN“) und ein Tag (das „DANN“) ein – WENN zum Beispiel ein Button mit der Aufschrift „Nachricht senden“ geklickt wird, DANN wird durch ein entsprechendes Tag ein Event an Google Analytics gesendet. Ein Event besteht immer aus vier Dimensionen, die Sie mit beliebigen Werten im Google Tag Manager befüllen können: die Eventkategorie, die Ereignisaktion, das Ereignislabel und den optionalen Ereigniswert.
Nehmen wir beispielsweise ein Kontaktformular: Zuerst legen Sie eine Eventkategorie fest. Diese kann den statischen Text „Kontaktformular“ enthalten. In der Ereignisaktion lautet die Aktion innerhalb dieser Kategorie „Abgesendet“, wenn das Formular abgeschickt wird. Als Ereignislabel erfassen wir bei unseren Implementierungen meist den aktuellen Seitenpfad. Für diesen gibt es eine eingebaute Funktion im Google Tag Manager, die Sie einsetzen können, indem Sie {{Page Path}} an der entsprechenden Stelle einfügen. Wenn Sie Ihr Kontaktformular auf mehreren Seiten oder in einer Seitenlasche eingebaut haben, können Sie auf diese Weise auswerten, von wo aus das Kontaktformular wie oft abgesendet wurde. Der Ereigniswert kann das Event noch gewichten. Für eine abgesendete Kontaktanfrage sollten Sie einen höheren Wert hinterlegen als bei einem angeklickten Teaser.

2. Absprungraten durch die Scroll-Tiefe relativieren

Ein Absprung ist nicht immer etwas Schlechtes. Besonders Blog-Betreiber kennen das Phänomen, dass Besucher eine Lösung für ihr Problem finden und anschließend ohne weitere Interaktion den Blog wieder verlassen. Die Verweildauer kann hier bereits einen ersten Anhaltspunkt darüber geben, ob der Besucher Ihren Text gelesen hat oder sofort wieder gegangen ist. Da jedoch immer mehr Menschen mehrere Seiten in Tabs öffnen, läuft die Verweildauer in mehreren Tabs parallel, auch in den inaktiven.
Abhilfe schafft eines der zahlreichen fertigen Scripts, die über den Google Tag Manager eingebunden werden können und die Scroll-Tiefe in 10- oder 25-Prozent-Schritten erfassen können. Entsprechende Events zeigen Ihnen später bei der Auswertung, wie viele Ihrer Besucher Ihren Text auf der jeweiligen Seite auch bis zum Ende gelesen beziehungsweise zumindest durchgescrollt haben.

3. Erfassen von Datei-Downloads und ausgehenden Links

Google Analytics ist eigentlich nicht zur Erfassung von ausgehenden Links oder zum Tracking von Datei-Downloads ausgelegt. Auch hier helfen die eingebauten Funktionen des Google Tag Managers, um Bedingungen an Link-Klicks zu prüfen.
Das Linkziel ist in der eingebauten Funktion {{Click URL}} enthalten und kann entsprechend geprüft werden. Enthält der Link eine bestimmte Dateiendung, zum Beispiel „.pdf?“, dann löst das ein Event aus, das die aktuelle Seite ({{Page Path}}) und das Linkziel ({{Click URL}}) erfasst. Dadurch können Sie später in Google Analytics auswerten, wie häufig welche Datei von welcher Seite aus heruntergeladen wurde. Bei ausgehenden Links prüfen Sie hingegen nur, ob die Ziel-Domain von der aktuellen Domain abweicht. Ist dies der Fall, dann handelt es sich um einen ausgehenden Link und Sie erfassen wieder die aktuelle Seite und die Zielseite in einem Event.

Fazit

Während die Standardfunktionen von Google Analytics eher einen Blick von oben auf Gruppen von Nutzern erlauben, können Sie durch das Event-Tracking mit dem Google Tag Manager detailliertere Einblicke erhalten. Sie können sogar bis auf Benutzerebene herunterbrechen, welche Events ein bestimmter Nutzer ausgelöst hat. Dies ist spätestens dann hilfreich, wenn Sie bezahlten Traffic aus Suchmaschinen oder sozialen Netzwerken erhalten. Durch die Events können Sie sehr genau feststellen, ob diese eingekauften Besucher die von Ihnen erhofften Aktionen auch wirklich durchführen und einen entsprechenden Return of Investment (ROI) für Sie generieren. Interessant ist das Thema umso mehr, wenn wir Web-Tracking in den übergeordneten Connected-Commerce-Zusammenhang stellen. Der Google Tag Manager ist zu unrecht nur auf etwa 14 Prozent der Websites eingebaut (laut einer Usage-Statistik des Internet-Service BuiltWith), obwohl er eine solide und vor allem einfache Basis bietet, die mit vielen wertvollen Funktionen dazu beiträgt, Ihre Kunden kennenzulernen und sie ins Zentrum zu stellen. Er hilft Ihnen dabei, eine nahtlose und nutzerzentrierte Customer Journey anzubieten.

Dieser Beitrag erschien zuerst bei Internet World Business.

Diana Degraa, Geschäftsführerin von Plan.Net Hamburg, spricht im Interview mit dem Blog „Frauen und Technik“ über ihre technische Erfahrung, über ihre Tipps für weibliche Talente und welche Rolle Big Data und Business Intelligence künftig spielen.

Im letzten Jahr haben wir in unserem Blog bereits über Live-Streams informiert. Nun gibt es aber einige neue Mitspieler auf dem Markt und auch die Relevanz für Live-Streams ist deutlich gestiegen. Immer mehr Unternehmen und Influencer nutzen die verschiedenen Plattformen, um ihre Fans live am Geschehen teilhaben zu lassen.

Wo sich die Plattformen im letzten Jahr hinbewegt haben, erläutert Julia May in einem kurzen Update im Mediascale Blog.

Siri, Alexa, Cortana, Google Assistant und Co. liegen unbestritten im Trend: Seit dem Marktstart 2015 soll allein Amazon in den USA weit über acht Millionen Echos und Echo Dots verkauft haben, gerade ist nun Apple mit dem HomePod auf den Zug der smarten Lautsprecher aufgesprungen. Laut einer aktuellen Statista-Auswertung nutzen in Deutschland rund 17 Millionen den virtuellen Assistenten von Google, elf Millionen fragten Siri bei Apple und knapp sieben Millionen kommunizierten mit Microsofts Cortana. Ob auf dem Smartphone oder über einen smarten Lautsprecher, immer mehr Menschen suchen per Sprachsteuerung. Laut einer ComScore-Prognose soll schon in drei Jahren die Hälfte aller Suchen über Spracheingabe erfolgen. Mindestens 30 Prozent suchen dann sogar ohne eigenen Bildschirm. Anhand dieser Zahlen wird vielen Marketern flau im Magen. Wenn sich unser Suchverhalten durch die neuen Geräte ändert, was passiert dann mit SEO? Ist also schon wieder das Ende der Suchmaschinenoptimierung eingeläutet? Nein, immer noch nicht!

Keine Frage, Voice Search ändert unser Suchverhalten dramatisch, denn die gesprochenen Suchanfragen unterscheiden sich tiefgreifend vom schriftlichen Eintippen. Suchbegriffe und -phrasen werden über Sprachsteuerung länger, unspezifischer, beschreibender und nähern sich dem natürlichen Sprachgebrauch an. Damit werden sie aber auch komplexer und erschweren so das Verstehen der eigentlichen Absicht hinter der Suche, denn Keywords und ihre Attribute als Merkmale der Suche stehen nicht mehr an vorderster Stelle.

Müssen sich Agenturen und Werbetreibende deswegen graue Haare wachsen lassen? Nein, denn die Sprachsuche und das veränderte Eingabeverhalten sind eher Herausforderungen für die Suchsystemanbieter – also für Google, Apple, Amazon, Microsoft & Co., die im verschärften Wettbewerb stehen, sich auf das neue Nutzerverhalten einzustellen. Verstehen Alexa, Siri & Co. bestimmte Fragen nicht, liegt es an den Anbietern von Suchsystemen und Suchassistenten, die Lösung hierfür zu erbringen. Diese Herausforderung ist für die dominanten Konzerne jedoch nicht neu. Ihre Algorithmen können mittlerweile immer besser die Absicht hinter einer Suche erkennen und die passenden Ergebnisse liefern. So hat sich Google beispielsweise schon vor fünf Jahren für den Trend gewappnet: mit seiner „Semantischen Suche“ und seit 2015 mit dem auf künstlicher Intelligenz basierendem System Rank Brain. Kleine Ausnahme: Fragen Sie Siri mal nach SEO. Da kommt auch beim vierten Mal kein richtiger Treffer.

Für die Suchmaschinenoptimierung finde ich eines viel interessanter als die Fragen, die über Voice Search gestellt werden: die Antworten, die daraus resultieren. Gibt es eine Antwort, mehrere Antworten oder beginnt mit der ersten Frage sogar eine Konversation zwischen Suchsystem und Suchendem? Im Prinzip läuft es mit den virtuellen Assistenten ähnlich wie mit dem Berater im stationären Geschäft: Wollen Sie ein schnelles Ergebnis haben oder ein komplettes Verkaufsgespräch beginnen? Wollen Sie nur in Ruhe stöbern oder benötigen Sie die Hilfe eines Verkäufers? Reicht Ihnen eine kurze Antwort oder wollen Sie ihre Anfrage mehrfach nachspezifizieren, bis Sie zum passenden Ergebnis kommen?

Die Herausforderung für die SEO-Experten liegt künftig also in diesen Konversationen zwischen den Suchenden und den Sprachassistenten. Denn eindeutige und direkte Antworten sind nur für einen kleinen Teil von Suchanfragen umsetzbar, zum Beispiel für die Wettervorhersage fürs Wochenende, die Öffnungszeiten des Arztes, die Einwohnerzahl von Madagaskar oder den Staureport. Schon heute liefern die Quellen für Googles „Featured Snippet“ Antworten auf solche Fragen. Das Ableiten, Aufbereiten und Beantworten solcher Fragen bedarf aber bei der sprachgesteuerten Suche keiner generellen Neuausrichtung. Künftig werden besonders lokale Suchanfragen über Voice Search eine prominente Rolle spielen. Schon heute ist die Auszeichnung geolokaler Informationen auf der Website SEO-Grundlagenarbeit (Stichwort: Semantic Markups). Noch wichtiger wird aber die Integration von lokalen Daten für Geschäfte, Hotels oder Restaurants in bestehende, auf solche Anfragen spezialisierte Suchmaschinen, wie z.B. YELP oder KAYAK. Beide Anbieter haben bereits Skills auf Amazon Echo und dienen auch Suchassistenten wie Siri und Cortana als Referenz.

Schwieriger wird es bei offen gestellten Fragen und Aussagen, in denen der Fragende nach einer Beratung sucht. Diese Fragen sind ähnlich denen, die wir auch im Geschäft äußern würden: zum Beispiel „Ich möchte einen Fernseher kaufen“ oder „Ich suche ein Kleid“. Denn auf diese Frage kann nicht einfach mit einer Antwort gekontert werden. Es muss also eine Gegenfrage gestellt werden – zum Beispiel: „Zu welchem Anlass möchtest du das Kleid tragen?“.

Gutes SEO bedeutet schon heute auf die Suchintention zu optimieren. In Zeiten von Voice Search wird es noch wichtiger für Webseitenbetreiber und Suchexperten, die Suchintentionen ihrer Zielgruppen zu verstehen und zu bedienen. Nur so können sie Mehrwert vermitteln und ihr Informationsangebot passgenau auf die Nachfrage ihrer potentiellen Kunden abstimmen. Die sprachgesteuerte Suche wird SEO also nicht zu Grabe tragen, aber sie bringt uns dazu, den Blick noch stärker als bisher über den Google-Tellerrand hinaus zu lenken. In Zukunft muss sich SEO auch darum kümmern, Informationen im Kontext von Inhalten zu definieren und diese automatisiert zu übergeben.