Das Sample City Lab zeigt, wohin die Reise geht

Das von Trend One organisierte Sample City Lab stellte am 31. Mai 2016 die Trends vor, die uns die nächsten Jahre beschäftigen werden. Im Fokus des Events standen vor allem die Themen Virtual Reality, Augmented Reality, Artificial Intelligence, Robotics und Internet of Things. Das Team von Plan.Net Mobile war in Innsbruck vor Ort und durfte sich auf der Bergiselschanze nicht nur von der Kulisse, sondern auch von den Inhalten begeistern lassen.

Sample City Lab 1

Mitveranstalter des Sample City Labs und Gründer von Trend One, Nils Müller, stellte die Innovationen vor, die auf der Ausstellung zu sehen sein würden. Ein Exponat der Ausstellung war der Roboter NAO: ein vollständig programmierbarer, autonom agierender humanoider Roboter, der bei der Vermittlung von Themen wie Programmieren, Robotik, Steuer- und Regeltechnik sowie Kreativität, Problemlösungs- und Teamfähigkeit behilflich sein soll.

Sample City Lab 2

Der Scan Roboter NavVis vermisst schnell und kosteneffizient Innenräume. Zudem können dreidimensionale Abbildungen der Innenräume mittels einer browserbasierten Applikation aufgerufen und so virtuelle Rundgänge realisiert werden.

Sample City Lab 3

Das Highlight der Veranstaltung war die Microsoft HoloLens. Die Augmented Reality Brille erlaubt es dem User Informationen und interaktive 3D-Projektionen in der direkten Umgebung darzustellen. Die HoloLens funktioniert dabei ohne Computer oder Smartphone und kann unabhängig genutzt werden.

Sample City Lab 4

Einige Personen durften die HoloLens im Sample City Lab auch selbst testen. Spiele und Videos bis hin zu Office-Programmen können interaktiv mittels Handgesten gesteuert werden.

Sample City Lab 5

Das Fitnessgerät ICAROS verbindet Workout mit Virtual Reality. Während man auf dem Gerät balanciert, wird auf der Virtual Reality Brille eine Flug-Simulation gezeigt. Dabei entsteht die glaubhafte Illusion, dass man tatsächlich durch die VR-Welt fliegt. Der positive Nebeneffekt: Trainieren macht so auch noch tatsächlich Spaß.

Sample City Lab 6

Ein zusätzlicher Controller am Fitnessgerät stellt sicher, dass jede Bewegung des Geräts genau gemessen wird. Zudem kann die Virtual Reality Brille damit gesteuert und bestimmte Aktionen können ausgelöst werden.

Sample City Lab 7

Auch Barbie ist im digitalen Zeitalter angekommen: Mit Artificial Intelligence ausgestattet beantwortet sie geduldig alle Fragen und verwickelt auch gerne ins Gespräch. Manchmal fragt Barbie selbst um Rat oder möchte mehr vom Gegenüber wissen. Die Antworten sind überraschend komplex und einige Gespräche nehmen durchaus einen interessanten Verlauf. Hier werden Kinderträume wahr.

Sample City Lab 8

Als Blickfang stellte sich ein holographisches Display heraus. In einer Glaspyramide spiegeln sich Videoprojektionen, die ein dreidimensionales Gefühl vermitteln und den Inhalt zum Leben erwecken. Zusätzlich kann die Projektion von drei Seiten begutachtet werden und die Szenerie so von unterschiedlichen Winkeln wahrgenommen werden.

Sample City Lab 9

Das Sample City Lab zeigt, wohin die Reise geht: Virtual Reality, Augmented Reality, Artificial Intelligence, Machine Learning, Robotics und Internet of Things. Das sind die Themen, die uns antreiben und bestimmen, wie unsere Welt zukünftig aussehen wird.
Beinahe alles ist mit Intelligenz ausgestattet, mobil vernetzt und kann auf Umwelteinflüsse reagieren. Mit Virtual Reality kann jeder blitzschnell in fremde Welten eintauchen und neue Dinge erleben. Das mobile Internet verbindet (fast) alles miteinander und Roboter übernehmen Tätigkeiten, die bisher nur Menschen ausführen konnten. Die Entwicklung ist rasanter, als je zuvor und eines steht fest: Es bleibt spannend!

Auf dem Google Global Performance Summit vor einigen Tagen wurden in San Francisco einige spannende Änderungen beim Suchmaschinengiganten aus Kalifornien vorgestellt: Neben Neuerungen bei lokalen Suchanzeigen und wichtigen Erweiterungen des Google Display Netzwerks (GDN) bietet Google ab sofort auch erweiterte Werbe- und Darstellungsmöglichkeiten bei den klassischen Suchanzeigen, sogenannte Extended Text Ads (ETA).

Plan.Net Performance hat die neuen Google-Formate als eine der ersten Agenturen in Deutschland für einen Kunden getestet und dabei aufschlussreiche Erfahrungen sammeln können.

Endlich mehr Platz mit Google Extended Text Ads

25/35/35 war bis dato das festgesetzte Zeichenlimit für Titel, Text und URL, wenn es um die Kreation von Textanzeigen in der Google Suche ging. Diese Begrenzung konnte den Werbungtreibenden bisweilen in arge Bedrängnis bringen konnte, beispielweise wenn man eine „Tierhalterhaftpflichtversicherung“ (33 Zeichen) bewerben wollte. Seit vergangener Woche bietet Google nun ausgewählten Advertisern mehr Freiheit: Zwei Headlines von jeweils 30 Zeichen sowie eine 80 Zeichen umfassende Textzeile bieten ausreichend Raum für den Einsatz von USPs und Call-to-Actions. Die Domain der Anzeigen-URL generiert sich nun zudem automatisch aus der hinterlegten Ziel-URL, dazu kommen zwei Felder für die individuelle Definition des URL-Pfades.

Dass die Anzeigenkreation durch die Erweiterung der Zeichenlimits leichter geworden ist, ist aber nur bedingt richtig. Während Advertiser im alten Format dazu gezwungen waren, sich auf die wichtigsten Informationen zu beschränken, besteht nun Gefahr, unnötige Textfüller zu verwenden und somit vom eigentlichen Kern abzulenken.

Adwords_Änderung

Ist dies ein logischer Ausgleich, nachdem erst vor wenigen Wochen sämtliche Anzeigen in der rechten Spalte neben den Suchergebnissen abgeschaltet wurden? Zugegeben, für diejenigen die sich jahrelang an die Anzeigen auf der rechten Seite sowie die linksbündige Darstellung gewöhnt hatten, sah die Google-Suchergebnisseite seit Februar fast ein bisschen leer aus.

Die erweiterten Textanzeigen sind seit Montag, den 23.05.2016, live. Die ersten Resultate sind vielversprechend und bestätigen den erwarteten Uplift in den Kernmetriken (höhere Klickraten bei leicht gesunkenem CPC). Google selbst prognostiziert einen Uplift der Klickrate von bis zu 20 Prozent. Da das neue Format während der Betaphase nur eingeschränkt ausgespielt wird und bisher nur wenige Advertiser freigeschaltet sind, wird sich der tatsächliche Effekt wohl erst in ein paar Monaten zeigen.

An Googles Strategie, die Premium-Positionen weiter zu stärken, hat sich unterdessen nichts geändert. So werden die erweiterten Textanzeigen, wie andere Erweiterungen auch, verstärkt auf den Premium-Positionen 1 bis 3 ausgespielt. Der Wettbewerb wird nicht geringer.

GDN: Cross-exchange for Display Remarketing Campaigns und Responsive Ads

Über das Google Display Netzwerk (GDN) können Werbungtreibende klassische Display-Anzeigen auf einer Vielzahl von teilnehmenden Websites und Blogs publizieren.  Unter dem Stichwort „Cross-exchange for Display Remarketing Campaigns“ ermöglicht Google seinen Kunden nun, Remarketing-Kampagnen über zusätzliche Inventar-Quellen auszuweiten. Bislang griff Google hierzu lediglich auf die DoubleClick Ad Exchange zurück. DoubleClick gehört ebenfalls zum Google-Konzern.

Ein wesentlicher Unterschied zwischen dem GDN und gängigen Ad Exchanges ist das Gebotsverfahren. Während im GDN meist nur Kosten anfallen, wenn ein Werbemittel auch tatsächlich geklickt wird (CPC – Cost per Click), lassen sich die Ad Exchanges in der Regel für jede Werbeeinblendung (CPM –  Cost per Mille) vergüten. Mit der Ausweitung des GDNs auf zusätzliche Ad Exchanges geht Google also ein gewisses Risiko ein, könnte man meinen. Theoretisch stimmt das auch, zumal Google die Werbeleistung nun höchstwahrscheinlich selber auf CPM-Basis einkauft und seinen Kunden auf CPC-Basis anbietet. Allerdings wäre es nicht Google, wenn sie nicht genau wüssten, was sie tun.

Die neu hinzugewonnene Reichweite beschränkt sich ausschließlich auf Remarketing-Kampagnen. Die hier generierten Klickraten sind erfahrungsgemäß um ein Vielfaches höher als bei Kampagnen mit anderen Targeting-Optionen. CTRs von 0,20 Prozent und höher für Standard-Formate sind nicht unüblich. Mit der höheren zu erwartenden CTR ist Google auch in der Lage entsprechend höhere CPMs zu zahlen, beziehungsweise die eigene Marge zu sichern. Dass dieses Einkaufsmodell sehr erfolgreich seien kann, haben andere Anbieter wie Criteo längst bewiesen.

Folgende Tabelle zeigt den Einfluss der CTR auf das Verhältnis von CTR und CPM:

VerhätlnisCTR-CPM

Die Erweiterung von Remarketing-Kampagnen im GDN auf zusätzliche Ad Exchanges stellt also nicht unbedingt eine Kannibalisierung dar, sondern ist vielmehr eine für Google sinnvolle Ergänzung.

Eine weitere Neuankündigung sind „Responsive Ads for Display“, also Werbeanzeigen, die sich individuell dem jeweiligen Content anpassen, in welchem sie platziert werden. Damit lassen sich im GDN auch Werbeplätze belegen, die keinem der gängigen Format-Standards folgen. Gerade bei Sonderformaten hat sich DoubleClick in der Vergangenheit als nicht sehr flexibler Partner dargestellt. „Responsive Ads for Display“ dürften sich vor allem auf Mobile Devices positiv auswirken und native Werbeintegrationen ermöglichen. Google stellt sich hier Schritt für Schritt für eine „Mobile First“-Welt auf und wird durch die Anpassungen die Reichweite deutlich ausbauen.

Was die Neuerung tatsächlich bringt, wird sich wohl nur durch einen Test ausführlich beantworten lassen. Mit der immer größer werdenden „Spielwiese“  Google wachsen zunehmend jedoch auch die Überschneidungen mit anderen Bereichen des Marketings. Umso wichtiger wird es, alle Maßnahmen im Rahmen einer übergreifenden  Strategie entsprechend zu bewerten und aufeinander abzustimmen.

Mehr Werbemöglichkeiten in der lokalen Suche

Schließlich wurden in San Francisco auch Neuerung für lokale Suchanzeigen, sogenannte (LSA) angekündigt. So wird es für Werbungtreibende zukünftig möglich sein, seine Anzeigen auf mobilen Endgeräte und dem Google Kartendienst optisch stärker hervorzuheben. „Promoted Pins“ setzen das Unternehmenslogo bei der Navigation über Google Maps prominent in Szene. Sucht ein potentieller Kunde unterwegs nach Dienstleistungen oder Produkten und klickt auf einen solchen Pin, sollen zukünftig neben den üblichen Anzeigentexten auch aktuelle Informationen zu Angeboten oder Promotions verfügbar sein. Google reagiert mit dieser Neuerung auf den ungebrochenen Trend zur mobilen Nutzung seiner Dienste. Nach eigenen Aussagen bezieht sich bereits mehr als ein Drittel aller mobilen Suchanfragen direkt auf lokale Dienstleistungen, wie Cafés, Restaurants oder Geschäfte. Darüber hinaus wachsen mobile Anfragen mit lokalem Bezug um 50 Prozent schneller als die Gesamtheit aller mobilen Suchanfragen weltweit.

Google verändert sein Gesicht als Werbeplattform vor dem Hintergrund steigender Konkurrenz und eines sich rasant ändernden Nutzungsverhaltens. Vor allem Facebook hat es verstanden, von der zunehmenden Mobilisierung der Internetnutzung zu profitieren. Für Werbungtreibende und Agenturen bedeutet dies, Entwicklungen und Neuerungen genau zu beobachten und den Mut aufzubringen, Experimente zu wagen und eingefahrene Wege zu hinterfragen.

An Virtual Reality (VR) führt momentan kaum ein Weg vorbei. Es gehört zu den meistdiskutierten Themen der Branche. Das Spektrum der Devices reicht vom Cardboard bis zur Oculus Rift und erst vor wenigen Tagen stellte Google auf der eigenen Entwicklerkonferenz Google I/O ein neues VR-Konzept namens Daydream vor. Die Technik ist marktreif und Marken suchen damit neue kreative Möglichkeiten, um Konsumenten anzusprechen. Egal ob zu Hause, im Store oder unterwegs.

Nicht überall, wo Virtual Reality draufsteht, ist auch Virtual drin.

Doch nicht jeder, der aktuell über VR diskutiert und berichtet, meint tatsächlich Virtual Reality im engeren Sinne, oft sind damit auch 360-Grad-Videos oder Augmented Reality (AR) gemeint. Zur Unterscheidung helfen zwei Faktoren: die Umgebung des Nutzers und die Art des Erlebnisses.

Bei Augmented Reality wird die reale Umgebung durch computer-generierte Inhalte angereichert und mittels eines AR-Headsets oder entsprechender Apps im Sichtfeld des Nutzers eingeblendet. Diese virtuellen Erweiterungen können unterschiedlichster Form sein, wie etwa ein Overlay mit zusätzlichen Informationen oder 3D-Objekte, mit denen man in Interaktion treten kann. Oft stehen sie in direktem Bezug zur Umgebung (Location Based Services) oder zu Objekten (Beacons/ QR-Codes).

Bei Virtual Reality wird ein Nutzer hingegen aus seiner physischen Realität in eine geschlossene virtuelle Umgebung transportiert, in der er sich frei bewegen kann. Darüber hinaus können die visuellen Eindrücke durch Sound und äußere Reize wie Temperatur, Wind oder Gerüche unterstützt werden, um die Imagination zu steigern und dem Nutzer das Gefühl zu geben, mittendrin zu sein. Diese Erfahrung wird als immersives Erlebnis bezeichnet.

360-Grad-Videos, die von einem festen Kamerastandpunkt gefilmt werden, stellen im Gegensatz dazu nur ein begrenztes Erlebnis dar. Der Nutzer kann sich nicht frei darin bewegen, sondern lediglich durch Kopfbewegung den Blickwinkel verändern.

Der entscheidende Mehrwert von VR gegenüber den anderen Technologien ist die Immersion. Dieses Mittendrin-Gefühl eignet sich hervorragend dazu, um überraschende und fesselnde Markenerlebnisse zu kreieren und auf eine besondere Weise mit den Konsumenten zu interagieren. Doch auch 360-Grad-Videos und AR-Apps bieten spannende Anwendungsszenarien. Von anderen Kommunikationskanälen unterscheiden sich die Technologien besonders durch drei Unique Selling Points.

1. AR und 360-Grad-Videos machen klassische Kommunikationskanäle interaktiv und digital

AR und 360-Grad-Videos erweitern das Spektrum klassischer Medien und machen beispielsweise Zeitungen oder TV-Spots interaktiv. Mit Hilfe von AR-Apps, die über Smartphone oder Tablet genutzt werden, können Produkte aus Print-Anzeigen in 3D erlebt werden. Integrierte Buttons verweisen zur Webseite für mehr Informationen oder direkt zum E-Commerce-Shop des Unternehmens.

Die New York Times hat ihr Print-Angebot durch eine Reihe von 360-Grad-Reportagen erweitert, die mit einem Google Cardboard angesehen werden können. Auch der Guardian hat kürzlich eine solche Reportage veröffentlicht, in der Zuschauer nachempfinden können, wie es sich anfühlt, in einer 6×9 Fuß kleinen Gefängniszelle in Einzelhaft zu sitzen. All das ermöglicht eine emotionale Art der Berichterstattung und eignet sich hervorragend zum Storytelling.

2. VR und 360-Grad-Videos überwinden räumliche Distanzen

Ein attraktiver Vorteil von 360-Grad-Videos und VR ist, dass räumliche Distanzen überwunden werden können, seit Kurzem bietet YouTube dazu sogar Live-Streaming in 360 Grad an. Dadurch können Marken Kunden an nahezu beliebige Schauplätze versetzen und sie weltweit an exklusiven Events teilhaben zu lassen, um so die Begehrlichkeit einer Marke zu steigern.

Besonders spannend sind VR und 360-Grad-Videos natürlich für die Touristik-Branche: Um junge Reisende anzusprechen und sich als moderne, innovative Hotelkette zu positionieren, stellte Marriott in New York eine Art Telefonzelle auf, die Besucher mittels Oculus Rift an einen Strand auf Hawaii transportierte. Das Besondere war die zusätzliche Unterstützung der audiovisuellen Eindrücke durch externe Reize. Die Besucher spürten Wärme und Sprühnebel auf der Haut und hatten eine salzige Brise in der Nase. Dadurch vermittelte Marriott ihnen das Gefühl, an einem anderen Ort zu sein, ohne ihren physischen Standort verlassen zu haben.

3. AR und VR intensivieren das Produkterlebnis und machen Produkte und Services erlebbar

Virtual Reality ermöglicht es, das Produkterlebnis am Point of Sale zu intensivieren. Zum Launch seines neuen Wanderschuhs schickt der Outdoor-Hersteller Merrell etwa die Store-Besucher auf eine virtuelle Wanderung in den Dolomiten. Dabei liefen sie über eine aufgebaute, wackelige Brücke und mussten sich an Felsen entlang tasten. Die Verbindung zwischen audiovisuellen und taktilen Reizen machte das Erlebnis hochgradig immersiv. Diese virtuelle Erfahrung sollte demonstrieren, an welche Orte der neue Wanderschuh sie bringen kann. Damit fokussiert sich Merrell auf seinen Wurzeln und spricht genau seine Kernzielgruppe an. Indem Merrell eine Oculus Rift bereitgestellt hat, machte das Unternehmen außerdem die Technologie vielen Besuchern zugänglich, die (noch) nicht bereit sind, in eine VR-Brille zu investieren.

Serviceplan setzte bereits 2014 VR ein, um gemeinsam mit BMW Motorrad eine virtuelle Probefahrt zu inszenieren. Mit Hilfe einer Oculus Rift und einer Windmaschine schafft „Eye Ride“ ein realitätsnahes Fahrererlebnis, das ein bis dahin unerreichtes immersives Erlebnis erzeugte. Das Ziel der Installation war, die Freude am Motorradfahren zu vermitteln.

Aber nicht nur In-Store, sondern auch zu Hause können die Technologien potenziellen Kunden einen Mehrwert bieten: Mit der Makeup Genius App von L’Oreal Paris können Nutzer über AR verschiedene Make-Up-Looks ausprobieren. Durch die realitätsnahe Produktdarstellung werden Unsicherheiten bei den Konsumenten abgebaut, die vor einem Kauf bestehen können. Dies wirkt sich wiederum positiv auf den Abverkauf aus.

IKEA testet derzeit, wie Kunden künftig auf virtuelle Einkaufstouren durch das Möbelhaus geschickt werden können. Dazu ließ IKEA eine kostenlose App für das VR-System HTC Vive entwickeln. Damit kann man sich inmitten einer maßstabsgetreuen Küche frei bewegen, mit den Controllern der HTC Vive lassen sich verschiedene Materialien für die Oberflächen auswählen, Schubladen öffnen und sogar Essen kochen. Darüber hinaus plant das Unternehmen eine Reihe von Möbel-Lösungen, die Kunden per VR-Headset vor dem Kauf virtuelle erkunden können. So können sich Interessierte Produkte detailliert ansehen, ohne dafür in ein Möbelhaus fahren zu müssen.

Engagement, Immersion, Impact

Die Entwicklungen rund um das Thema VR schaffen völlig neue Wege zur Inszenierung interaktiver Markenerlebnisse. Zielführende Ansätze folgen dabei einem dreistufigen Ansatz: Um Engagement zu generieren, ist ein Erlebnis-Konzept und -versprechen erforderlich, das zu einer aktiven Auseinandersetzung des Nutzers mit der Marke führt – nur dann wird er den Schritt zu dieser Technologie gehen. Maximale Immersion muss in der Umsetzung im Fokus stehen – damit der User auch emotional Teil des Markenerlebnisses wird. Dann erzielt diese neue Art der Markeninszenierung optimalen Impact. Der Wirkungsnachweis? Der Blick ins Gesicht des Users, wenn er zum Beispiel nach dem virtuellen Eye-Ride auf einem BMW Motorrad die VR-Brille abnimmt 😉

Der Artikel wurde auf internetworld.de veröffentlicht.

Big Data, dieses Schlagwort war in den vergangenen Monaten so etwas wie der Heilige Gral des Marketings. Doch bisher wurden viele Diskussionen rund um das Thema vor allem in eher theoretischer Form von den Rittern der Schwafelrunde auf Kongressen und Konferenzen geführt. Besonders wenn es um externe Daten geht (Third Party Data), die Werbungtreibende zusätzlich zu ihren eigenen Daten (First Party Data) zukaufen, um Online-Kampagnen zielgenauer auszusteuern.

Denn Kampagnen mit Third Party Data existierten bis dato lediglich in den Fachvorträgen meist internationaler Werbedienstleister, aber leider viel zu wenig im deutschen Online-Werbemarkt. Die Infrastruktur aus Adservern, Data Management und Demand Side Plattformen war zwar vorhanden, es fehlten jedoch die Datenlieferanten, um einen Markt entstehen zu lassen.

Doch diese Situation verändert sich und immer mehr Unternehmen bieten auch für den deutschen Markt relevante Daten zum Verkauf an. Ein guter Grund, sich als Werbungtreibender und dessen Dienstleister derzeit vor allem zwei zentrale Fragen zu stellen:

  1. Wieviel Uplift liefern Third Party Data für meine Kampagne voraussichtlich?
  2. Wieviel dürfen Third Party Data demnach kosten, damit die Kampagne mindestens so effizient bleibt wie vorher – idealerweise aber noch effizienter wird?

Insbesondere die Antwort auf die erste Frage fällt alles andere als leicht, weil es einerseits „DIE Kampagne“ nicht gibt. Und andererseits in der Regel bei Werbungtreibenden auch noch wenig bis gar keine Erfahrungswerte beim Einsatz von Third Party Data vorliegen.

Darum empfehle ich, die Frage anders zu stellen und vom zweiten Aspekt her aufzurollen: Wenn Third Party Data eine bestimmte Summe kosten, wie hoch muss dann der Uplift der Kampagne sein, um mindestens gleich effizient zu bleiben? Und wenn das Ergebnis lautet, dass der Uplift bei mindestens über 30 Prozent liegen muss, spätestens dann sollte ein Zukauf von externen Daten genauer hinterfragt werden beziehungsweise alle medialen Alarmglocken läuten.

Um jetzt nicht schon im Vorfeld zu kapitulieren, biete ich hiermit meine drei Faustregeln, die Ihnen beim Einsatz von Third Party Data im digitalen Marketing helfen können, gerne unverbindlich und kostenfrei an.

1. Datenqualität sehr genau prüfen!

Daten, die von einem Lieferanten oder einer Data Management Plattform angeboten werden, müssen vor dem Kauf unbedingt auf Herz und Nieren geprüft werden. Fragen Sie nach, wie die Daten gelabelt sind und ob sie wirklich aus dem Markt stammen, in dem sie später eingesetzt werden sollen.

Achten Sie darauf, wie die Daten generiert wurden: Handelt es sich dabei um „harte“ Daten oder waren bei der Erzeugung Hochrechnungsalgorithmen im Spiel? Sollten die Daten ursprünglich in der Offline-Welt gesammelt worden sein, muss auch geprüft werden, ob des Matching-Verfahren datenschutzkonform war. Und zu guter Letzt stellt sich die Frage, ob die angegebene Menge und Granularität der Datenprofile im Hinblick auf die Gesamtgröße der Zielgruppe tatsächlich glaubwürdig ist.

Überlegen Sie unbedingt im Vorfeld, wie Sie die Qualität der zugekauften Profile überprüfen können. Lässt sich etwa die Trefferquote der behaupteten Merkmale nachmessen – beispielsweise über ein Panel oder eine Onlinebefragung? Oder gibt es alternativ dazu in der Kampagne andere messbare Schlüsselwerte (KPIs), die durch die Daten verbessert werden sollen? Fällt die Antwort auf beide Fragen mit einem „Nein“ aus, lassen Sie die Finger von diesen Daten.

2. Den kürzesten Weg wählen!

Kampagnen, die auf Third-Party-Daten setzen, bekommen sehr leicht ein Mengenproblem. Warum? Weil die Zahl der angeboteten Profile in der Regel immer geringer ist, als man es gerne hätte. Insbesondere dann, wenn die Zielgruppe besonders spitz und die Datenqualität gleichzeitig hoch sein soll.

Um zu erläutern, warum die Menge an verfügbaren Daten so wichtig ist, kommen wir um einen kleinen technischen Exkurs nicht herum: Beim Einsatz von externen Daten in einer Kampagne erreicht man leider niemals alle übernommenen Cookies. Das heißt: Etliche Datensätze werden zwar gekauft, können aber nicht genutzt werden. Beispielsweise weil ein Teil der Cookies inzwischen von den Nutzern gelöscht wurde oder ein anderer Teil von Usern stammt, die sich nicht in den Umfeldern bewegen, in denen man diese wiederzufinden versucht.

Verschärft wird dieser Schwund dadurch, dass beim Übertragen der Daten vom System des Lieferanten auf das System des Käufers ein Abgleich der Cookies über den Browser der User erfolgen muss. Dabei müssen beide Systeme ihre Cookie-IDs austauschen. Durch diese Cookie-Synchronisation verringert sich die Menge der Daten erheblich, weil hierfür jeder User einmal von den Systemen gemeinsam auf einer Website angetroffen werden muss. Unsere Erfahrung zeigt: Im Optimalfall gehen durch diesen Prozess etwa ein Fünftel der angebotenen Profile verloren. Wird der Cookie-Abgleich schlecht umgesetzt, kann es aber auch ganz schnell mal mehr als die Hälfte sein.

Das Verlustrisiko lässt sich dadurch minimieren, dass der Cookie-Sync möglichst nahe an dem Ort erfolgt, an dem die Daten erzeugt oder online gebracht werden. Eliminieren Sie also alle überflüssigen Partner innerhalb der Lieferkette! Diese kosten nur Geld und reduzieren die Menge der einsetzbaren Daten. Falls der Datenlieferant schon eine Data Management Plattform einsetzt, können Sie die Daten vielleicht direkt in ihr Auslieferungssystem übernehmen und vermeiden so einen zusätzlichen Prozess der Datensynchronisation.

3. Vorher nachrechnen!

Eine simple Rechnung kann über das Schicksal Ihrer Datenkampagne entscheiden: Setzen Sie den Preis, den Sie für Third Party-Data zahlen sollen in Bezug zum Mehrwert, den Sie durch den Einsatz der externen Daten erzielen müssen. Fressen die Kosten für die Daten, die vermutete Leistungsverbesserung der Kampagne auf? Dann würde der Einsatz von Third Party Data die Effizienz der Kampagne nicht steigern. Wenn Sie selbst noch keine Erfahrungswerte haben, ob der Uplift, den die Daten erbringen müssen, realistisch ist, fragen Sie Experten, die Ihnen Benchmark-Größen liefern können.

Rechnen Sie beim Einkauf von Third Party Data auch mit Profilmengen und Zielgruppengrößen. Nicht immer rechnet sich der Zukauf von Daten. Tausend Nutzer, die beispielsweise trennscharf als Interessenten für eine besonders geruchsintensive Sorte Stockfisch identifziert wurden, mögen eine wertvolle Zielgruppe sein. Allerdings ist es eher unwahrscheinlich, dass es sich lohnt, diese Menschen über eine kontaktdoseneffiziente Wiederansprache mit einer Displaykampagne anzusprechen. Da sollten Sie lieber nach anderen, kosteneffizienteren Wegen suchen, um diese Fischliebhaber zu erreichen.

Ob sich der Einsatz von externen Daten im Online Marketing lohnt, können Unternehmen meist erst im Nachhinein beurteilen. Trotzdem kann es nicht schaden, auch im Vorfeld schon einmal ein paar simple Berechnungen anzustellen. Die härteste Währung sind dann sowieso die gesammelten Erfahrungen mit den Leistungswerten der Kampagnen. Wenn Anbieter von Third Party Data dort überzeugen können – sowohl was die Qualität der Daten als auch ihren Preis betrifft – dann haben sie jedoch gute Chancen, künftig zur Tafelrunde der Werbungtreibenden zu gehören.

Dieser Artikel wurde auf internetworld.de veröffentlicht.

Warum heißt es eigentlich Suchmaschine und nicht Findemaschine? Warum googeln Leute Google? Warum schreibt jemand aus Media über Search? Allesamt berechtigte Fragen, wobei ich die ersten beiden Fragen links liegen lasse und mich lieber auf die letzte konzentriere. Die Antwort darauf ist ebenso banal wie die eingangs erwähnten Fragen: Weil Search im Grunde nichts anderes ist, als eine werbliche Customer Journey in einem geschlossen Raum, in dem man gut durchlüftet. Wenn jetzt die Fragezeichen noch größer werden, dann kann man schon mal überlegen, ob Google eine Antwort hätte.

Suchmaschinenmarketing ist in der Handhabung viel zu komplex, als dass ich hier als versierter Laie etwas dazu sagen könnte. Es ist eine eigene Wissenschaft, die jedoch grundsätzlich ökonomischen Regeln folgt. Alles dreht sich um AIDA, wenn die Reise von generischen Begriffen zu Brand Keywords geht. Es geht um den Grenznutzen, wenn ich mir die Frage stelle, bis wohin ich mein Budget skalieren sollte. Dabei sind die Kosten des letzten zusätzlichen Click/Sale/etc. die Basis meines zukünftigen Handelns – und nicht der Durchschnitt. Und ja, es geht um das Recht des Stärkeren. Wer bekannter ist, seine Seiten hübsch optimiert hält (hier ist Finanzkraft sicherlich nicht hinderlich) und auch sonst sein Handwerk gut macht, wird überproportional profitieren. Im Grunde ist Suche also Werbeökonomie im Mikrokosmos. Allerdings ist der von mir sogenannte Mikrokosmos inzwischen eine monopolistische Milliardenindustrie.

Doch damit nicht genug: Darüber hinaus ist er einerseits ein Auffangbecken für erzeugtes Interesse durch anderweitige werbliche Maßnahmen und somit als Medium nahe am Kauf. Andererseits ist er – wie oben beschrieben – ein kompletter Sales-Funnel in sich. Diese Vielseitigkeit macht den Kanal so schwer greifbar bzw. lässt ihn nicht so simpel verorten oder auf ein schickes Strategie-Chart packen.

Hinzu kommt, dass es nicht nur eine gute Sales-Story aus Mountain View ist, wenn es heißt, dass auch Non-Brand-Search den Werbungtreibenden zu Diensten sein kann. Diese Botschaft können wir mit Erkenntnissen aus unserem Haus bestätigen, da gerade in diesem Bereich positive Werbewirkungsbeiträge und inkrementelles Umsatzwachstum auf der Habenseite der sympathischen Datenkrake zu verbuchen sind. Ob und inwieweit die Wirkungsbeiträge allerdings effizienter oder effektiver als andere Mediakanäle sind, kann nur im Einzelfall beurteilt werden.

Dabei steckt der Teufel im Detail: Denn ein bloßes Schielen auf Online-Attributionen greift insbesondere bei Multichannel-Anbietern mit hohem Offline-Werbe- und Umsatzanteil deutlich zu kurz und führt schlimmstenfalls zu Fehlallokationen. Hier können nur aufwendige Modellings Abhilfe schaffen, um die inhärente Eigenwirkung von Search von der lediglich Orientierung stiftenden Durchleitfunktion zu trennen.

Wie wird es aber nun zukünftig weitergehen? Der Mensch wird fauler, die Suche noch mobiler (androider) und zunehmend via Spracheingabe genutzt. Dadurch lernt Google mehr über uns, als manchem lieb sein mag. Dennoch wird das Gros der Menschen die Annehmlichkeiten persönlicher Suchergebnisse zu schätzen wissen, womit sich die Relevanz auch bei generischen (Non-Brand-)Suchen erhöhen wird. Das führt letztlich zu einer zielgerichteteren Inspirationsphase und das wiederum sind gute Karten für einen weiteren Bedeutungszuwachs des Kanals. Zudem ist Google ja nicht unbedingt für Stillstand bekannt und man darf sich fröhlich auf weitere Neuerungen einstellen.

Dieser Artikel wurde auf lead-digital.de veröffentlicht.

Deep Learning ist eine Teildisziplin der künstlichen Intelligenz (KI), deren Grundidee bis in die 1950er Jahre zurückgeht. Zur Massentauglichkeit hat es bisher zwar noch nicht gereicht. Mit den sinkenden Kosten für Chips und damit auch für Netzwerke sowie der stetig wachsenden Menge an Daten, die uns in digitaler Form vorliegen, erlebt das maschinelle Lernen allerdings seit ein paar Jahren eine beeindruckende Renaissance. Deep Learning ermöglicht es Computersystemen durch Interation, also der wiederholten Ausführung von Befehlen, bestimmte Muster in Datenmengen zu erkennen und diese immer weiter zu verfeinern. Kurz gesagt lernt Deep Learning Maschinen das Lernen. Die Einsatzbereiche sind schier unendlich, sie müssen lediglich eine Voraussetzung erfüllen: Daten in digitaler Form sollten in großen Mengen vorhanden sein, um brauchbare Muster zu extrahieren.

Deep Learning: Wieder erwachter Trend

Gerade Firmen aus dem Silicon Valley setzen aktuell verstärkt auf den wieder erwachten Trend. Die Evolutionsgeschwindigkeit, mit der Erkenntnisse aus den nun massenhaft vorhandenen Daten gewonnen werden, ist dabei enorm: Im Jahr 2009 hat ein Team um Geoffrey Hinton von der University of Toronto sich dem Thema Spracherkennung angenommen. Nach intensivem Training war die Software besser in der Lage, gesprochene Worte in geschriebenen Text zu übersetzen, als alle Vorgänger zusammen. Zwei Jahre später hat Google Daten seines Dienstes YouTube dem Deep Learning unterzogen und diese in verschiedene Kategorien unterteilen lassen. Mit dem Ergebnis, dass neben Kategorien wie „Menschliche Gesichter“ auch die Kategorie „Katze“ zum Vorschein trat, was für ein beachtliches Maß an Erheiterung sorgte.

Deep Learning hat sich seit dieser Zeit enorm weiterentwickelt. Erst vor wenigen Wochen hat das Google-Programm AlphaGo im Strategiespiel Go gegen den bis dahin dominierenden Champion Lee Sedol gewonnen. Von vielen wird das nun als Meilenstein der KI bezeichnet, auch wenn solche Ausflüge von Google eher als Spielerei zu sehen sind. Googles eigentliche Anwendungsfelder liegen eher im Bereich der Suche und der Darstellung der Suchergebnisse. Für das Unternehmen ist das so genannte Rank-Brain, das für noch bessere Suchergebnisse sorgt, deshalb weit wichtiger, weil es auch in Zukunft die Vorherrschaft im Suchmaschinenmarkt sicherstellen soll.

Deep Learning bommt

Die Liste mit weiteren aktuellen Beispielen ist schon heute lang –  und wird auch in Zukunft noch weiter wachsen.

  • Facebooks neuer Messanger M etwa wird mit Erkenntnissen des Deep Learning gefüttert, was zu ganz neuen Services führen kann. Durch maschinell gesteuerte Interaktionen kann sich der User damit beispielsweise ganz bequem einen digitalen Assistenten schaffen, der den Alltag durch interaktive Kalender- und Erinnerungsfunktionen erleichtert. Auch Chatbots werden bei Facebook, wie kürzlich auf der jährlichen Konferenz vorgestellt, durch maschinelles Lernen immer leistungsfähiger. Bis zu einem vollwertigen Assistenten, der einem die Reisen bucht und das Konto verwaltet, ist es also nicht mehr weit.
  • IBM, Oracle und Ebay arbeiten an neuen Lösungen, die durch Deep Learning erst ermöglicht werden. Ziel ist es dabei, die Technologie noch effizienter zu machen, um Suchergebnisse oder Vorschlagslisten noch genauer auf die Bedürfnisse der User abzustimmen.
  • Siri, Majel und Cortana sind Spracheingabesysteme, die in Smartphones der Plattformen iOS, Android und Microsoft die Eingabe und Suche erleichtern sollen. Die Vision sind Geräte, die sich nur mit der Stimme steuern lassen. Bei diesen Anwendungen geht es nicht mehr nur um die von einem Algorithmus getriebene Ergebnisliste, sondern auch darum, die semantischen Zusammenhänge schneller und besser zu erkennen und damit die Programme immer intelligenter zu machen.

Denkbar ist auch, dass Amazon diese Technologie nutzt, um Warenströme weiter zu verfeinern. Auf diese Weise könnte der Online-Händler seinem Traum, Ware quasi in Echtzeit zu liefern, immer näher kommen. Würde es Amazon nämlich gelingen, neue Vorhersagemodelle zu entwickeln, um Waren schon vorab in den jeweiligen Warenzentren zu lagern, bevor der Kunde seine Ware bestellt, muss der Händler nicht in jedem Lager den kompletten Warenbestand vorhalten. Dies ist zwar noch Zukunftsmusik, sicher ist aber bereits jetzt, das Amazon auch an Spracheingabegeräten wie Alexa arbeitet, die mit dem Internet verbunden sind und so den Alltag vereinfachen sollen.

Die Welt wird sich in den nächsten fünf bis zehn Jahren durch Deep Learning nachhaltig verändern. Auch auf die Arbeitsplatzentwicklung werden diese Neuerungen ihre Auswirkungen haben. Wir werden durch Deep Learning neue Erkenntnisse gewinnen, die ohne sie nicht möglich gewesen wären. Gerade der Datenschutz unterliegt hier großen Herausforderungen, da nicht alles, was möglich ist, auch zum Vorteil der Verbraucher angewendet wird. Die Herausforderung besteht darin, die richtigen Normen zu finden. Denn technische Grenzen oder auch Branchen, in denen Deep Learning nicht eingesetzt werden könnte, gibt es nicht. Sobald man – egal in welchem Bereich – bestimmte Muster erkennt, hat dies gewaltiges Potenzial zur Optimierung. Die neuen Erkenntnisse werden wiederum in den verschiedensten Sparten genutzt, um das komplette Potenzial auszuschöpfen, die Zuverlässigkeit zu steigern und die Technologie immer einfacher zu gestalten.

Dieser Artikel wurde auf internetworld.de veröffentlicht.

Wir als Agentur stellen das Bindeglied zwischen Kunde und Vermarkter dar und fungieren deshalb auch als Kontrollinstanz für die korrekte Auslieferung der Werbemittel. Für uns ist es daher sehr wichtig, durchgehend einen umfassenden Einblick, d.h. volle Transparenz und Kontrolle über die Kampagnenauslieferung zu haben. Nur so können wir bestmöglich sicherstellen, dass die Banner unserer Kunden auch dort erscheinen, wo sie gebucht sind und somit einen bestimmten Qualitätsstandard gewährleisten.

Bei einer Direktbuchung der Agentur beim Publisher haben im Regelfall beide Partner einen vollständigen Einblick in die Kampagnenauslieferung. Durch den Einzug der verschiedenen Typen von Programmatic Advertising in den deutschen Markt und damit auch in unsere tägliche Arbeit, muss der Punkt „Kampagnentransparenz“ nun aus einem neuen Blickwinkel betrachtet werden. Die für uns entscheidende Frage lautet: Wo wird ein Banner wann und wie ausgeliefert? Damit stehen wir vor einer neuen Herausforderung bei der Kampagnenbetreuung.

Wie AdVerification-Tools in Hinblick auf Transparenz helfen können, beschreibt Alice Riesmeyer im mediascale-Blog.

Vor allem im Online Marketing häufen sich die ständig wechselnden Modeerscheinungen und Buzz Words. Deswegen lohnt sich hier ein kritischer Blick: Sollten wir uns Hyperlocal Advertising merken oder verliert sich der Trend im Marketing Kosmos?

Hyperlocal Advertising beinhaltet alle Werbeformen, welche dem Nutzer je nach aktuellem Standort auf sein mobiles Endgerät gespielt werden. Auf diese Weise kann der Nutzer passgenau und individuell angesprochen werden. Doch zunächst einmal benötigen Werbetreibende die Standortdaten der End User. Wer kennt die Situation nicht: Nach dem Download einer neuen App öffnet sich direkt ein Fenster mit der Bitte, die App auf seinen aktuellen Standort zugreifen zu lassen. Sobald wir hier zustimmen, kann die App, im geöffneten Zustand, auf unsere aktuellen GPS Koordinaten zugreifen. Neben den gesammelten GPS Daten können des Weiteren WLAN Hot Spots als Datengrundlage verwendet werden. Im nächsten Schritt stehen diese Daten dann ebenso den Anzeigenkunden zur Verfügung.

Durch die neu gewonnen Daten kann In-App Werbung deutlich ortsbezogener gestaltet werden. Der Nutzer empfängt nun Werbung, welche sich auf seinen aktuellen oder vorangegangenen Standort bezieht. Durch diese maßgeschneiderte Ansprache des Nutzers können mobile Werbemittel deutlich effizienter ausgespielt werden.

Wofür genau und wie man Hyperlocal Advertising nutzen kann, beschreibt Caroline Frank im mediascale-Blog.

Ich habe inzwischen zu viele erstaunliche Studien und Veröffentlichungen in meinem beruflichen Leben gesehen, um noch ernsthaft überrascht zu werden. Aber bei der Überschrift Wird Native Advertising zum Totengräber der Display-Ad? wurde ich dann doch mal wieder neugierig.

Meine Erwartungen wurden allerdings ziemlich enttäuscht: Die Untersuchung basiert auf einer Befragung von 300 Teilnehmern des Native Ad Camps. Die wiederum sind mehrheitlich der Meinung, dass Native Ads die Zukunft gehört und sich deren Anteil am digitalen Werbemarkt bis 2020 um 150 Prozent steigern wird. Abgesehen von der Tatsache, dass man nicht erfährt, von welchem Ausgangswert wir sprechen, kann ich interessehalber auch 300 Pinguine befragen, was sie am liebsten essen – und es wird Sie überraschen: Die Antwort wird nicht Veggie-Burger oder Wiener Schnitzel sein.

Doch genug der Polemik hin zu den sachlichen Einschätzungen. Native Ads sind eine Bereicherung in der Mediaplanung und existieren seit mindestens zehn Jahren, wenn auch ohne konkreten Gattungsbegriff. In der Praxis bewährt haben sich eine Vielzahl an Variationen von Bild/Video oder Text eingebettet im Content der Seite, welche bei Interesse auf mehr oder minder glücklich gestaltete Landingpages verlinken.

Hinzu gekommen ist in Zeiten der abnehmenden Werblichkeit nunmehr eine Renaissance des Modells „Advertorial“ und allerlei anderslautender gutklingender Namen, bei denen Content des Werbungtreibenden auf Partnerseiten eingebunden wird und dann beispielsweise via Teaser, soziale Kanäle oder Einbindung in die Navigation seine Leserschaft finden soll.

Das kann funktionieren, aber wenn wir uns die aktuellen Angebote am Markt anschauen, dürfte die Ernüchterung größer als die Euphorie sein. Denn unter medialen Aspekten sind viele Angebote schlichtweg nicht wirtschaftlich. Wenn mich der Traffic auf einer solchen Seite einen Euro pro Aufruf kostet (und das kommt beim genauen Durchrechnen gar nicht so selten vor), dann ist das ein TKP von 1.000 Euro. Und da brauchen Sie dann schon sehr große Teaser-Pakete (mit entsprechender Eigenwirkung) oder sehr viele Wiederkehrer bzw. Folgeaufrufe, um eine plausible Rechtfertigung zu konstruieren. Dagegen sind Video-Seeding-Konzepte mit ungewissem Ausgang glatt ein Schnäppchen, unterliegen aber genau der gleichen Zwickmühle: Verbreitet sich egal welcher Content nach einem ersten medialen Impuls selbständig, entsteht Wirtschaftlichkeit. Im Regelfall passiert dies aber eben nicht und dann kommt man zu der Erkenntnis, dass eine Verlagerung des inhaltlichen Risikos vom Werbeträger zum Werbungtreibenden nur bedingt eine schlaue Idee war.

Für mich erwächst daraus die Bitte, genau in diesem Bereich die mediale Brille wieder stärker aufzusetzen und Konzepte zu entwerfen, die nicht nur im Salesfolder hübsch aussehen. Hierdurch entstünde dann Nachhaltigkeit und es wäre für Kunden und Agenturen leichter, sich noch stärker auf native Werbeformen einzulassen. Die können dann von mir aus 75 Prozent der Gesamtumsätze ausmachen, sich verdoppeln oder quadrieren. Die Hauptsache ist, dass sie einer Mediaeffizienz-Betrachtung standhalten.

Erschienen in Lead Digital

Es war wieder soweit. In Barcelona hat sich die weltweite Mobile Community auf dem Mobile World Congress (MWC) getroffen, um neueste Smartphones, Gadgets, Geschäftsmodelle, Konzepte und Infrastrukturen zu präsentieren und zu diskutieren.

Wobei: Community trifft es nicht ganz, denn die Zeiten, in denen sich dort ein eingeschworener Kreis von Nerds und „Mobilisten“ versammelt hat, sind endgültig vorbei. 101.000 Besucher aus 204 Ländern, beobachtet von 3.600 Pressevertretern. Das ist keine Nische mehr, hier geht um das große Geschäft – um die Zukunft der digitalen Wirtschaft, die maßgeblich von mobilen Trends und ihren großen und kleinen Protagonisten förmlich getrieben wird. Marktführer können sich ihrer Marktposition nicht mehr dauerhaft sicher sein. Disruption ist das Stichwort, gerade auf dem MWC. Man spürt es deutlich, alle sind in erhöhter Alarmbereitschaft, um nicht den nächsten wichtigen Schritt zu verpassen.

Mobile is everything. Das war das sehr treffende Motto der diesjährigen Messe. Was dem Mobilisten schmeichelt, kann dem Rest ein wenig Angst machen. Mobile verändert die Welt. Das ist auch der Tenor der zahlreichen hochkarätigen Keynotes: Mark Zuckerberg, Sir Martin Sorrell, Brian Krzanich und viele andere sprechen von einer allumfassenden Gezeitenwende. Und genau diese Dimensionen werden auf der Messe deutlich. Es wurden Lösungen für Mobilität, Healthcare, für Gaming und Sicherheit, für Arbeitsplätze und Zahlungssysteme und Lifestyle vorgestellt. Kurzum: eigentlich für alle Bereiche.

Wie bereits auf der CES im Januar in Las Vegas war auch in Barcelona Virtual Reality (VR) allgegenwärtig und ein echter Publikumsliebling. Ein Must war die „Rollercoaster-Fahrt“ im Samsung Gear VR 4D Theater. Eher enttäuschend dagegen der etwas lieblos wirkende VR-Auftritt bei LG mit deren VR-Brille LG 360 VR, die leider außerordentlich unbequem und unscharf war und zudem durch ihr kleines Format die Umgebung nicht abschottete. Der unmotivierte „Einheizer“ mit Megaphon hatte es offenbar bereits selbst ausprobiert und war schon desillusioniert. Punkt an dieser Stelle übrigens erneut für Samsung und deren Moderatoren

Ebenfalls bestechend sind die neuen „Internet of Things“-Produkte: Schon in Vegas ein heißes Thema setzt sich dieser Trend auch in Barcelona fort. Unsere Umwelt wird vernetzt. Ob wir das wollen oder nicht, es passiert einfach. Vielleicht dürfen wir uns noch entscheiden, wie aktiv wir daran Teil haben wollen und ob wir diese vernetzte Umwelt mitgestalten und ggf. regulieren wollen. Aber fest steht, dass in den nächsten Monaten immer mehr Angebote über uns hereinbrechen werden: Schmuck, nun auch elegantere Smartwatches, Zahnbürsten und vielleicht sogar clevere Mülltonnen, wie sie die Telekom vorgestellt hat.

Verwandt mit dem Internet of Things (IoT) ist das Smart Home. Auch hier geht die Reise weiter und nach den ersten prototypischen Jahren dürfen wir auch in diesem Bereich damit rechnen, dass es ein enormes Angebot an Möglichkeiten geben wird, unsere Wohnräume mit Technologien aufzurüsten – für  mehr Bequemlichkeit und mehr Sicherheit. Aufgrund der Menge an neuen Produkten ist es durchaus wahrscheinlich, dass die Preise für neue „Standardtechnologien“ wie vernetzte Steckdosen, Lampen und Heizungsthermostate fallen werden.

Der „Rolling BOT“, ein rollender Roboter von LG dagegen dürfte auch in naher Zukunft ein Exot bleiben. Aber immerhin ist es einer für interessante Einsatzbereiche, wenn man dem Hersteller folgt: So soll er für Sicherheit während der eigenen Abwesenheit sorgen, in dem er durch die Wohnung patrouilliert. Und außerdem könnte er in der Zeit auch die Haustiere bespaßen, damit es denen nicht zu langweilig wird.

Nun dann.

In diesem Licht erscheint der Smart Fridge von Samsung fast schon wieder sehr vernünftig. Für rund 5.000 US-Dollar wird er schon in Kürze in den USA zu haben sein. Und Mastercard hat auch direkt ein Abrechnungssystem entwickelt, damit ich reibungslos Lebensmittel und damit Nachschub für den Kühlschrank und die Familie bestellen kann. Ja, das fühlte sich gut an.

Und damit sich die (mobile) Welt noch schneller dreht, wird auch mit Hochdruck an der Weiterentwicklung der Mobilfunknetzen und Übertragungsgeschwindigkeiten gearbeitet. 5G war das allgegenwärtige Stichwort auf dem MWC. Die fünfte Mobilfunknetzgeneration soll ein Gigabit pro Sekunde erreichen, also circa zehn Mal schneller sein als LTE. Erste prototypische Ansätze wurden auf der Messe vorgestellt, unter anderem am Stand der Telekom oder der südkoreanischen SK telecom. Beide sind übrigens Teil der erst kürzlich gegründeten internationalen Netz-Allianz „ngena“, die ab 2017 grenzübergreifende mobile Netzservices für Geschäftskunden anbieten will.

Nur etwas hat am Ende natürlich doch gefehlt: Apple. Traditionell inszeniert sich einer der wichtigsten Player lieber exklusiv in eigenen Veranstaltungen. Und viele hecheln dem bisherigen Erfolgsgaranten hinterher. Gerade im Smartphone-Segment wünscht man sich da mehr (Design-)Selbstbewusstsein und nicht diesen Einheitslook. Samsung mit dem S7 Edge und der Gear 360 Kamera, aber auch Sony oder LG gehen hier mitunter gute eigene Wege.

Nun, was sind die Learnings für die Marketingwelt?

Die neuen Plattformen der mobilen Service- und Interaktionswelt müssen zielgerichtet von Marken und Medien bespielt werden. Wie im „traditionellen“ Mobile Marketing müssen auch alle neuen mobilen Gadgets und die IoT-Welt mehrwertorientiert eingesetzt werden. Dafür braucht es schlaue Konzepte und Fingerspitzengefühl, damit wir Nutzer nicht überfordern, verängstigen oder gar verärgern. Ein inhaltlich vorsichtiger Umgang wird zur neuen Herausforderung, denn in einem Markt, wo plötzlich alles möglich wird, wird vermutlich auch erstmal alles ausprobiert.

Und es braucht neue Organisationsformen um die Herausforderungen zukünftig stemmen zu können. Es muss flexible, interdisziplinäre sowie Marken-, Technologie- und Agentur-übergreifende dynamische Teams geben, die Lösungen erarbeiten. Die Zeiten, in denen ein Teil der Kette als alleiniger Wissensträger agiert, sind vorbei. Dafür bewegt sich der Markt zu schnell – zu schnell für einen alleine.

Mobile ist alles. Und Mobile ist die Zeit der Kollaboration. Und genau darauf freue ich mich.

Der Artikel wurde auf lead-digital.de veröffentlicht.