Beiträge in der Kategorie "Technik"

Adobe SiteCatalyst ändert Regeln für Suchwort-Reports

  • Welche Suchworte bringen den meisten Umsatz?
  • Funktioniert mein SEO?
  • Welche Begriffe werden wichtiger für meine Kunden?

Jedes Web-Analyse-Tool kann solche Fragen mit Leichtigkeit beantworten - leider nicht immer gleich.

Mit dem letzten Release der Adobe Marketing Cloud wurde das sogenannte Allokationsmodell für Suchworte in SiteCatalyst geändert. Ein trockenes Thema mit Auswirkungen auf 40% bis 67% der Suchen:

Bislang wurde jeder Erfolg (Verkäufe, Registrierungen, Likes) dem ersten Suchwort des Besuchs zugeordnet. Nach der Änderung ist es nun das jeweils letzte Suchwort. Für den idealen Nutzer also, der einmal sucht und dann gleich konvertiert, ändert sich nichts. Für einen großen Teil der Suchwörter verschiebt sich jetzt aber die Anzahl der Konversionen - und damit die Basis der SEO- und SEM-Maßnahmen.

-

Für “einen großen Teil”? Meiner Erfahrung nach benutzen ein Viertel bis zur Hälfte der Nutzer mehr als nur ein Suchwort pro Besuch. Nutzer “sammeln” zum Beispiel offene Browsertabs und sichten diese später. Oder Nutzer verschmähen die Seiten-eigene Navigation und versuchen über Google die gewünschte Unterseite zu finden. Selbst wenn jeder dieser Nutzer nur zwei Suchworte verwendet, sind 40% bis 67% der Suchen betroffen.

Fazit: Im besten Fall heben sich die Änderungen gegenseitig auf. Es können aber auch Verschiebungen hin oder weg von Brand-Keywords oder zwischen einzelnen AdGroups passieren.

Da die Änderung individuell sein wird, können wir keine Empfehlung geben, außer: Jeder SEM-Verantwortliche sollte seine SiteCatalyst-Berichte im Auge behalten und überprüfen, ob es starke Schwankungen zwischen Vorher und Nachher gibt.

-

Ein Beispiel: Ein Besucher recherchiert “online hosen kaufen“. Ein Klick auf das Suchergebnis zu myhosen.de und der Besucher ist im Shop. Einige Klicks und viele Hosenmodelle später ist die Übersicht verloren gegangen. Also zurück zu Google und nach “myhosen tweedhose” gesucht. Klick, Landung auf der Detailseite, Kauf.

Früher wäre der “Gewinner” “online hosen kaufen” gewesen. Jetzt ist es das Brandkeyword “myhosen tweedhose“.

-

Über die Frage, welches Ergebnis “richtig” ist, lässt sich sicher streiten. Zumindest aber sollte das Marketingbudget und die SEO-Strategie sich jetzt nicht plötzlich ändern. Das Nutzerverhalten ist nämlich immer noch das gleiche.


am 28. Februar 2013 unter Analytics, Technik
1 Comment

Firefox mag keine 3rd-Party-Cookies mehr

Kein Aprilscherz: Geht alles seinen geordneten Gang, dann wird Firefox ab der Version 22 (erste Version  ab 1. April) nicht mehr alle 3rd-Party-Cookies akzeptieren - und damit zu erheblichen Problemen beim Tracking führen.

Update: Warum alles nicht so schlimm ist - und warum vielleicht aber doch.

-

Was passiert genau?

3rd-Party-Cookies werden mit der neuen Firefox-Version 22 nur noch akzeptiert, wenn der Nutzer schon Cookies von diesem 3rd-Party-Anbieter akzeptiert hat.

Dieses Verhalten soll sicherstellen, dass zum Beispiel Cookies von Identity-Providern wie Google oder Facebook weiterhin funktionieren - übliche Trackinglösungen aber nicht.

-

Warum betrifft mich das?

Viele Web-Analytics-Lösungen verwenden 3rd-Party-Cookies, um Nutzer eindeutig wiedererkennen zu können.

  • Adobes SiteCatalyst z.B. verwendet die Domain .2o7.net (für diese Seite contentmetrics.112.2o7.net).
  • Webtrekk setzt für diese Seite Cookies auf contentmetrics01.webtrekk.net.

Ohne diese Cookies fällt es den Trackinglösungen schwer, verschiedene Besuche einem einzigen Benutzer zuzuordnen. Damit sind dann Betrachtungen, die die Langzeitwirkung von Werbung untersuchen (z.B. Customer-Journey-Analysen) oder Targeting nicht mehr möglich.

Ob Firefox-Nutzer bei Ihnen ein nennenswertes Segment sind, lässt sich leicht nachschlagen. In Deutschland ist Firefox jedenfalls einer der beliebtesten Browser mit teilweise über 40% Marktanteil.

-

Was kann ich machen?

Die meisten Trackinglösungen bieten an, sogenannte 1st-Party-Cookies zu verwenden. Dabei werden die Cookies auf der eigenen Domain (hier also .smartmetrics.de). Diese Cookies bleiben in der neuen Firefox-Version erlaubt.

Der Wechsel ist nicht schwierig, erfordert aber eine enge Zusammenarbeit zwischen Business, IT und dem Toolhersteller. Wir wissen, was zu tun ist, und begleiten Sie durch den Prozess.

Alternativ können die Hersteller selbst Opt-in-Seiten bereitstellen. Die Zustimmungsrate wird aber kaum ausreichen, um statistisch signifikante Daten zu erhalten. Oder die Hersteller lassen sich auf ein Wettrüsten ein und versuchen die Browsereinstellungen zu umgehen.

Uns erscheint der Wechsel auf 1st-Party-Cookies als die verlässlichere Lösung.

-

Wieviel Zeit habe ich?

Am 2. April wird die Version 22 als Alpha veröffentlicht, um ausgiebig getestet zu werden. Einige Wochen später gibt es eine öffentliche Beta-Version und am 25. Juni erfolgt dann der offizielle Release.

Die Auswirkungen treten aber erst nach und nach ein. Anfangs werden viele Nutzer noch Tracking-Cookies haben. Über die Zeit werden aber immer mehr Nutzer ihre Cookies zumindest einmal gelöscht haben. Und um den Druck noch zu verstärken, plant Mozilla, in Zukunft 3rd-Party-Cookies selbsttätig zu löschen, wenn der Nutzer nicht innerhalb einiger Wochen eine Seite dieses Anbieters besucht.

-

Kontakt

Telefon: +49 (0) 89 2196 515 - 15 (Melanie Schmid)

Email

Kontaktformular

-

Quellen

Mozilla Release-Kalender

Offizielle Beschreibung des Features

FAQ

Vorschlag zu automatischen Löschung von 3rd-Party-Cookies


am 25. Februar 2013 unter Analytics, Technik
3 Comments

Link storm: trends of 2013 and some bread and butter links for the weekend

The big trends of 2013: Multiple touch points, more focus on ROI, Big Data, and some more:
http://www.baekdal.com/trends/2013-what-to-focus-on/

The BBC’s ‘guide to the next 150 years’:
http://www.bbc.com/future/story/20130102-tomorrows-world

-

And here is some take on topics which are still important: Understand and use customer journey data, keep your customer base (happy), care about users’ with mobile devices, and worry about data quality:

-

The terms ‘attribution’ is and ‘customer journey’ are still in the air. Is it just a bubble or is it important for your business?
http://john.webanalyticsdemystified.com/2013/01/07/re-examining-attribution/

-

Big parts of the marketing budget go to traffic acquisition. If you already have an established brand and positive reviews, you should also worry about your loyal customers/visitors. Both monetization and word-of-mouth come to mind. Mr. Dennis Mortensen about reader churn:
http://visualrevenue.com/blog/2012/12/minimizing-reader-churn-for-non-subscription-news-properties.html

-

German Web Analytics tool provider Webtrekk just released Q4 figures on the German online landscape. The share of mobile devices in their panel grew from 8.2% to 13% between Q1 and Q4. Serve them or lose them.
http://www.webtrekk.com/fileadmin/pdf/pm/2013/Webtrekk_Langzeitstudie_Q4_2012_DE.pdf (pdf, German)

Side note: 3rd party cookie acceptance is 90.4%.

-

The IAB (US-based ‘interactive advertising bureau’) has started to define some standards around site tagging. This field is getting more exciting with the appearance of free tag management systems, but still is an ongoing strive for almost all companies.
http://www.iab.net/sitetagging

Mr. Stéphan Hamel’s take on the topic: http://www.cardinalpath.com/site-tagging-best-practice-standard/


am 11. Januar 2013 unter Analytics, Link Storm, Markt, Technik
1 Comment

1080p oder der Ergonomie-Gau

In meinem Keller fand ich neulich eine dicke, wattierte Tasche aus schwarzem Kunstleder. Darin ist mein erstes Notebook aus den frühen Neunziger Jahren des letzten Jahrhunderts aufbewahrt. Es ist auch gleichzeitig das erste Notebook von Siemens-Nixdorf, und damit das jeder sehen kann, steht in schöner Schreibschrift “Notebook” auf dem Klappdeckel. Ich könnte mich jetzt über 6 MB Hauptspeicher, einer 100MB Festplatte und den guten alten 80386 mit Co-Prozessor auslassen, das ist aber gar nicht mein Thema.

Vielmehr verfügt dieses urzeitliche Gerät über einen Bildschirm mit einer Auflösung von 640*480 Bildpunkten, vulgo “Pixeln”.

Dieser Artikel wird geschrieben auf einem modernen, aber auch schon in die Jahre gekommenen Notebook (nunja, wer’s mal gesehen hat …) mit einem Display von 1920*1280 Pixeln. Ich brauch halt meinen Platz. Und zwar in der Vertikalen.

Dieses Gerät (das aktuelle) wollte ich nun austauschen gegen was neueres, hauchen doch so einige mechanische Teile zunehmend ihren Lebensgeist aus. Also flink gesucht nach einem flotten 17-Zoll Notebook.

Was man so angeboten bekommt, hat zwar alles 17 Zoll “Diagonale”, aber man muss schon suchen, wenn man einen Händler oder einen Hersteller finden möchte, der sich mal herablässt die effektive Auflösung der Displays anzugeben. Was man findet sind allgeläufige Kürzel wie “WXGA”, WUXGA” “Full HD”, “HD”. “WÜRG” hatte noch keiner geschrieben, das war aber so meine Erste Eingebung - Leute was sollen denn diese Akronyme bedeuten, diese Begriffe sind weder irgendwem verständlich, noch geläufig geschweige denn genormt.

Aber werden wir nicht polemisch, bleiben wir bei den Fakten:

Gegenüber dem Museumsstück von oben haben wir also: Breite * 3, Höhe * 2

Ein Din-A4 Brief hat ein Hochformat.

Ergo: In der Höhe kaum Zugewinn (warum siehe unten), der immense Zugewinn in der Breite in den meisten Anwendungen komplett ungenutzt.

Nun haben wir “Full HD”. Bedeutet in der Praxis: Vertikal sind maximal 1080 Pixel drin. Die Kathodenstrahl-Monitore um die Jahrtausendwende hatten genauso viel. Man hatte nur rechts und links weniger Platz. Aber der ist heute (und im Moment) durch ungenutzte weiße Fläche belegt.

Wer jemals eine moderne Software-Entwicklungsumgebung wie z.B Eclipse benutzt hat, weiß wozu man 24-Zoll Bildschirme braucht und warum. Microsoft garniert seine neuesten Produktversionen mit Bedienelementen, genannt “Ribbons”. Viele Programme kommen mit umfangreichen Toolbars, Button-Leisten und Menü-Leisten daher. All dies benötigt Platz. Auch in der Vertikalen.

Somit schrumpft der “Nutzbereich”, das Editierfenster, auf ein Minimum zusammen: Windows Statusleiste, Fenstertitel, Menüs, Ribbons, Statusleiste des Editors, Lineale und Tabulatorleiste.

Übrig bleiben vielleicht mal gerade 10 - 15 Zeilen Dokument zum editieren. Von rd. 30 - 40 auf einer Din-A4 Seite.

Vielleicht bin ich ja altmodisch, aber ich empfinde es als erheblichen Vorteil, viel Text im Zusammenhang lesen zu können, ohne ständig rauf und runter zu scrollen. Ich bewundere die Gleichmütigkeit meiner Kollegen, die das fast als gottgegeben hinnehmen und noch nie eine ganze Seite Text auf einmal im Editor gesehen haben. Liebe ostasiatische Panel-Hersteller, ich kann so nicht arbeiten …

Auf meinem derzeitigen Notebook mit 1200er Auflösung bin ich hier noch nicht am unteren Rand des Bildschirms angelangt. Und auf meinem 20 Jahre alten Trum von oben im übrigen auch nicht, denn da wurde mit “Bedienzierrat” deutlich weniger verschwenderisch umgegangen. Liebe amerikanische Software-Hersteller, ich kann so nicht arbeiten …

Ich halte “Full-HD” für einen Fernseher für angemessen oder für einen Projektor mit dem man Filme ansehen oder Spiele spielen möchte. Im Büro oder als Display eines Business-Notebooks, an dem Texte erfasst, Tabellen bearbeitet oder Software entwickelt werden soll, ist es der ergonomische GAU.

“Full-HD” oder 1080p ist eine Fernseh-Norm zur Übertragung hochauflösender Video-Informationen. Keineswegs ist sie ein geeignetes Format zur Bearbeitung von Dokumenten, Texten, Tabellen o.ä. Warum werden diese Formate dann in Notebooks und Bildschirme verbaut? Na, es werden keine anderen Panels mehr hergestellt als diese. Es gibt keinen anderen erklärbaren Grund.

Was hinzukommt ist die Tatsache, dass viele “Web-Designer” offensichtlich immer noch mit dampfbetriebener Vorkriegshardware arbeiten und ihre Websites auf fixe 1024 Pixel Breite auslegen. Aber das ist noch mal ein anderes Thema.

Was bleibt ist also: Fehlender Platz in der Vertikalen und ungenutzter Platz in der Horizontalen. Offensichtlich folgt die Entwicklung von Panels für Notebook-Displays im Moment den Schleifen der natürlichen Evolution: kaum dem Wasser entkrochen, springen wir wieder rein.

Wann steht der erste Betriebsarzt oder der erste Augenoptiker auf und lamentiert? Was ist mit dem Design-Grundsatz “Form follows function”? Hier gilt wohl eher: “that’s the form, take it or leave it, forget the function.”

Nebenbei: Ich habe mich entschlossen mein altes Notebook zu behalten und die defekten Mechanik-Teile auszutauschen. Das ist allemal billiger und ich habe eine Bildschirm-Auflösung, die wenigstens einigermaßen annehmbar ist. Und die Hoffnung (auf bessere Displays) stirbt bekanntlich als letztes …


am 6. Dezember 2012 unter Markt, Technik
2 Comments

Link storm: Big Data, the US election, AU consumers, and some tech stuff

Big Data and the US election

-

Big Data is beautiful! (Can be spooky as well.)

  • What if you combine census data, electronic payments, and some market intelligence? You will get a very detailed view of consumer behaviour. Example: Single females in their early thirties, medium income, living in Sydney? They like to meet at the Opera bar and the Excelsior Hotel, buy furniture at JB Hi-Fi, and love the Sydney Salsa Congress.
    http://peoplelikeu.com.au/
  • Stéphane Hamel praises Tableau, a software for data analysis and visualisation. If he likes it, it will be worth a look:
    http://www.cardinalpath.com/tableau-v8-0-the-analyst-chalkboard/

-

“Do Not Track” (DNT) updates:

-

Automatic link tracking can be hard, especially if you have several links to a target on the same page. Google announced an automagic solution for that:
http://analytics.blogspot.de/2012/11/announcing-enhanced-link-attribution.html

You should discuss this with your site administrator, though. Google relies on a unique link ID. So you may need to put custom tags on each link - in which case you would’ve been able to track those clicks anyway.


am 9. November 2012 unter Analytics, Link Storm, Technik

Link storm: data-informed culture, mobile marketing, the power of social, and some tool announcements

Beth Kanter on analytics, data visualization, and the data-informed culture. 59 slides well worth your time:
http://kdpaine.blogs.com/themeasurementstandard/2012/09/beth-kanters-data-visualization-slideshow.html

-

Mobile marketing: Add value and support your customers! Avinash Kaushik has some extremely valuable real-life do’s and don’ts:
http://www.kaushik.net/avinash/mobile-marketing-customer-data-acquisition-behavior-targeting/

-

Want to track phone calls initiated by the number in your mobile add? It’s possible with SiteCatalyst. It’s also technical, but it works.
http://blogs.adobe.com/digitalmarketing/digital-marketing/mobile/click-to-call-tracking-on-mobile-devices/

Want to know more about data I/O with SiteCatalyst? Here’s an overview:
http://blogs.adobe.com/digitalmarketing/analytics/how-to-get-data-in-and-out-of-sitecatalyst-part-i/

-

The new Adobe Social combines social media publishing, moderation and controlling.

http://www.adobe.com/products/social.html

And they are publishing several articles on social media topics to support the product launch:
http://blogs.adobe.com/digitalmarketing/category/digital-marketing/social-media/

-

Google Analytics offers a new way to deal with the time consuming part of report creation. They now offer a “shortcut” to, which is like a bookmark. It saves almost all configuration, including segments and sorting.
http://analytics.blogspot.de/2012/08/get-to-your-data-faster-announcing.html

-

Webtrekk adds a tag management system to it’s portfolio: “SafeTag”.
http://www.webtrekk.com/fileadmin/pdf/pm/PM_2012/Webtrekk_SafeTag_Meldung_2012-08-21.pdf (PDF)


am 7. September 2012 unter Analytics, Link Storm, Markt, Technik

Google’s Initiative zur Qualitätssteigerung - was sind Panda und Penguin und welchen Einfluß haben die neuen Suchalgorithmen?

Qualitätssteigerung der Suchmaschinenergebnisse

Vor gut einem Jahr startete Google mit dem neuen Panda Algorithmus die Qualitätsoffensive auch für Deutsche Seiteninhalte. Mittels Panda sollen seitdem qualitativ höherwertige Seiten gestärkt werden und verdientermaßen bessere Such-Rankings erlangen. Spannend ist insbesondere der Ansatz, die Qualität von Webseiten an deren Inhalt zu bemessen. Dabei sollen diverse Faktoren verknüpft und zur Bewertung herangezogen werden. Besonders vor der Einführung von Panda wurde viel diskutiert, welche Auswirkungen die Anpassung haben würden und welche Webseiten genau betroffen sein könnten. Das erste Rollout für Deutsche Inhalte betraf ca. 6-9% aller Suchen und seitdem folgten weitere, kleinere und größere Releases, die von der Öffentlichkeit mehr oder weniger unbemerkt blieben - der letzte am 19.4. mit der Version 3.5.

Bereits kurz nach dem letzten Panda-Release folgte der Penguin-Algorithmus und ergänzt das tierische Duo in Google`s Engagement für höhere Qualität in den Suchmaschinenergebnissen. Während Panda insbesondere auf die Bewertung der Qualität abzielt, soll nun Penguin lediglich Webspam-Seiten betreffen, die Google`s Qualitäts-Richtlinien widersprechen. Seit dem Release am 24.4. sollen von Penguin nun ca. 3% der Suchen betroffen sein. Zudem sind laut Google`s Angaben primär Inhalte betroffen, die wegen Verstoßes gegen die Webmaster Guidelines bereits abgemahnt wurden. Die kompletten Richtlinien sind im Google Webmaster-Support nachzulesen.

Worauf zielt Penguin ab?

Der neue Penguin Algorthmus betrift laut offiziellen Aussagen primär Seiten mit Keyword-Stuffing oder speziellen Linkmustern. Da Keyword-Stuffing (die ziellose Auflistung von Keywords im Header) bereits seit langem als Kriterium zur Deindexierung gilt, sind die sog. Linkmuster die weitaus spannendere Neuerung. Linkmuster kennzeichnen insbesondere schlechte Inhalte, die eine Vielzahl systematische angeordneter und irrelevanter Links enthalten; wie etwa typische Keyword-Links zu statischen SEO-Texten.

Wie erkennt man, ob die eigene Seite betroffen ist?

Da laut Aussage von Google das Update primär Inhalte trifft, die gegen die Qualitätsrichtlinien verstoßen, so sollten die betroffenen Seitenbetreiber bereits eine Penalty-Mail über Ihren Webmaster Account erhalten haben. Ist dies nicht der Fall, so handelt es sich in diesen Fällen vermutlich um „Kollateralschäden“, die bei jedem Algorithmus-Update auftreten können.

Hat man den Verdacht vom Update betroffen zu sein, sollte man zunächst die eigenen Seitenstatistiken genauer analysieren. Wurden nach Releases Traffic-Einbrüche gemessen, so könnte dies durchaus an einem der Updates liegen. Jedoch müssen auch andere Traffic-Quellen analysiert und saisonale Effekte in Betracht gezogen werden. Bestätigen die Referrer-Analyse und andere Seitenstatistiken (bspw. Keyword-Reports) den Verdacht, sollte man sich überlegen, auf welche Weise der ursprüngliche Zustand wiederhergestellt werden kann.

Welche Maßnahmen kann man ergreifen?

Ist die eigene Webseite tatsächlich von Panda oder Penguin betroffen, kommen nur wenige Maßnahmen in Betracht, um diesen Umstand rückgängig zu machen. Grund hierfür ist die Tatsache, dass eine Deindexierung bei groben Verstößen von Google selbst wieder aufgehoben werden kann, wobei dies bei Änderungen am Algorithmus leider nicht funktioniert. Dennoch stellt Google im Webmaster-Forum ein Feedback-Formular bereit, über das sich betroffene Webseiten-Betreiber melden können. Dies bietet jedoch akut keine Abhilfe, sondern zielt vor allem auf die Verbesserung zukünftiger Updates ab. Als Gegenmaßnahme bleibt final nur die Optimierung der Qualität der eigenen Seite, hinsichtlich der Richtlinien von Google. In jedem Fall hilft es jedoch herauszufinden welches Update die Ursache war, konkret: Treten die Effekte erst seit 24.4. auf, so ist dies ein Indiz auf Penguin und somit ein Hinweis darauf, welche Maßnahmen die größten Erfolge erzielen. Nach aktuellem Stand könnte dies bei Penguin etwa die Analyse und Optimierung der Linkstruktur sein.

Da es in der Regel keinerlei präventive Maßnahmen gibt, die man ergreifen kann, so ist das beste Hilfsmittel das ständige Monitoring der eigenen Seite. Dadurch lässt sich nicht nur schnell erkennen, ob sich externe Faktoren negativ auswirken, sondern im Idealfall auch eingrenzen, welche dies sind.


am 23. Juli 2012 unter Analytics, Markt, Technik
2 Comments

Customer Journey

Neben den traditionellen Web Analytics Methoden versuchen manche Hersteller im Online Marketing eine neue Analyseform für Werbemittelnutzung, speziell für Displaywerbung, zu etablieren - die „Customer Journey”.

Unbefangene erwarten bei einer Customer Journey die Abbildung von Geschäftsbeziehungen und Überzeugungsgraden, (also den Customer Lifecycle) ergänzt um den Übergang zwischen diesen Zuständen - oder, etwas weniger formell die Antwort auf folgende Fragen:

  • Wieviele Erstkontakte machen wir und wie?
  • Wieviele unserer Besucher können ihr Bedürfnis schon in Worte fassen und warum?
  • Wieviele kennen schon unsere Lösungsangebote, die zu ihren Bedürfnissen passen? Und woher?
  • Wieviele haben bereits erkannt, dass unser Preis-Leistungsverhältnis für sie passt? Was war das wirkungsvolle „Argument”?
  • Wieviele haben neu gekauft?
  • Wieviele verspüren nach einem Kauf/Abschluss bereits ein Folgebedürfnis? Ist es ein neues Bedürfnis oder ein Upsell?

Doch - Ach! - die am Markt befindlichen Customer- Journey-Produkte sagen einem nur, welche verschiedenen Werbemittel(-gruppen) vor einem Kauf in welcher Reihenfolge geklickt wurden. Wenn man “Pech” hat, werden auch noch die Views in diese Werbemittelnutzungspfade eingebaut. Und wenn man ganz viel “Pech” hat - dann bekommt man diese Pfade nicht nur für die Käufe, sondern auch noch für jeden beliebigen Zustand dazwischen.
Doch ich greife voraus - bleiben wir zunächst dabei und verwenden statt dem hochtrabenden Begriff “Customer Journey” den langweiligen Technikbegriff „Werbemittelnutzungspfad”.

Wie funktioniert die Messung des Werbemittelnutzungspfad?

Customer-Journey-Tools messen die Views und Klicks auf Kampagnen in Werbenetzwerken und erlauben somit Analysen über die sogenannten Touchpoints der potentiellen Kunden auf Werbemittel. So können auch die Kampagnen herausgefunden werden, die nicht direkt zur Konversion geführt haben, jedoch an dem Konversionsprozess beteiligt waren.

Die einzige Voraussetzung ist, dass der Nutzer immer mit demselben Endgerät im Netz unterwegs ist und selten seine Cookies löscht. Die Cookie-Lösch-Quote liegt bei ~20%. Aber wer von Ihnen nimmt den Bürorechner mit nach Hause oder verwendet ihn gar zum mobilen Surfen?

Die Ziele der „Customer Journey”-Analysen aus Analystensicht:

  • Die Abbildung des Online-Werbemittelnutzungspfades (der Verlauf sowie Anzahl und Art der Touchpoints auf Werbemittel und -Kanäle)
  • Eine gewichtete Erfolgs- und Kostenverteilung der an der Customer Journey beteiligten Maßnahmen aufzuzeigen
  • Ein besseres Verständnis für die Werbemittelnutzung zu erlangen

Die herkömmliche Erfolgsanalyse betrachtet i. d. R. die reinen First- oder Last-Cookie-Wins-Verteilungen. Diese Sicht ist bei vielen Vermarktern nach wie vor die einzige Sicht für die Abrechnung, sie entspricht aber nicht den Anwenderanforderungen:

  1. Alle Werbekosten lückenlos einzubeziehen
  2. Eine gewichtete Zuweisung von Erfolg und Kosten auf Kanäle/Partner bzw. Werbemittel

Insofern treffen diese Tools durchaus auf ein prinzipielles Bedürfnis.

Anforderungen an Customer Journey Tools

Für den Analysten stellt sich nun die Frage nach der Gewichtung: Ist jeder Touchpoint gleichwertig, oder sind die Letzten bzw. Ersten stärker zu bewerten?

Die Gewichtung pro Touchpoint kann abhängig gemacht werden von der Anzahl und von der Art des Touchpoints. So sind zumeist Views deutlich geringer zu gewichten als Klicks, da Klicks eine aktive Aktion des Kunden darstellen. Der letzte Touchpoint, der letztendlich zur Konversion führt, bekommt i.d.R. die stärkste Gewichtung, oft wird aber auch der Erste als besonders wichtig angesehen. Eine denkbare Gewichtung wäre also 30% des Ertrags gelten als Erfolg für den Erstkontakt, 40% für den letzten und 30% für alle Kontakte. Wie immer in der Kostenrechnung ist aber auch hier die Zuordnung natürlich willkürlich. Ich empfehle daher, sie innerhalb eines Unternehmens und Jahres wenigstens konstant zu halten.

Stärken Customer Journey

  • Komplette Sichten der Touchpoints von einem Device und der Interdependenzen auf Online Marketing-Maßnahmen
  • Relativ einfache Vertaggung auf der Website - alle Landing Pages plus Konversionspunkte.
  • Post View Conversion (nur Display Ads!) wird meist mit abgebildet.
  • Verursachungsgerechte Kostenermittlung der Konversion. Die gewichteten Maßnahmen oder Werbekanäle können mit Ihren Kosten der Konversion gegenübergestellt werden. Voraussetzung: Die Kosten (Fix- und variable Kosten) für die Maßnahme liegen vor und lassen sich eindeutig zuordnen.

Schwächen Customer Journey

  • Customer-Journey-Tools bilden den Werbemittelnutzungspfad pro Device ab. Nutzt ein- und derselbe Kunde mehrere Endgeräte, so wird er pro Endgerät einen Werbemittelnutzungspfad hinterlassen - sofern Cookies das einzige Identifikationsmittel sind. Was sich bei einer „Last Cookie Wins” -Betrachtung naturgemäß weniger stark auswirkt als bei Analysen von Wechselwirkungen.
  • Importe von Stornos, Retouren etc. sind eine Domäne der klassischen Web Analytics Tools
  • Analysen sind nicht möglich 1

Summary

Die derzeitigen Customer-Journey-Tools bieten aus unserer Sicht noch keine kompletten Analysemöglichkeiten auf den Erfolg der Kampagnen. Sie bilden den Werbemittelnutzungspfad ab und liefern somit wertvolle Antworten auf die Frage:

  • Welche Kanäle, Werbepartner und Werbemittel werden bevorzugt genutzt und welchen Beitrag zur Konversion liefern sie?

Aber es bleiben auch einige Fragen unbeantwortet:

  • Ich bediene immer 5 Kanäle und stelle fest, dass 3 Kanäle immer am Erfolg beteiligt sind. Kann ich dann die Schlussfolgerung treffen, mich ausschließlich auf diese 3 Kanäle zu fokussieren?
  • Wie hoch waren die Kosten der Maßnahmen im Bezug zur Konversion?

Fußnoten

Fußnote 1:

Eine Analyse ist aus folgenden Gründen nicht möglich:

1. Datengrab Werbemittelnutzungspfad

Baut man den Werbemittelnutzungspfad auf Basis der einzelnen Trackingcodes auf, indem man sich nicht nur die verwendete Kampagne oder den Kanal sondern tatsächlich das einzelne Werbemittel merkt, so müssen bereits kleine Marketingabteilungen mit nur 20.000 unterschiedlichen Marketing-Links mit rund 20.000³ = 800.000.000.000 verschiedenen Pfaden mit maximal 3 Kontakten rechnen. Bei nur 80.000.000 Einwohnern ist also jeder Pfad der Länge „3″, der von 2 Nutzern verwendet wurde, ein „interessanter” Ausreißer!

Erfasst man aber nur den Kanal oder die Kampagne, so stellt man leider fest,

  • nur für 15% der Nutzer sind zwei unterschiedliche Kanal-Kontakte nachweisbar.
    [Die Direkteingabe inkl. Der Branded-Search sehe ich hier ausdrücklich nicht als Kanal.]
    (Liebe Hersteller, ich erwarte ungeduldig Ihren untermauerten Widerspruch!)
  • die Resultate sind etwas grob. Wer möchte schon auf das gesamte SEM verzichten, weil er die ineffizienten Keyword-Groups nicht erkennt?

2. Kosten-Nutzen-Betrachtungen

Eine Kosten-Nutzen-Betrachtung einer Kampagne ist nur möglich, wenn die gewichteten Erfolge/Erträge einer Kampagne ihren Kosten gegenübergestellt werden. Die Kosten sind aber auf Ebene der Kampagne zumindest für den wichtigen Kanal SEM sehr heterogen. Für alle Kampagnen mit homogener Kostenstruktur bekomme ich neben den Views², Klicks, Umsätzen, Deckungsbeiträgen und „CPO” dann auch „Gewichtete Umsätze” und „Gewichtete CPO”.

3. 7>3 ist keine Analyse

Ein „Customer Journey Tool” mag mich davon abhalten, eine Kampagne abzuschalten, die „viele Vorlagen zu Käufen” geleistet hat. Aber die unter Punkt 2 der Fußnote genannten Kennzahlen werden mir niemals sagen, warum. Es gibt auch keine weiteren Drilldown-Möglichkeiten. Und ich werde auch bis auf weiteres nicht in der Lage sein, nur für Nutzer, die ein bestimmtes Banner gesehen haben, eine bestimmte Keyword-Anzeige zu schalten.

Fußnote 2:

Die Views gibt es natürlich nur für Banner. Für Mails, SEO und SEM sind die Views nicht mess- bzw. verknüpfbar. Wieso soll ich aber die Brandwirkung eines Banners höher bewerten als die einer Keyword-Anzeige? Ist sie wertvoller, nur weil ich sie besser messen kann?


am 24. Januar 2012 unter Analytics, Markt, Technik
5 Comments

Liefert der SiteCatalyst Marketing-Channel-Report die “richtigen” Zahlen?

Adobe SiteCatalyst bietet mit seinem Marketing-Channel_Report (MCR), die Möglichkeit, zu jedem Marketing-Kanal ohne zusätzliche Implementierung die Zielerreichungen (Käufe, Umsätze, Logins,…) nach “First Cookie Wins” (FCW) und “Last Cookie Wins” (LCW) gleichzeitig zu betrachten. Hierbei wird die Direkteingabe oder der Besuch über SEO-Maßnahmen als Kanal betrachtet und der Besucher wie üblich mit einem Cookie (30 Tage) versehen.

Das klingt geil, oder?

  • Im MCR wird standardmäßig immer jede Session einem Kanal zugewiesen

Auch das klingt geil, oder?

Zu den Marketingkanälen zählt Adobe SiteCatalyst allerdings auch die Direkteingabe oder die SEO-Maßnahme und hier liegt das Problem.

Ein Beispiel:

  1. Kontakt:Kampagne A
  2. Kontakt Kampagne B
  3. Kontakt: Direkteingabe und 10€ Umsatz

a) Sicht im MCR

Kampagne Klicks Umsatz (FCW) Umsatz (LCW)
A 1 10,- € -
B 1 - -
Direkteingabe 1 - 10,-€

Ergebnis: Keine Konversion für B

- siehe auch Fußnote -

b) Sicht im Kampagnenreporting auf Basis s.campaign

Im Kampagnenreporting auf Basis der s.campaign und Last-Cookie-Wins haben wir folgendes Bild:

Kampagne Klick Umsatz (LCW)
A 1 -
B 1 € 10,-

oder auf Basis einer zusätzlichen eVar (=s.campaign) und First-Cookie-Wins:

Kampagne Klick Umsatz (FCW)
A 1 € 10.-
B 1

Nun haben wir zwei Reports, ist aber wenigstens richtig.

Sollte man besser den Marketing-Channel-Report also lieber nicht nutzen, da er wirtschaftlich unsinnige Werte ausgibt?

Statements:

  1. Wirtschaftliches Online-Marketing führt die besten Kunden immer in den Kanal “Direkteingabe”
  2. Im Affiliate Marketing würde immer ein Vergütung von Kampagne B erfolgen, aufgrund des 30-Tage-Cookies.
  3. Wer eine Direkteingabe für einen Marketingkanal hält, hat den 30-Tage-Cookie nicht verstanden.

Ist das MCR-Reporting also unsinnig und nicht verwertbar?

Nein, wer beides will - den Marketing Channels Report und “richtige” Zahlen, sollte folgendes an seiner Implementierung ändern:

Wenn ein Trackingcode übergeben wird, reicht es nicht aus, nur die s.campaign zu füllen. Sondern es muss auch ein Cookie mit zwei Werten gesetzt werden:

  • Trackingcode des soeben geklickten Werbemittels und aktuelles Datum/Uhrzeit.

Bei jedem folgenden Visit muss, wenn ein “kostenfreier Kanal” genutzt wurde und daher kein neuer Trackingcode vorliegt, der Trackingcode aus dem Cookie ausgelesen und wieder an s.campaign übergeben werden. Dies muss solange erfolgen, bis das Datum in dem Cookie mehr als 30 Tage zurück liegt.  Dann respektiert das Regelwerk des MCR die Logik “eine Traffic-Quelle ohne Trackingcode überschreibt niemals einen teuren Kampagnen-Klick”. Nur leider verdirbt das die Metrik der Click-Troughs. Dafür setzen wir bei jedem “echten” Kampagnen-Klick einen eigenen Event und arbeiten stattdessen mit diesem. Diese erweiterte Kampagnenlogik fügen wir pflegeleicht in die Plugin-Sektion des JavaScripts ein.

Die einzige Fehlerquelle dieser Lösung steckt in der Identifikation des “neuen Visits”. Das fragen wir mithilfe eines Session-Cookies ab - denn wenn der Nutzer keine Cookies akzeptiert und wir ihn daher zu häufig “als neuen Visit” erkennen würden, haben wir auch keinen Cookie, dessen Kampagnenwert wir auslesen könnten.

Fußnote: Adobe hat dieses Problem offenbar beschäftigt und mit dem letzten Release die CRM-Kanäle besser konfigurierbar gemacht. Jetzt kann für jeden Kanal angegeben werden, ob dieser Kanal in der Last-Bewertung ältere Kanäle überschreiben darf (”Override Last-Touch Channel” bzw “Last Touch-Kanal außer Kraft setzen”). Es ist uns aber aus der Praxis noch kein Fall bekannt, bei dem es gelungen ist, die Abrechnungspraxis im Marketing-Channel-Report stimmig abzubilden.


am 3. November 2011 unter Analytics, Technik

Straft Google fremde Web-Analytics-Systeme ab?

Am 18. Oktober hat Google angekündigt, in Zukunft die Suchanfrage-Informationen im Referrer bei angemeldeten Benutzern zu verschlüsseln. Benutzer, die an irgendeinem der zahllosen Dienste von Google angemeldet sind und eine Suche in Google ausführen und anschließend auf eines der Ergebnisse klicken, würden einen erhöhten Schutz ihrer Privatsphäre erhalten, so Google in der Erklärung. Der genaue Wortlaut kann hier nachgelesen werden.

Nun ist ja Google gemeinhin nicht für sein altruistisches Handeln bekannt und schon gar nicht für vorauseilendem Gehorsam in Sachen Datenschutz - es gibt niemanden der sich bisher darüber beschwert hat, dass man im Referrer nachführen kann, wonach der Anwender gesucht hat. Und wieso gilt das nur für angemeldete, aber nicht für anonyme Besucher - man müsste ja eigentlich genau anders herum vorgehen?

Was ist die Motivation für Google, dieses Verfahren auszurollen?

Technischer Hintergrund

Klickt ein Anwender auf ein Suchergebnis, so kann die aufgerufene Zielseite unter Auswertung des von Google mitgelieferten Referrers - der “Absprungadresse” - den ursprünglichen Such-Term herausfinden und in die eigene Web-Analytics-Statistik übernehmen. Diese Statistik bildet das Rückgrat für die SEO/SEM-Optimierung der Site und damit den wirtschaftlichen Interessen des Site-Betreibers.

Wird diese Information nun verschlüsselt, so fehlen die notwendigen statistischen Informationen zur Optimierung des eigenen Angebotes und der Aufwendungen für Suchmaschinenmarketing.

Da sehr viele Nutzer einen oder mehrere Dienste von Google benutzen (Google Mail, Blogs, Feed Reader, Picasa, Google+, …), ist die Anzahl der Benutzer, die sich meist auch noch automatisch einloggen lassen, entsprechend hoch und es wird eine signifikante und relevante Auswirkung auf die oben erwähnte Statistik erwartet.

Honi soit qui mal y pense

Welche wirtschaftlichen Auswirkungen ergeben sich bzw. könnten sich durch diese Änderungen ergeben?

Da ist zunächst mal Google Adwords. Durch eine Verschlüsselung der Suchbegriffe fällt es nicht mehr so leicht, Anzeigen im Hinblick auf Kosteneffizienz zu optimieren. Das könnte eine Steigerung des Umsatzes bei Adwords zur Folge haben. In der Tat bewerte ich diese aber eher als marginal und das Ganze auch als zu kurz gedacht, bietet Adwords selbst ja eine große Zahl an Tools zu genau dieser Optimierung an.

Was wären dann die Gründe? Man muss, wie immer bei Google, “über Bande” denken - durch den “Schutz” dieser Informationen stehen entsprechende Statistiken nicht mehr in den Web-Analytics-Tools der Sitebetreiber zur Verfügung. Die Frage, die es zu beantworten gilt: “Gilt diese Einschränkung in Zukunft auch für Google-Analytics (GA) oder liefert dieses wie bisher die “Klartext-Informationen?”. Die Vermutung liegt nahe, da - wie im Blogartikel geschrieben - die Webmaster-Tools ja bereits die Top-1.000 im Klartext enthalten. Wenn also auch GA eine Klartextliste bereithält, wäre dies ein Affront sowohl gegen die Datenschützer in Deutschland als auch eine Kampfansage an die anderen Web-Analytics-Hersteller. Die Sitebetreiber wären gezwungen Google Analytics einzusetzen oder gar gleich auf Google Analytics Premium zu wechseln, um diese Statistik zu erhalten.

Dies ist eine offene Frage, die es in den nächsten Wochen zu beobachten gilt.

Ab wann sind Auswirkungen zu erwarten?

Derzeit ist der Algorithmus zumindest auf Google Deutschland - http://www.google.de - noch nicht aktiv. Anders als im Artikel beschrieben ist ein Wechsel auf https://www.google.de wegen fehlerhafter Zertifikate und eines automatischen Rücksprungs auf http://www.google.de nicht möglich.

Auf https://www.google.com ist der neue Algorithmus aktiv und in der Tat fehlt im Referrer der ursprüngliche Such-Term.

Was tun?

Wie immer in solchen Fällen: Abwarten und Ruhe bewahren! ;-). Sobald der Algorithmus auch in Europa bzw. Deutschland aufgeschaltet wird, sollte man dies in den Suchwort-Statistiken sehen können, da nun die Suchanfragen ohne Suchwörter zunehmen müssten. Die abgeleitete Statistik “Bestelleingang je natürlichem Keyword” dürfte ab diesem Zeitraum keine belastbaren Ergebnisse mehr liefern. Aber auch nur diese eine Statistik. Inwieweit das kritisch ist oder werden kann, hängt vom Geschäftsmodell und von den gewählten KPI zur Analyse und Prognose ab.


am 21. Oktober 2011 unter Analytics, Technik

« neuere Beiträgeweitere Beiträge »