Die 10% Regel

Was man ruhig öfter mal sagen sollte: Webanalyse ist keine exakte Wissenschaft!

Siehe Jim Sterne: It’s Not an Exact Science oder auch Avinash Kaushik: Data Quality Sucks, Let’s Just Get Over It. Ersterer ist von November 2012, letzterer von Juni 2006! In den letzten 6 Jahren hat sich nichts geändert, und das liegt an der Natur der Sache.

Der wichtige Part: “But then move on, don’t try to go for 100% when 95% will do just fine!”

Das kann ich nur unterschreiben! 100% stimmige Daten werden wir in der Webanalyse nicht erleben.

100% ist unmöglich

Es gibt diverse technische Gründe, warum Daten aus der Webanalyse niemals 100% stimmen.

Cookies sind ein großer Teil davon. Sie sind beim Besucher und damit inherent unzuverlässig. Sie identifizieren einen Browser, nicht einen Menschen. Sie werden von Zeit zu Zeit gelöscht. Sie werden teilweise automatisch geblockt. Und dennoch verlassen sich fast alle Webanalysetools auf Cookies für die Visitoridentifizierung, weil es keine bessere Antwort gibt zur Zeit.

Javascript spielt eine Rolle, zumindest für Webanalysesysteme, die im Browser tracken. Javascript kann an- oder abgeschaltet sein. Andere Bereiche der Seite können die Javascriptengine verwirren oder gleich abschießen, Benutzer können das Script manipulieren, …

Das Internet selber ist auch nicht ganz ohne. Manchmal gehen HTTP Requests (und nichts anderes sind die meisten Trackingcalls) schlicht verloren, ohne daß es jemand merkt.

Am schlimmsten aber sind die Benutzer: Die löschen ihre Cookies oder wechseln mitten drin den Browser oder sogar das Gerät. Die klicken schnell weiter, bevor die Seite fertig geladen und getrackt war. Die blocken Tracking generell oder spezifische Cookies. Und das allerschlimmste: Sie benehmen sich nicht so, wie das Marketing das geplant oder erwartet hat!

Zumindest in Deutschland sind sie außerdem sehr mißtrauisch gegenüber jeder Art von Tracking, Personalisierung oder anderweitiger Datenerhebung.

All das zusammen führt dazu, daß ich persönlich mir keinerlei Gedanken machen würde über Daten, die bis zu 10% von dem abweichen, was ich erwarte.

Beispiel Retail: Wenn ich am Montag 100 Bücher verkauft habe, und mein Webanalysetool mir 96 anzeigt: gut, das paßt.

(Einwurf: wer es genauer will, kann server-seitiges Tracking implementieren. Damit kann man im Retail auch 1% Genauigkeit machen. Ist das den Aufwand wert? Das muß jeder selbst wissen.)

Was tun?

Aus dem Artikel von Avinash Kaushik halte ich Schritt 1 seines Plans für den wichtigsten: “Resist the urge to dive deep into the data to find root cause”, oder “widerstehe der Versuchung, tief in den Daten nach dem Ursprung (oder dem Fehler) zu suchen”.

Das kann man gar nicht genug betonen: Wenn die Daten ok sind, soll man nicht nach Fehlern suchen. Zeitverschwendung.

“Daten ok” ist dabei wie oben schon erwähnt ein recht weit gefaßter Begriff. Meine persönliche Daumenregel ist wie gesagt “unter 10% ist gut”, aber das muß jeder selbst entscheiden. Der Aufwand für eine Analyse steht dabei dem Gewinn an Vertrauen gegenüber, und letzterer kann durchaus viel wert sein.

Frage: Was tun also?

Antwort: Akzeptieren.

Oft kommen Fragen nach der Genauigkeit der Daten dadurch zustande, daß zwei oder mehr unterschiedliche Analysetools benutzt werden und die Daten nicht übereinstimmen. Darüber hat Avinash Kaushik einen ausführlichen Artikel geschrieben, der beschreibt warum die Daten nicht zu passen scheinen: The Ultimate Web Analytics Data Reconciliation Checklist.

Dazu gibt es eigentlich nicht mehr zu sagen.

Unsere Welt ist weit davon entfernt, perfekt zu sein. Wir haben die Aufgabe, Zahlen zu interpretieren, auf die man sich nicht vollständig verlassen kann. Wir werden von traditionellen Marketern und Controllern verlacht. Unsere Vorgesetzten halten uns für Nummernschubser und verstehen selten wirklich, was wir eigentlich tun.

Vielleicht sollten wir uns diesen einen Schuh einfach nicht anziehen.

Ungenauigkeit ist unschön, keine Frage, aber sie ist selten wirklich relevant. Ich denke wir sollten uns damit abfinden und uns den anderen (wichtigeren) Aspekten unseres Jobs zuwenden!

(Ich schreibe das alles natürlich vollkommen selbstlos und keineswegs deswegen, weil mein Job mehrere Jahre lang war, bei der Analyse von groben Abweichungen zu helfen. Ist ja klar.)

About these ads
Über

German expat living in the UK. Solutions Specialist at Adobe, working with the Digital Marketing Suite. Father of 3 girls.

Tagged with: , , , , ,
Veröffentlicht in Grundlagen, Meinung
2 comments on “Die 10% Regel
  1. [...] irrelevant, ob mein Gegenüber theoretisch versteht, wo die Unterschiede liegen oder daß 10% Abweichung prinzipbedingt sind – das Resultat ist immer das Gleiche: SiteCatalyst hat gefälligst so zu [...]

  2. […] sich daran, daß die Genauigkeit in der Webanalyse sowieso ein unerreichbares Ideal ist (siehe Die 10%-Regel), dann sieht das Filtern in vielen Fällen gar nicht so schlecht aus ‐ die Qualität der […]

Sagen Sie Ihre Meinung!

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ photo

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s

Autoren
Folgen

Erhalte jeden neuen Beitrag in deinen Posteingang.

Schließe dich 679 Followern an

%d Bloggern gefällt das: