Internet-Schaufenster

Web-Controlling im B2B-Umfeld – Teil 1

Was darf man wirklich messen?
Das Online-Labormagazin ANALYTIK NEWS (www.analytik-news.de) ist ein seit vielen Jahren etabliertes, unabhängiges Informations- und Kommunikationsmedium im deutschsprachigen Raum, unter anderem mit Nachrichten, Veranstaltungskalender, Stellenmarkt, Diskussionsforum, Newsletter und großer Linksammlung zu allen Laborthemen.

Dr. Torsten Beyer, ANALYTIK NEWS (www.analytik-news.de)

Henry Ford, Gründer des gleichnamigen Automobilkonzerns, hat schon vor mehr als 70 Jahren gesagt: „Ich weiß, die Hälfte meiner Werbung ist hinausgeworfenes Geld. Ich weiß nur nicht, welche Hälfte.” Auch und gerade im Internet-Zeitalter werden viele Versuche unternommen, diese Bilanz mit immer umfangreicheren und ausgeklügelteren Analysen zu verbessern. Denn zweifellos lässt sich bei Online-Werbemaßnahmen sehr viel Zahlenmaterial erheben. Man kann hier aber leicht über das Ziel hinausschießen oder falsche Schlüsse ziehen.

Wikipedia definiert „Web-Controlling” (oder auch Web-Analytics) ganz einfach als „die Sammlung und Auswertung des Verhaltens von Besuchern auf Websites” [1]. Bevor wir uns konkret mit der Bewertung von Online-Werbekampagnen beschäftigen, wollen wir uns zuerst einmal anschauen, welche Daten man überhaupt erheben kann und darf. Hier muss man zwischen Server-seitigen und Client-seitigen Verfahren unterscheiden, wobei es auch kombinierte Varianten gibt.

Server-seitige Verfahren

Jeder Dateiaufruf (Seiten, Grafiken, Skripte) auf einer Webpage wird Server-seitig in einer Protokolldatei, dem sogenannten „Logfile“ gespeichert. Unter anderem werden dort die IP-Adresse des Besuchers, die URL der aufgerufenen Seite, die Seite, woher der Besucher kam (der sogenannte „Referrer“), das Zugriffsdatum inkl. Uhrzeit sowie diverse Statuscodes (korrekter Seitenanruf oder ein Fehlercode), der benutzte Browser und noch einiges mehr gespeichert. Diese reinen Textfiles können je nach Zahl der Seitenaufrufe relativ groß werden, in der Regel speichert sie ein Server für jeden Tag in einer eigenen Datei. Zur Auswertung von Logfiles existieren zahlreiche kostenfreie Tools wie beispielsweise „AWStats“ (http://awstats.sourceforge.net), „analog“ (http://www.analog.cx) oder „Webalizer“ (http://www.webalizer.org), mit denen schon relativ detaillierte Zugriffsstatistiken gewonnen werden können. Viele Provider bieten solche Auswertungen bereits automatisch zusätzlich zum Hosting einer Webseite an. Man kann daraus viele nützliche Informationen entnehmen wie beispielsweise:

Anzeige
  • Wie viele Besucher hat die Seite?
  • Woher kommen die Besucher (Region, Land, Firma)?
  • Wie ist die zeitliche Verteilung der Zugriffe (pro Tag, Woche, Monat, Jahr)?
  • Wie sind die Zugangswege (direkt, über Suchmaschinen, über Links auf anderen Seiten)?
  • Welche Seiten (z.B. Produkte) werden wie oft angeklickt?
  • Wo sind Schwachstellen auf der eigenen Webpräsenz (z.B. wenig geklickte Seiten, Bestellabbrüche in einem Shop)?
  • Wo sind fehlerhafte Links (interne und externe)?
  • Wie ist die Resonanz auf Werbemaßnahmen (E-Mailings, Kampagnen auf Online-Portalen)?

Beachten sollte man auf jeden Fall, dass die erhobenen Zahlen in der Regel zu groß sind, da immer ein gewisser Prozentsatz automatisierter Zugriffe durch Suchmaschinen-Robots, Überwachungstools und natürlich die Zugriffe aus dem eigenen Firmennetz für objektive Aussagen abgezogen werden müsste. Dies ist aber mit den oben genannten Tools und Kenntnis der entsprechenden IP-Adressen problemlos möglich, man erwischt so aber nie alle automatischen Zugriffe, da es einfach zu viele verschiedene Quellen sind.

Obwohl diese Auswertungen nur eine erste Basis für das Web-Controlling sind, wird dieses Potenzial von vielen Firmen immer noch nicht oder zu wenig genutzt, teilweise aus Unkenntnis oder weil die entsprechenden Statistiken den Marketing-Verantwortlichen gar nicht zur Verfügung stehen. So wird eine Menge Wissen verschenkt, das den Unternehmen eigentlich kostenlos vorliegt und mit relativ wenig Aufwand aufbereitet werden kann. Und das nicht nur zur Analyse der eigenen Webpräsenz oder des eigenen E-Mail-Newsletters, sondern auch zur Bewertung von Werbemaßnahmen auf externen Webseiten oder externen Newslettern. Davon wird später noch die Rede sein.
Darüber hinaus existieren auch eine Vielzahl kostenpflichtiger Lösungen mit erweiterten Features wie beispielsweise die genaue Verfolgung der Aktivitäten einzelner Besucher, die Konfiguration und Generierung spezieller Reports oder Hilfestellungen zur Suchmaschinenoptimierung. Darauf wollen wir hier nicht weiter eingehen und uns auf die kostenfreien Tools konzentrieren.

Client-seitige Verfahren

Um noch mehr Nutzerdaten zu erheben, gibt es zahlreiche weitere, relativ einfach umzusetzende Verfahren. Beispielsweise kann man direkt in den Quellcode jeder Seite ein unsichtbares Bild (in der Regel 1 x 1 Pixel groß) einbauen, das dann bei jedem Seitenaufruf ebenfalls geladen wird und so einen Eintrag im Logfile erzeugt. Diese Pixel-Datei – auch „Zählpixel“ genannt – muss sich gar nicht auf dem eigenen Webserver befinden, sondern ist oft direkt bei einem externen Dienstleister abgelegt, der so die Sammlung und Auswertung der Daten selbst übernehmen kann. Die „Informationsgemeinschaft zur Feststellung der Verbreitung von Werbeträgern“ – kurz IVW – bietet ein solches, kostenpflichtiges Verfahren an, das von vielen Medien genutzt wird und sie untereinander vergleichbar machen soll.

Allerdings ist dieses Prozedere aus Datenschutzgründen bedenklich, weil hier persönliche Daten von Nutzern einer Webseite an Dritte weitergegeben und dort über einen längeren Zeitraum gespeichert werden können. Auch befinden sich die Anbieter und damit die Server teilweise im Ausland und es stellt sich die Frage, welche datenschutzrechtlichen Bestimmungen in diesem Fall überhaupt gelten. Dieses heikle Thema kann hier nur angerissen werden, aber ganz generell kommt man bei jeder Speicherung persönlicher Daten sehr schnell in eine rechtliche Grauzone, die juristisch aktuell noch sehr umstritten ist. Erinnert sei in diesem Zusammenhang an die aktuellen Diskussionen, wie lange eine Suchmaschine überhaupt Daten speichern darf oder die umfangreiche Datensammlung sozialer Netzwerke zur Generierung immer präziserer Nutzerprofile. Eine gute Quelle zu allen Fragen des Online-Rechts ist das bekannte „Skriptum Internet-Recht“ von Prof. Dr. Thomas Hoeren, das regelmäßig um neue Urteile und Fakten ergänzt wird und kostenlos heruntergeladen werden kann [2].

Solche Zählpixel werden übrigens auch eingesetzt, um die Öffnungsrate von E-Mail-Newslettern im HTML-Format zu messen. Allerdings funktioniert das nur, wenn das Mailprogramm die Anzeige von Grafiken in Mails zulässt. Manchmal muss das erst per Mausklick für jede Mail aktiviert werden oder ist durch eine Firewall ganz blockiert. Daher ist dieses Zählverfahren eher ungenau und liefert generell zu niedrige Öffnungsraten, es ist aber dennoch ein wichtiger Indikator für den eigenen Firmen-Newsletter. Sinkt die Öffnungsrate, kann dies auf eine zu hohe Versandfrequenz oder zu viel (oder immer die gleiche) Werbung hindeuten, die die Leser dann irgendwann ignorieren.

Noch ein Wort zu E-Mail-Newslettern: Viele Werbetreibende hätten von Online-Medien gerne exakte Profile der Newsletterempfänger, so wie sie es von Printmedien kennen (z.B Branche, Land, Funktion), die ja zum Versand die komplette Firmenadresse haben. Von den Lesern eines E-Mail-Newsletters sind aber oft nur die Mailadresse und vielleicht noch der Name bekannt. Anbieter, die genauere Leserprofile angeben, müssten diese eigentlich über über Nutzerbefragungen verifizieren. Aber wer macht da schon mit, wenn es nicht Anreize wie ein Gewinnspiel gibt. Und dann sind die gewonnenen Daten wenig repräsentativ. Daher sind solche Angaben immer mit Vorsicht zu genießen. Printmedien steht es sicher zu, die Leserstruktur der gedruckten Zeitschrift in erster Näherung auf den Newsletter zu übertragen, aber wenn ein Online-Medium einfach die eigene Kundendatenbank mit ihm bekannten vollständigen Adressen dafür heranzieht und das auf die Gesamtzahl der Newsletterempfänger extrapoliert, ist das eher zweifelhaft. Auch hier sollte man als Werbekunde nachfragen, wie solche Zahlen überhaupt ermittelt wurden, wenn Online-Medien solche Angaben veröffentlichen.

Neben den oben erwähnten Zählpixeln werden heute von fast allen Client-seitigen Lösungen zusätzlich ein paar Zeilen JavaScript-Code zur Datenerhebung eingesetzt. Der bekannteste und auch in Deutschland sehr weit verbreitete Dienst ist Google Analytics®, dessen Nutzung kostenlos ist. Damit können zusätzliche Informationen über den Browser des Nutzers wie beispielsweise die grafische Auflösung oder die Farbtiefe des genutzten Monitors sowie Daten zu den installierten PlugIns erhoben werden. Auch kann man damit schnell und einfach Tracking-Links auf den „Landing-Pages“ von Online-Anzeigen oder einer Bestellseite im Online-Shop einbauen, um die Resonanz einer Maßnahme direkt zu messen. Darüber hinaus gibt es sogar Dienste, die Mausbewegungen oder Tastatureingaben der Besucher aufzeichnen. Große Webseiten setzen das beispielsweise zum Aufspüren von Schwachstellen in der Navigation und zur Optimierung der Anordnung von Bildern, Texten und Bestellbuttons auf ihren Seiten ein. Derartige Lösungen sind aber in der Regel kostenpflichtig.

Als Nutzer könnte man zwar die Ausführung von JavaScript im Browser deaktivieren, um diesen Tracking-Mechanismen zu entgehen, allerdings sind dann viele Seiten nur noch eingeschränkt nutzbar, da auch viele nützliche Funktionen mit JavaScript umgesetzt werden. Moderne Browser wie Firefox 4 oder 5 bieten inzwischen eine Funktion „Do not track” an (zu finden unter „Einstellungen/Datenschutz/Verfolgung“), die der Werbewirtschaft signalisieren soll, dass ein Nutzer nicht überwacht werden möchte. In wieweit sich die Firmen auch daran halten, ist noch unklar und für den Nutzer nicht verifizierbar. Auf jeden Fall führen solche Mechanismen dazu, dass auch hier vermehrt zu geringe Zahlen gemessen werden, je mehr Browser-Hersteller solche Mechanismen unterstützen und je mehr Nutzer sie dann auch einsetzen. Gerade in Deutschland ist die Sensibilität dafür aber im internationalen Vergleich eher hoch, wie das Beispiel der über 250000 Einsprüche gegen Google StreetView® zeigt.

Cookies und Sessions

Das Nutzerverhalten und damit auch die Interessen eines Besuchers können Webseitenbetreiber auch in einer eigenen Datei (einem sogenannten „Cookie“) auf dem Computer des Besuchers speichern. Werbenetzwerke können so beispielsweise interessenbezogene Werbung anzeigen, wenn Sie die gespeicherten Cookies auf der Festplatte eines Nutzers auslesen und dann dazu passende Anzeigen ausliefern. Auch für Cookies gibt es natürlich unkritischere Anwendungen wie die Speicherung eines Warenkorbs bei einem Online-Bestellvorgang oder die Konfiguration individueller Seitenlayouts. Solche Cookies werden dann nur von der betreffenden Seite genutzt und bei jedem Besuch ausgelesen. Cookies haben immer eine Lebenszeit (für den aktuellen Einkauf, die aktuelle Browsersitzung oder mehrere Jahre), so wie es der Ersteller festlegt. Wer das selbst entscheiden will, kann das in den Browsereinstellungen ändern, beispielsweise dass Cookies nur für die aktuelle Sitzung gelten oder externen Seiten deren Speicherung untersagen. Ein eigenes Kapitel sind sogenannte „Flash-Cookies“, deren Speichern nur umständlich manuell deaktiviert werden kann [3].

Da eine stets wachsende Zahl von Nutzern Cookies im Browser deaktiviert, sind auch solche Messungen immer fehlerhaft und man erhält zu geringe Werte. Insbesondere Shop-Betreiber müssen gewährleisten, dass Ihr System auch bei deaktivierten Cookies funktioniert oder deutlich darauf hinweisen, sonst steigt die Abbruchrate von Bestellungen.

Das Server-seitige Pendant zu „Cookies“ sind übrigens sogenannte „Sessions“, auf die man als Nutzer keine Einflussmöglichkeiten hat. Viele Shops nutzen diese inzwischen anstelle von Cookies zur eindeutigen Identifizierung eines Besuchers bei Login- und Bestellvorgängen.

Wichtig für jeden Nutzer ist zu wissen, dass seriöse Online-Medien eine Datenschutzerklärung auf ihrer Webseite veröffentlichen, aus der genau hervorgehen sollte, was wofür gespeichert wird und was an Werbekunden oder externe Werbenetzwerke weitergegeben wird. Das kann theoretisch so weit gehen, dass Nutzer sich vor dem Zugriff auf eine Produktanzeige mit ihrer kompletten Firmenadresse anmelden müssen. Und diese Daten werden dann vollständig an den betreffenden Werbekunden weitergegeben. Neben diesem Extremfall kann es aber auch sein, dass aus der IP-Adresse eines Zugriffs auf eine Anzeige die Domain des Interessenten ermittelt und an den Anzeigenkunden weitergegeben wird. Das ist alles rechtlich umstritten und leider für den Nutzer normalerweise nicht ersichtlich. Generell sollte man sich immer fragen, warum ein Anbieter überhaupt die komplette Adresse haben will und generell sehr zurückhaltend mit der Preisgabe von persönlichen Daten oder Adressen sein. Beispielweise ist es in Deutschland unzulässig, zum Abonnement eines E-Mail-Newsletters mehr als die Mailadresse zu erfragen, alle anderen Angaben müssen freiwillig sein. RSS-Feeds sind eine vielen Nutzern unbekannte Alternative, da man dazu keine Daten weitergeben muss, allerdings ist die Nutzung in der Regel umständlicher als E-Mail [4]. Und viele Seiten bieten gar keine RSS-Feeds an, weil sie dann keine Informationen über die Besucher generieren können. Schließlich bleibt dann nur registrierungspflichtige Angebote zu meiden oder einen Anonymisierungsdienst zur Verschleierung der IP-Adresse zu nutzen, was aber auch eher umständlich ist. Wie einfach man IP-Adressen und Domains weltweit lokalisieren kann, zeigt der kostenlose Dienst „utrace“ (http://www.utrace.de). Damit ist in vielen Fällen eine direkte Zuordnung eines Seitenzugriffs zu einem Unternehmen und sogar dem betreffenden Firmenstandort möglich. In Verbindung mit weiteren Trackingmechanismen könnte man letztlich auch einzelne Personen identifizieren. Man versteht daher leicht, warum aktuell diverse Verfahren laufen, in denen juristisch geklärt werden soll, ob eine IP-Adresse eine personenbezogene Information ist.
Teil 2 „Was kann man wirklich messen?“ folgt in unserer September-Ausgabe.

Literatur:
[1] Wikipedia-Definition Web-Controlling (http://de.wikipedia.org/wiki/Web_Analytics).

  1. Skriptum Internet-Recht, Prof. Dr. Thomas Hoeren, Universität Münster (http://www.uni-muenster.de/Jura.itm/hoeren/lehre/materialien).
    [3] Flash-Cookies und deren Löschung (http://de.wikipedia.org/wiki/Flash-Cookie).
  2. RSS-Feeds und deren Nutzung (http://de.wikipedia.org/wiki/RSS).
Anzeige

Das könnte Sie auch interessieren

Anzeige
Anzeige