Ohne sinnvolle Messkriterien sind Webanalysetools stumpfe Waffen. Foto: Fotolia.com/Klaus Epplele
Ohne sinnvolle Messkriterien sind Webanalysetools stumpfe Waffen. Foto: Fotolia.com/Klaus Epplele
Der Erfolg von Webseiten muss sich darstellen lassen, sonst führen auch die besten Optimierungen zu keinem Ziel. Mit welchen Methoden sich dies vor allem in interaktiven Inhalten realisieren lässt, wird gegenwärtig kontrovers diskutiert. Am 23. Juni 2009 finden auf Internet World Fachmesse im Münchner Congress Centrum (ICM) zwei Specials zu den Themen Webanalyse und Usability statt. In verschiedenen Vorträgen geht es darum, wie sich die Qualität von Webseiten überprüfen und Schwachstellen auf den eigenen Seiten finden lassen. Professionelle Tester bieten zudem am zweiten Tag der Messe (24. Juni) die Möglichkeit, Ihre Webseite einem Livetest zu unterziehen.
Jeder, der im Internet eine Seite betreibt, verfolgt damit ein Ziel. Und dieses Ziel bildet die Grundlage für die Messung des Erfolgs eines Webauftritts. Davon ausgehend lassen sich einige Etappenziele definieren und Parameter festsetzen, die sich dann messen lassen. Die Messung selbst übernehmen Controlling-Werkzeuge.
Mit ihnen können mögliche Fehlerquellen analysiert und damit letztlich die Usability des Shops oder der Webseite gesteigert werden. Das Ziel eines jeden Website-Betreibers ist es, möglichst viele Besucher anzulocken, sie dazu zu bringen, auf der Seite zu stöbern und die Seite letztlich regelmäßig wieder zu besuchen.
Shopbetreiber haben ein ähnliches Verlangen: Sie wollen Besucher gewinnen, sie zu Kunden machen und als Stammkunden halten. Webseitenbesucher bevorzugen eine einfache und klare Nutzerführung. So ergab kürzlich eine Studie, dass die Hälfte aller Internetnutzer schon Internetseiten und Webshops vorzeitig verlassen hat, weil sie mit der Navigation nicht zu recht gekommen ist.
Der transparente Internetnutzer
Bei der Ermittlung, an welcher Stelle die Besucher die Website verlassen, helfen Web-Controlling-Tools. Dabei gibt es zwei grundverschiedene Methoden: Bei der Logfile-Methode werden alle vom Server abgerufenen Daten protokolliert. Diese Daten sind aber wenig aussagekräftig, da sie zum einen nicht aktuell sind und zum anderen dabei alle Daten erfasst werden, die beim Aufruf einer Seite angefordert werden, unabhängig davon, ob diese überhaupt gesehen wurden. Die so erhobenen Daten lassen kaum Rückschlüsse auf das individuelle Benutzerverhalten zu. Recht verlässlich ist diese Methode aber bei der Bestimmung von abgeschlossenen Downloads eines E-Books zum Beispiel.
Der Einsatz von Zählpixeln liefert hingegen Echtzeit-Ergebnisse. Dabei überwachen spezielle Web-Controlling-Werkzeuge mittels in die Seite eingebetteter Minibilder den Besucher bei seinem Seitenbesuch und geben so Aufschluss über jeden Schritt und Klick. So lässt sich beispielsweise feststellen, warum ein Besucher den Kaufvorgang trotz vollen Warenkorbs abgebrochen und die Seite verlassen hat. Somit dienen solche Analysewerkzeuge auch der Webseitenoptimierung.
Neuer als Zählpixel sind die so genannten Flash Cookies. Damit lassen sich auch die Aktivitäten von Nutzern auf Webseiten auf Basis von Flashfilmen aufzeichnen. Die Flash-Cookies werden nicht zusammen mit den konventionellen Cookies gespeichert, sondern an anderer Stelle, wodurch sie auch die einfache Cookie-Bereinigung nach Beendigung des Webspazierganges überleben. Diese Dateien können auch 25-Mal so groß ausfallen, wie die herkömmlichen Cookies-Dateien und beinhalten dadurch deutlich mehr Informationen.
Es mehren sich aber auch kritische Stimmen zum Thema Webanalyse. Denn die Anbieter insbesondere von webbasierten Analysetools gewinnen dadurch tiefe Einblicke in die Nutzergewohnheiten. Allen voran Google mit seinem Werkzeug Analytics. Zwar ist das Tool gerade in Zusammenarbeit mit Google Adwords besonders stark, aber der Suchmaschinengigant gewinnt dadurch besonders viele und tiefe Erkenntnisse über die Webseitenbesucher.
Ob IP-Adressen als personenbezogene Daten besonders schützenswert sind, ist immer noch strittig. Allerdings zeichnet sich aufgrund der bestehenden Gerichtsurteile eine deutliche Tendenz ab. So seien die IP-Adressen persönlichen Daten im Sinne des Telemediengesetzes und damit besonders zu schützen. Deshalb sollten die Webseitenbesucher darauf aufmerksam gemacht werden, wenn eine solche Technik zum Einsatz kommt und damit die IP-Adressen protokolliert werden.
Neue Maßeinheiten fürs interaktive Web
Mit traditionellen Reichweitenmaßen wie Visits oder Page Impressions lassen sich längst nicht alle Nutzeraktivitäten in Social-Media-Angeboten feststellen, deshalb sucht die Branche nach neuen Messkriterien. Soziale Netzwerke und Weblogs werden immer populärer und erfreuen sich damit wachsender Nutzerzahlen. Was die User mit den Angeboten aber anfangen, können Agenturen und Vermarkter nur unzureichend in Zahlen gießen.
Ein geeignetes Messverfahren für die Aktivität der Nutzer ist deshalb nötig. Mehr als erste Ansätze dazu gibt es allerdings noch nicht. Das Problem sind weniger die zu berücksichtigenden Faktoren, als vielmehr deren technische Erfassung. Die Fachleute sind sich einig, dass die Intensität einer von zwei entscheidenden Komponenten der neuen Social-Media-Währung sein wird. Dabei wird berücksichtigt, wie wichtig ein Thema im Internet oder den Medien ist und wie wichtig der Sender ist.
In der zweiten Komponente soll die Reichweite abgebildet werden. Dazu werden konventionelle Messmethoden wie Page Impressions oder Unique Visitors durch weitere Kennzahlen erweitert. Dabei könnte beispielsweise der Vernetzungsgrad des Senders sowie Kommentare und Links zum Thema berücksichtigt werden. Auch Resonanzen in Sozialen Netzwerken und in Microbloggingdiensten sollen in diese Kennzahl mit einfließen.