INTERNET WORLD Business Logo Abo
Sonstiges 08.08.2011
Sonstiges 08.08.2011

BVDW-Leitfaden zum Social-Media-Monitoring Vom Analysedesign zum Reporting

Social-Media-Monitoring ist kein einmaliges Projekt, sondern ein fortlaufender Prozess. Wichtige Schritte dabei sind die Identifikation des internen Informationsbedarfs, die Festlegung sinnvoller Suchfelder, Datenerhebung und -bereinigung sowie die daraus folgende Ableitung von Handlungsempfehlungen erstreckt. Worauf Unternehmen achten müssen, hat der Bundesverband Digitale Wirtschaft in seinem Leitfaden zusammengefasst.

Analysedesign

Um beim Social Media Monitoring qualitativ brauchbare Ergebnisse zu erzielen, bedarf es einer gründlichen Vorbereitung. Ausgehend von den Erkenntniszielen des Monitorings werden die zu beobachteten Themen festgelegt. Daneben sollten bereits in dieser Phase die Anforderungen wie Schnelligkeit der Datenerhebung, Umfang und Analysetiefe formuliert werden, denn hiervon hängt maßgeblich ab, welche Tools beziehungsweise welcher Anbieter infrage kommen wird.

Nach Festlegung der Themen beginnt die Definition der richtigen Suchbegriffe in Form von Schlagworten sowie der Ausschlusskriterien (zum Beispiel irrelevante Domain) und Listen mit irrelevanten Schlagworten (Blacklisting). Um Mehrdeutigkeiten zu vermeiden, die bei zahlreichen Unternehmensbezeichnungen und Markennamen auftreten können, besitzt die Arbeit mit Bedeutungskontexten elementare Relevanz. In diesen Fällen ist das Monitoring-System so aufzusetzen, dass nicht allein nach den Marken- und Unternehmensnamen gesucht wird, sondern nach ebendiesen Namen in Kombination mit anderen Begriffen. Auf der anderen Seite sollte der Kontext auch nicht zu eng gefasst werden, da sonst viele Beiträge fehlen, in denen User beispielsweise nicht den korrekten Namen verwenden, sich jedoch über die Marke oder das Unternehmen austauschen.

Datenerhebung

Bevor die Datenerhebung starten kann, ist es wichtig, alle themenrelevanten Quellen zu identifizieren und in das Quellenset des Monitorings zu integrieren. Um die relevanten Beiträge in Quellen, die in das Monitoring aufgenommen sind, zu identifizieren und zu extrahieren, wird im technologie-unterstützten automatisierten Monitoring die aus dem Suchmaschinenbereich bekannte Crawler-Technologie eingesetzt. Dabei sollte die Suche jedoch tiefer gehen als jene der sogenannten Robots und Crawler der herkömmlichen Suchmaschinen.

Je nachdem, wie viele Informationen von der Quelle erfasst werden sollen und welche technologischen Spezifika sie besitzt, müssen für jede Quelle spezielle Crawler entwickelt werden. Schon hier unterscheiden sich die Technologien einzelner Monitoring-Anbieter sowohl beim Anspruch in Bezug auf die Tiefe des Crawling-Prozesses als auch hinsichtlich der fortlaufenden Qualitätssicherung der Systeme.

Datenaufbereitung

Bei der Datenaufbereitung ist es zunächst nötig, die aufgespürten und gesammelten Beiträge von irrelevanten Quellen und Dokumenten wie Spam, Code-Artefakten oder Dubletten zu bereinigen. Dies kann manuell durch Analysten per Klickwork, jedoch auch automatisiert durch entsprechende Softwaretools geschehen.

Idealerweise erfolgt eine Aufbereitung der Daten schon während des Extraktionsprozesses, damit Bandbreiten sowie Datenbank- und Prozessorkapazitäten nicht unnötig strapaziert werden, denn dies kann zu langen Zugriffszeiten bei der Analyse und im Reporting führen. Daneben werden bei der Datenaufbereitung die Metadaten der Dokumente (zum Beispiel Autorenname oder Erscheinungsdatum) extrahiert, die Beiträge mit Schlagworte versehen und in einer Datenbank abgelegt.

Was Firmen bei der Datenanalyse beachten müssen

Datenanalyse

Die Analyse schließlich generiert den aus den gesammelten Daten erhofften Erkenntnisgewinn. Eine wichtige Analyse ist die Identifikation von Gatekeepern, Meinungsführern und Multiplikatoren. Sie ermittelt, welche Autoren im Netz „etwas zu sagen haben“ beziehungsweise wem die meisten Menschen zuhören. Relevanzanalysen von Quellen zeigen auf, welcher Blog, welche Webseite oder welches Forum für das jeweilige Themengebiet in puncto Reichweite und vor allem Einflussreichtum Relevanz besitzt. Soll ausgegeben werden, welchen Anteil am Gesamtkommunikationsvolumen eine bestimmte Marke, eine Person oder ein Sachverhalt hat, bedarf es einer sogenannten „Share of Voice“- oder auch „Buzz“-Analyse.

Eine weitere typische Analyseform im Social Media Monitoring ist die Bewertung der Tonalität in den jeweiligen Beiträgen. Sie gibt an, ob ein Begriff eher positiv, neutral oder negativ behaftet ist. In Trendanalysen wird ermittelt, welche Entwicklungen ein Themengebiet durchläuft und ob sich vielleicht ein „Orkan zusammenbraut“ – diese sind also ein wichtiger Seismograf für das thematische Klima.

Reporting

Die Ergebnispräsentation dient schließlich der Aufbereitung von Analyse-Ergebnissen in entscheidungsrelevanter Form. Hierbei ist es wichtig, den Empfängern die Informationen zeitnah und aktuell auf dem richtigen Weg in der richtigen Sprache bedarfsgerecht zur Verfügung zu stellen.

Üblich ist eine webbasierte Reporting-Oberfläche mit sogenannten Dashboards und Cockpits, wobei zwischen strategischen, analytischen und operativen Sichten unterschieden werden muss. Ein Zugriff auf das Reporting ist bei vielen Anbietern auch direkt über mobile Endgeräte möglich, sodass der Entscheider überall und zu jeder Zeit über die relevanten Daten verfügen kann. Darüber hinaus sollte es die Möglichkeit geben, vom Dashboard aus eigene Sichten und Perspektiven aufzurufen und sich so eigene, anwendungsbezogene Dashboards zu gestalten.

Neben diesen automatisiert erstellten Reportansichten bieten viele Social-Media-Dienstleister die Aufbereitung kundenspezifischer Reports in Form von PowerPoint- oder Word-Dokumenten an. Diese sollten an die Informationsbedürfnisse des Unternehmens angepasst sein und die wesentlichen Fragen des Monitorings übersichtlich und klar beantworten.

Wenn die Daten nicht nur mit den Bordmitteln der Webmonitoring-Software ausgewertet werden sollen, sondern darüber hinaus auch im eigenen Unternehmen mit komplexeren Analysetools (wie beispielsweise SPSS), ist es erforderlich, über entsprechende Export-Schnittstellen zu verfügen. Auch für die Einbindung der Monitoring-Ergebnisse oder der ermittelten KPIs in andere Reporting-Systeme des Unternehmens sind entsprechende Schnittstellen notwendige Voraussetzung. Teilweise lassen sich die Ergebnisse mithilfe sogenannter APIs (Application Programming Interfaces) nicht nur abrufen, sondern auch aus anderen Programmen oder Oberflächen heraus bearbeiten.

Anders herum bieten einige Monitoring-Systeme die Möglichkeit, Daten aus anderen Quellsystemen wie Call-Centern in das Dashboard zu integrieren, um diese mit den Monitoring-Daten zu vergleichen und ebenfalls mit den Analysetools des Dashboards auszuwerten.

Das könnte Sie auch interessieren