Bundesverband Digitale Wirtschaft in seinem Leitfaden zusammengefasst."> Bundesverband Digitale Wirtschaft in seinem Leitfaden zusammengefasst." /> Bundesverband Digitale Wirtschaft in seinem Leitfaden zusammengefasst." />
BVDW-Leitfaden zum Social-Media-Monitoring 08.08.2011, 09:03 Uhr

Vom Analysedesign zum Reporting

Social-Media-Monitoring ist kein einmaliges Projekt, sondern ein fortlaufender Prozess. Wichtige Schritte dabei sind die Identifikation des internen Informationsbedarfs, die Festlegung sinnvoller Suchfelder, Datenerhebung und -bereinigung sowie die daraus folgende Ableitung von Handlungsempfehlungen erstreckt. Worauf Unternehmen achten müssen, hat der Bundesverband Digitale Wirtschaft in seinem Leitfaden zusammengefasst.
BVDW-Leitfaden zum Social-Media-Monitoring (Foto: istock/Nikada)

Analysedesign

Um beim Social Media Monitoring qualitativ brauchbare Ergebnisse zu erzielen, bedarf es einer gründlichen Vorbereitung. Ausgehend von den Erkenntniszielen des Monitorings werden die zu beobachteten Themen festgelegt. Daneben sollten bereits in dieser Phase die Anforderungen wie Schnelligkeit der Datenerhebung, Umfang und Analysetiefe formuliert werden, denn hiervon hängt maßgeblich ab, welche Tools beziehungsweise welcher Anbieter infrage kommen wird.
Nach Festlegung der Themen beginnt die Definition der richtigen Suchbegriffe in Form von Schlagworten sowie der Ausschlusskriterien (zum Beispiel irrelevante Domain) und Listen mit irrelevanten Schlagworten (Blacklisting). Um Mehrdeutigkeiten zu vermeiden, die bei zahlreichen Unternehmensbezeichnungen und Markennamen auftreten können, besitzt die Arbeit mit Bedeutungskontexten elementare Relevanz. In diesen Fällen ist das Monitoring-System so aufzusetzen, dass nicht allein nach den Marken- und Unternehmensnamen gesucht wird, sondern nach ebendiesen Namen in Kombination mit anderen Begriffen. Auf der anderen Seite sollte der Kontext auch nicht zu eng gefasst werden, da sonst viele Beiträge fehlen, in denen User beispielsweise nicht den korrekten Namen verwenden, sich jedoch über die Marke oder das Unternehmen austauschen.

Datenerhebung

Bevor die Datenerhebung starten kann, ist es wichtig, alle themenrelevanten Quellen zu identifizieren und in das Quellenset des Monitorings zu integrieren. Um die relevanten Beiträge in Quellen, die in das Monitoring aufgenommen sind, zu identifizieren und zu extrahieren, wird im technologie-unterstützten automatisierten Monitoring die aus dem Suchmaschinenbereich bekannte Crawler-Technologie eingesetzt. Dabei sollte die Suche jedoch tiefer gehen als jene der sogenannten Robots und Crawler der herkömmlichen Suchmaschinen.
Je nachdem, wie viele Informationen von der Quelle erfasst werden sollen und welche technologischen Spezifika sie besitzt, müssen für jede Quelle spezielle Crawler entwickelt werden. Schon hier unterscheiden sich die Technologien einzelner Monitoring-Anbieter sowohl beim Anspruch in Bezug auf die Tiefe des Crawling-Prozesses als auch hinsichtlich der fortlaufenden Qualitätssicherung der Systeme.

Datenaufbereitung

Bei der Datenaufbereitung ist es zunächst nötig, die aufgespürten und gesammelten Beiträge von irrelevanten Quellen und Dokumenten wie Spam, Code-Artefakten oder Dubletten zu bereinigen. Dies kann manuell durch Analysten per Klickwork, jedoch auch automatisiert durch entsprechende Softwaretools geschehen.
Idealerweise erfolgt eine Aufbereitung der Daten schon während des Extraktionsprozesses, damit Bandbreiten sowie Datenbank- und Prozessorkapazitäten nicht unnötig strapaziert werden, denn dies kann zu langen Zugriffszeiten bei der Analyse und im Reporting führen. Daneben werden bei der Datenaufbereitung die Metadaten der Dokumente (zum Beispiel Autorenname oder Erscheinungsdatum) extrahiert, die Beiträge mit Schlagworte versehen und in einer Datenbank abgelegt.



Das könnte Sie auch interessieren