Web monitoring anbietervergleich 2010

  • View
    1.809

  • Download
    1

Embed Size (px)

Text of Web monitoring anbietervergleich 2010

  • Alexander Plum, 2009

    Webmonitoring im Vergleich

    Webmonitoring im Vergleich: Eine systematische Analyse der Anbieter auf dem deutschsprachigen Markt

    Von Alexander Plum

  • Alexander Plum, 2009

    2

    Webmonitoring im Vergleich

    Das Social Web mit seinen Communities, Bewer-tungsportalen und Blogs bietet Unternehmen neue Chancen und stellt sie zugleich vor bisher unbe-kannte Herausforderungen. Einerseits stellt sich die Frage, wie mit dieser neuen partizipativen Kommunikationsform vonseiten der Unternehmen umgegangen werden soll. Anderseits erfordert die schiere Masse und Komplexitt der sogenannten Social Media neue technologische und methodi-sche Lsungen. Erst dann ist es mglich die milli-onenfache Wahrnehmungen, Meinungen und Dis-kussionen von Konsumenten und Experten fr Vertrieb, Marketing, Unternehmenskommunika-tion oder Innovationsmanagement erfolgreich ein-zusetzen. Heterogener Anbietermarkt

    In der Praxis sind die fr das Webmonitoring ver-wendeten Verfahren und Methoden, aber auch die dafr eingesetzten Instrumente und Technologien bislang sehr unterschiedlich und wenig standardi-siert. Als Teil einer umfangreichen empirischen Studie prsentiert der vorliegende Beitrag erste zusammenfassende Ergebnisse zu Anstzen, Me-thoden und Technologien auf dem Webmonito-ring-Markt. Die Gesamtbersicht der Ergebnisse dieser ersten Anbieterstudie auf dem deutschen Webmonitoring-Markt werden im Sammelband Webmonitoring publiziert, der im Herbst unter der Leitung von Prof. Dr. Ansgar Zerfa an der Universitt Leipzig verffentlicht wird.

    hnlich heterogen wie die Einsatzfelder des Webmonitorings ist auch der fachliche Hinter-grund der Anbieter. Sie entstammen beispielsweise den Bereichen Marktforschung, Business Intelli-gence, Public Relations, integrierter Kommunika-tionsberatung, IT-Beratung oder der Medienbeo-bachtung. Entsprechend unterschiedlich sind Leis-tungsumfang, Technologie- und Methoden-Know-how, Unternehmensgre und thematischer Fokus der Anbieter. Auch dies erschwert fr Entscheider die Auswahl eines fr das gesamte Unternehmen oder einzelne Projekte passenden Webmonitoring-Angebots.

    Integriertes Webmonitoring ist selten

    Webmonitoring umfasst die Kernprozesse Daten-erhebung, Datenaufbereitung, Datenanalyse und

    Ergebnisinterpretation. Die Studienergebnisse zeigen, dass bisher nur wenige Anbieter die fr alle vier Phasen notwendigen Kriterien sowohl aus methodischer als auch aus technologischer Sicht vollstndig erfllen. Auch hinsichtlich des Leistungsumfangs konnten erhebliche Un-terschiede in allen Phasen aufgezeigt werden. Es muss demnach projektweise entschieden werden, welcher Anbieter sich fr die indivi-duellen Projektziele am besten eignet. Daher bietet die vorliegende Studie, durch den syste-matischen Vergleich der 14 wichtigsten Web-monitoring-Unternehmen, einen Wegweiser durch den Dschungel der Webmonitoring-Angebote. Nach einem berblick zur Metho-dik, dem Studiendesign und einer Zusammen-fassung der wichtigsten Ergebnisse der Studie, werden die verschiedenen Anbieter mit ihrer Webmonitoring-Lsung vorgestellt.

    Zum Autor

    Alexander Plum ist Werbeleiter bei der Koelnmesse GmbH und promoviert berufsbe-gleitend im Themenbereich Webmonitoring. Zuvor war er einige Jahre als Consultant und Projektmanager namhafter Unternehmen sowie ffentlicher und politischer Institutionen ttig. Er hat diverse Projekte im Bereich Employer Branding, integrierte Kommunikation, Markt-forschung, CRM, E-Business, Social Media und E-Government durchgefhrt. Alexander Plum studierte Electronic Business, Wirt-schaftswissenschaften und politische Wissen-schaften.

  • Alexander Plum, 2009

    3

    Webmonitoring im Vergleich

    Zur Methodik und dem Bewertungsdesign der Studie

    Um die unzhligen Konsumentengesprche wie auch die Informationen der Medien und Wettbe-werber im Internet fr Unternehmen nutzbar zu machen, sind folgende vier Kernprozesse notwen-dig.

    Datenerhebung

    In der Phase der Datenerhebung ist es wichtig, alle im Web zu einem Thema, einer Marke oder einer Person publizierten Beitrge zu finden und zu speichern unabhngig vom Medienkanal und Dateiformat. So knnen sich beispielsweise wich-tige Botschaften in Podcasts- und Vodcasts verste-cken. Daher sollte ein hochwertiges Monitoring-System auch relevante Video- und Audio-Dateien aufspren knnen. Dies leisten bisher wenige An-bieter. Nur vier der vierzehn Befragungsteilnehmer bercksichtigen Audio-Dateien und fnf Teilneh-mer Video-Dateien in ihrer Webmonitoring-Lsung.

    Ebenso wichtig ist, neben bereits bekannten Quel-len auch das Deep Web nach relevanten Inhalten zu durchsuchen, d.h. die Stellen im Web, die mit normalen Suchmaschinen wie google oder techno-rati nicht auffindbar sind. Denn hufig sind es gerade diese Foren oder Micro-Communities, in denen sich eine anfnglich kleine Diskussion zu einem fr ein Unternehmen ernst zunehmenden Issue oder vielsprechenden Trend entwickelt. Webmonitoring sollte daher nicht nur die bekann-ten Quellen nach relevanten Beitrgen durchsu-chen, sondern auch eine quellenunabhngige Suche ermglichen. An dieser Stelle sollte auf den Unterschied und die Definition der zwei immer wieder synonym verwendeten Begriffe Screening und Monitoring hingewiesen werden, da sich in der Praxis noch kein einheitlicher Sprachgebrauch durchgesetzt hat. In der vorliegenden Studie wird unter dem Begriff Screening die Datenerhebungs-form subsumiert, bei der das gesamte Web nach relevanten Beitrgen durchsucht wird. Beim Moni-toring hingegen werden apriori festgelegte Quellen regelmig nach relevanten Beitrgen durchsucht.

    Nicht zuletzt fordern globalisierte Mrkte, dass Webmonitoring nicht nur fr den deutschsprachi-

    gen Raum stattfindet, sondern dass die Web-monitoring-Lsung mglichst viele Sprachen bercksichtigen kann.

    Datenaufbereitung

    Bei der Datenaufbereitung mssen die ent-deckten und gesammelten Beitrge zunchst von irrelevanten Dokumenten wie Spam oder Doubletten bereinigt werden. Einerseits kann dies manuell durch Redakteure oder anderseits automatisiert durch spezielle Softwarewerk-zeuge geschehen. Eine Automatisierung dieser oft zeitaufwendigen Prozesse erhht die Effek-tivitt des Webmonitoring-Projekts erheblich. Daneben sollten in dieser Phase die Meta-Daten der Dokumente (z.B. Autorenname oder Erstellungsdatum) extrahiert und abgespei-chert, sowie die Beitrge mit Schlagworten - sogenannten Tags - versehen werden, um die anschlieende Datenanalyse zu vereinfachen und zu beschleunigen. Einige Anbieter greifen hierbei auf Klassifizierungswerkzeuge oder automatische Verschlagwortung zurck.

    Auerdem ist die Form der Archivierung zu beachten. So macht es fr die Breite und Tiefe der Analysemglichkeit der Daten einen gro-en Unterschied, ob sie in einer einfachen Da-tenbank oder einer komplexen multidimensio-nalen Analyseumgebung abgespeichert wer-den. Mchte man Text Mining Verfahren an-wenden oder spter auf einzelne Beitrge zugreifen, sollte ein Anbieter gewhlt werden, der die Dokumente auch textbasiert abspei-chert. Dies ist vor allem bei der kontinuierli-chen Beobachtung der Webkommunikation im Rahmen der ffentlichkeitsarbeit, des Issue- oder Reputation-Managements wichtig.

    Erfordert das Webmonitoring-Projekt eine automatisierte Analyse mit speziellen Mining-Verfahren und einer Textanalyse-Software, muss der Anbieter auch die Preprocessing-Phase der Textanalyse durchfhren bei-spielsweise durch Stoppwortbereinigung und Textzerlegung in Wortgruppen und Stze.

  • Alexander Plum, 2009

    4

    Webmonitoring im Vergleich

    Datenanalyse

    In der dritten Phase des Webmonitoringprozesses wird aus den aufbereiteten Daten das fr den Kun-den notwendige Wissen generiert. Hierbei gibt es bislang signifikante Unterschiede in der Herange-hensweise sowie im Leistungsumfang, da das Spektrum vorhandener Analysevarianten sehr breit ist. So knnen Autoren- und spezielle Profiling-Analysen Meinungsfhrer und Multiplikatoren im Netz identifizieren. Relevanz- und Quellen-Analysen frdern bedeutende Orte im Netz fr spezielle Themen zu Tage und geben Auskunft ber die Reichweite und damit das mgliche Ein-flusspotential von Quellen und Beitrgen. Buzz-Analysen informieren ber das Involvement einer Zielgruppe zu einem speziellen Thema und Tonali-ttsanalysen geben einen Eindruck ber das Mei-nungsbild der Zielgruppe. Nicht zuletzt sind Trend- und Issue-Analysen vor allem bei der kon-tinuierlichen Entwicklung von Themen und Mar-ken wichtig, um durch die frhzeitige Erkennung schwacher Signale seinen Handlungsspielraum zu sichern und entscheidende Wettbewerbsvorteile zu erzielen.

    Diese Analysen basieren auf einem recht umfang-reichen Methodenrepertoire, welches von den be-fragten Unternehmen unterschiedlich eingesetzt und kombiniert wird. Die Bandbreite der Verfah-ren fngt bei deskriptiven statistischen Methoden an, geht ber die Verfahren der Sozialen Netzwerk Analyse, bis hin zur quantitativen und qualitativen Inhaltsanalyse. Doch mit diesen Methoden allein lsst sich die tglich zunehmende Datenmenge im Internet nicht bewltigen. Daher setzen Anbieter vermehrt auf Verfahren des Data-, Text- und Web-Mining, da diese gerade fr die Aufbereitung und Analyse groer Datenmengen entwickelt wurden. Eine weitere fr das Webmonitoring wichtige Me-thodik ist die semantische Analyse. Sie ermglicht es, aus groen Textmengen intelligente und ver-stndliche Darstellungen wie Themennetze zu generieren. Anhand derer knnen schnell und effi-zient Muster in der Kommunikation erkannt wer-den. So kann beispielsweise analysiert werden, in welchem negativen Kontext eine Marke oder ein Produkt in der Webkommunikation steht ohne das unzhlige Codierer und Analysten jeden ein-zelnen Beitrag lesen und auswerten. Darber hin-

    aus hat sich auch die Kombination von The-men- und Quellen-Netzen als effektives V