of 42/42
© Alexander Plum, 2009 Webmonitoring im Vergleich Webmonitoring im Vergleich: Eine systematische Analyse der Anbieter auf dem deutschsprachigen Markt Von Alexander Plum

Web monitoring anbietervergleich 2010

  • View
    1.814

  • Download
    2

Embed Size (px)

Text of Web monitoring anbietervergleich 2010

  • Alexander Plum, 2009

    Webmonitoring im Vergleich

    Webmonitoring im Vergleich: Eine systematische Analyse der Anbieter auf dem deutschsprachigen Markt

    Von Alexander Plum

  • Alexander Plum, 2009

    2

    Webmonitoring im Vergleich

    Das Social Web mit seinen Communities, Bewer-tungsportalen und Blogs bietet Unternehmen neue Chancen und stellt sie zugleich vor bisher unbe-kannte Herausforderungen. Einerseits stellt sich die Frage, wie mit dieser neuen partizipativen Kommunikationsform vonseiten der Unternehmen umgegangen werden soll. Anderseits erfordert die schiere Masse und Komplexitt der sogenannten Social Media neue technologische und methodi-sche Lsungen. Erst dann ist es mglich die milli-onenfache Wahrnehmungen, Meinungen und Dis-kussionen von Konsumenten und Experten fr Vertrieb, Marketing, Unternehmenskommunika-tion oder Innovationsmanagement erfolgreich ein-zusetzen. Heterogener Anbietermarkt

    In der Praxis sind die fr das Webmonitoring ver-wendeten Verfahren und Methoden, aber auch die dafr eingesetzten Instrumente und Technologien bislang sehr unterschiedlich und wenig standardi-siert. Als Teil einer umfangreichen empirischen Studie prsentiert der vorliegende Beitrag erste zusammenfassende Ergebnisse zu Anstzen, Me-thoden und Technologien auf dem Webmonito-ring-Markt. Die Gesamtbersicht der Ergebnisse dieser ersten Anbieterstudie auf dem deutschen Webmonitoring-Markt werden im Sammelband Webmonitoring publiziert, der im Herbst unter der Leitung von Prof. Dr. Ansgar Zerfa an der Universitt Leipzig verffentlicht wird.

    hnlich heterogen wie die Einsatzfelder des Webmonitorings ist auch der fachliche Hinter-grund der Anbieter. Sie entstammen beispielsweise den Bereichen Marktforschung, Business Intelli-gence, Public Relations, integrierter Kommunika-tionsberatung, IT-Beratung oder der Medienbeo-bachtung. Entsprechend unterschiedlich sind Leis-tungsumfang, Technologie- und Methoden-Know-how, Unternehmensgre und thematischer Fokus der Anbieter. Auch dies erschwert fr Entscheider die Auswahl eines fr das gesamte Unternehmen oder einzelne Projekte passenden Webmonitoring-Angebots.

    Integriertes Webmonitoring ist selten

    Webmonitoring umfasst die Kernprozesse Daten-erhebung, Datenaufbereitung, Datenanalyse und

    Ergebnisinterpretation. Die Studienergebnisse zeigen, dass bisher nur wenige Anbieter die fr alle vier Phasen notwendigen Kriterien sowohl aus methodischer als auch aus technologischer Sicht vollstndig erfllen. Auch hinsichtlich des Leistungsumfangs konnten erhebliche Un-terschiede in allen Phasen aufgezeigt werden. Es muss demnach projektweise entschieden werden, welcher Anbieter sich fr die indivi-duellen Projektziele am besten eignet. Daher bietet die vorliegende Studie, durch den syste-matischen Vergleich der 14 wichtigsten Web-monitoring-Unternehmen, einen Wegweiser durch den Dschungel der Webmonitoring-Angebote. Nach einem berblick zur Metho-dik, dem Studiendesign und einer Zusammen-fassung der wichtigsten Ergebnisse der Studie, werden die verschiedenen Anbieter mit ihrer Webmonitoring-Lsung vorgestellt.

    Zum Autor

    Alexander Plum ist Werbeleiter bei der Koelnmesse GmbH und promoviert berufsbe-gleitend im Themenbereich Webmonitoring. Zuvor war er einige Jahre als Consultant und Projektmanager namhafter Unternehmen sowie ffentlicher und politischer Institutionen ttig. Er hat diverse Projekte im Bereich Employer Branding, integrierte Kommunikation, Markt-forschung, CRM, E-Business, Social Media und E-Government durchgefhrt. Alexander Plum studierte Electronic Business, Wirt-schaftswissenschaften und politische Wissen-schaften.

  • Alexander Plum, 2009

    3

    Webmonitoring im Vergleich

    Zur Methodik und dem Bewertungsdesign der Studie

    Um die unzhligen Konsumentengesprche wie auch die Informationen der Medien und Wettbe-werber im Internet fr Unternehmen nutzbar zu machen, sind folgende vier Kernprozesse notwen-dig.

    Datenerhebung

    In der Phase der Datenerhebung ist es wichtig, alle im Web zu einem Thema, einer Marke oder einer Person publizierten Beitrge zu finden und zu speichern unabhngig vom Medienkanal und Dateiformat. So knnen sich beispielsweise wich-tige Botschaften in Podcasts- und Vodcasts verste-cken. Daher sollte ein hochwertiges Monitoring-System auch relevante Video- und Audio-Dateien aufspren knnen. Dies leisten bisher wenige An-bieter. Nur vier der vierzehn Befragungsteilnehmer bercksichtigen Audio-Dateien und fnf Teilneh-mer Video-Dateien in ihrer Webmonitoring-Lsung.

    Ebenso wichtig ist, neben bereits bekannten Quel-len auch das Deep Web nach relevanten Inhalten zu durchsuchen, d.h. die Stellen im Web, die mit normalen Suchmaschinen wie google oder techno-rati nicht auffindbar sind. Denn hufig sind es gerade diese Foren oder Micro-Communities, in denen sich eine anfnglich kleine Diskussion zu einem fr ein Unternehmen ernst zunehmenden Issue oder vielsprechenden Trend entwickelt. Webmonitoring sollte daher nicht nur die bekann-ten Quellen nach relevanten Beitrgen durchsu-chen, sondern auch eine quellenunabhngige Suche ermglichen. An dieser Stelle sollte auf den Unterschied und die Definition der zwei immer wieder synonym verwendeten Begriffe Screening und Monitoring hingewiesen werden, da sich in der Praxis noch kein einheitlicher Sprachgebrauch durchgesetzt hat. In der vorliegenden Studie wird unter dem Begriff Screening die Datenerhebungs-form subsumiert, bei der das gesamte Web nach relevanten Beitrgen durchsucht wird. Beim Moni-toring hingegen werden apriori festgelegte Quellen regelmig nach relevanten Beitrgen durchsucht.

    Nicht zuletzt fordern globalisierte Mrkte, dass Webmonitoring nicht nur fr den deutschsprachi-

    gen Raum stattfindet, sondern dass die Web-monitoring-Lsung mglichst viele Sprachen bercksichtigen kann.

    Datenaufbereitung

    Bei der Datenaufbereitung mssen die ent-deckten und gesammelten Beitrge zunchst von irrelevanten Dokumenten wie Spam oder Doubletten bereinigt werden. Einerseits kann dies manuell durch Redakteure oder anderseits automatisiert durch spezielle Softwarewerk-zeuge geschehen. Eine Automatisierung dieser oft zeitaufwendigen Prozesse erhht die Effek-tivitt des Webmonitoring-Projekts erheblich. Daneben sollten in dieser Phase die Meta-Daten der Dokumente (z.B. Autorenname oder Erstellungsdatum) extrahiert und abgespei-chert, sowie die Beitrge mit Schlagworten - sogenannten Tags - versehen werden, um die anschlieende Datenanalyse zu vereinfachen und zu beschleunigen. Einige Anbieter greifen hierbei auf Klassifizierungswerkzeuge oder automatische Verschlagwortung zurck.

    Auerdem ist die Form der Archivierung zu beachten. So macht es fr die Breite und Tiefe der Analysemglichkeit der Daten einen gro-en Unterschied, ob sie in einer einfachen Da-tenbank oder einer komplexen multidimensio-nalen Analyseumgebung abgespeichert wer-den. Mchte man Text Mining Verfahren an-wenden oder spter auf einzelne Beitrge zugreifen, sollte ein Anbieter gewhlt werden, der die Dokumente auch textbasiert abspei-chert. Dies ist vor allem bei der kontinuierli-chen Beobachtung der Webkommunikation im Rahmen der ffentlichkeitsarbeit, des Issue- oder Reputation-Managements wichtig.

    Erfordert das Webmonitoring-Projekt eine automatisierte Analyse mit speziellen Mining-Verfahren und einer Textanalyse-Software, muss der Anbieter auch die Preprocessing-Phase der Textanalyse durchfhren bei-spielsweise durch Stoppwortbereinigung und Textzerlegung in Wortgruppen und Stze.

  • Alexander Plum, 2009

    4

    Webmonitoring im Vergleich

    Datenanalyse

    In der dritten Phase des Webmonitoringprozesses wird aus den aufbereiteten Daten das fr den Kun-den notwendige Wissen generiert. Hierbei gibt es bislang signifikante Unterschiede in der Herange-hensweise sowie im Leistungsumfang, da das Spektrum vorhandener Analysevarianten sehr breit ist. So knnen Autoren- und spezielle Profiling-Analysen Meinungsfhrer und Multiplikatoren im Netz identifizieren. Relevanz- und Quellen-Analysen frdern bedeutende Orte im Netz fr spezielle Themen zu Tage und geben Auskunft ber die Reichweite und damit das mgliche Ein-flusspotential von Quellen und Beitrgen. Buzz-Analysen informieren ber das Involvement einer Zielgruppe zu einem speziellen Thema und Tonali-ttsanalysen geben einen Eindruck ber das Mei-nungsbild der Zielgruppe. Nicht zuletzt sind Trend- und Issue-Analysen vor allem bei der kon-tinuierlichen Entwicklung von Themen und Mar-ken wichtig, um durch die frhzeitige Erkennung schwacher Signale seinen Handlungsspielraum zu sichern und entscheidende Wettbewerbsvorteile zu erzielen.

    Diese Analysen basieren auf einem recht umfang-reichen Methodenrepertoire, welches von den be-fragten Unternehmen unterschiedlich eingesetzt und kombiniert wird. Die Bandbreite der Verfah-ren fngt bei deskriptiven statistischen Methoden an, geht ber die Verfahren der Sozialen Netzwerk Analyse, bis hin zur quantitativen und qualitativen Inhaltsanalyse. Doch mit diesen Methoden allein lsst sich die tglich zunehmende Datenmenge im Internet nicht bewltigen. Daher setzen Anbieter vermehrt auf Verfahren des Data-, Text- und Web-Mining, da diese gerade fr die Aufbereitung und Analyse groer Datenmengen entwickelt wurden. Eine weitere fr das Webmonitoring wichtige Me-thodik ist die semantische Analyse. Sie ermglicht es, aus groen Textmengen intelligente und ver-stndliche Darstellungen wie Themennetze zu generieren. Anhand derer knnen schnell und effi-zient Muster in der Kommunikation erkannt wer-den. So kann beispielsweise analysiert werden, in welchem negativen Kontext eine Marke oder ein Produkt in der Webkommunikation steht ohne das unzhlige Codierer und Analysten jeden ein-zelnen Beitrag lesen und auswerten. Darber hin-

    aus hat sich auch die Kombination von The-men- und Quellen-Netzen als effektives Ver-fahren zur Mustererkennung und damit In-haltserschlieung der komplex verflochtenen Webkommunikation herausgestellt. Aber auch qualitative Methoden aus der Soziologie wer-den auf die Onlineforschung bertragen und eingesetzt, um marktrelevante Kundeninsights aus den Konsumentengesprchen im Netz her-auszufiltern. Diese Methoden werden hufig mit dem Begriff Netnografie belegt. Neben der unterschiedlichen Ausschpfung dieses umfangreichen Methodenspektrums, unter-scheiden sich die Anbieter auch durch den Gtegrad der Methodenumsetzung. So arbeiten einige mit wissenschaftlich anerkannten und erprobten Methode, andere wiederum entwi-ckeln eigene Vorgehensweisen, die jedoch hufig nicht oder wenig standardisiert sind.

    Ergebnisprsentation

    Bei der Ergebnisprsentation ist vor allem eine entscheidungsrelevante Aufbereitung der Er-gebnisse wichtig. Nichts ist im Unternehmens-alltag wichtiger als schnell und unkompliziert zu erfahren, wie der aktuelle Status aussieht und was dies fr das eigene Unternehmen be-deutet. Erst dann kann Webmonitoring das Management effizient und sinnvoll unterstt-zen. Hierbei unterscheiden sich die Angebote auf dem deutschen Markt jedoch erheblich nicht zu letzt durch die verschiedene Herkunft der Anbieter, aber wohl auch durch die unter-schiedlichen Bedrfnisse der Kunden. So lie-fern Technologie-Anbieter vor allem die Werkzeuge, um eine kontinuierliche, themen-bezogene Beobachtung des Webs zu ermgli-chen, detaillierte Datenanalyse sowie hand-lungsleitende Interpretation bieten sie dagegen nicht. Dieses Angebot wird vor allem von den aus der Kommunikations- und Unternehmens-beratung stammenden Anbietern geliefert. Ist ein Unternehmen an bereits aufbereitetem handlungsleitendem Wissen interessiert und sollen keine eigenen Ressourcen im Unter-nehmen fr das operative Webmonitoring ein-gesetzt werden, sind aus dieser Perspektive eher die Unternehmen mit einem Beratungs-hintergrund geeignet. Daher sei nochmals

  • Alexander Plum, 2009

    5

    Webmonitoring im Vergleich

    darauf verwiesen: Vor allem das Verwendungs- und Analyseziel des Kunden entscheidet darber, welcher Anbieter der geeignetste ist.

    Projektspezifisch sollte zudem entschieden wer-den, ob die Rohdatenbasis fr das Projekt von Interesse ist. Damit ist die Frage verbunden, ob es fr das Einzelprojekt wichtig ist, die Gte und Aussagekraft der Ergebnisse des Webmonitorings unternehmensintern zu verifizieren. Dies kann wiederum nur durch die Offenlegung der Rohdaten geschehen. Auerdem haben Kunden dadurch auch die Mglichkeit eigenstndige Analysen, mit den bekannten Programmen durchzufhren. Dies er-hht die Flexibilitt der Datenanalyse, da man als Kunde so nicht allein von der methodischen Kom-petenz des Webmonitorings abhngig ist. Viele Webmonitoring-Anbieter gestalten nicht nur die Rohdatenbasis, sondern auch ihre Vorgehensweise bei der Datenerhebung, -aufbereitung und -analyse recht intransparent. Dadurch wird eine Ergebniskontrolle des Webmonitoring-Projekts fr den Kunden signifikant erschwert bzw. unmglich.

    Bietet das Webmonitoring-Unternehmen auch eine webbasierte Reporting-Oberflche ein sogenann-tes Dashboard oder Cockpit sind weitere Anfor-derungen zu bercksichtigen. Die Leistungsfhig-keit einer solchen Cockpit-Lsung drckt sich durch eine umfassende, bersichtliche und vor allem entscheidungsrelevante Ergebnisprsentation aus. Aber auch die Mglichkeit der eigenen Daten-exploration kann projektspezifisch von Vorteil sein. Genauso wichtig sind Suchfunktionen, die es ermglichen, aus groen Datenmenge effizient an relevante Information zu gelangen. Auerdem ist eine benutzerfreundliche und personalisierte An-passung der Reporting-Oberflche fr den Nutzer vorteilhaft. Die Professionalitt eines Cockpits drckt sich darberhinaus durch das Anbieten ei-ner mandantenfhigen Software, der Integrations-mglichkeit in die eigene IT-Infrastruktur und die Bereitstellung eines Demo-Zugangs aus.

    Mchte man das Cockpit fr das Krisen- und Issue-Management benutzen, ist zudem eine Alert-funktion, die den Anwender ber fr ihn wichtige Ereignisse jederzeit auf dem Laufenden hlt, von groer Bedeutung. Eine weitere wichtige Funktion ist die Mglichkeit, externe Daten, wie beispiels-weise den E-Mail-Verkehr aus dem CRM, Daten

    aus vorangegangene Webmonitoring-Projekten oder Daten von dem klassischen Medienbeo-bachtungsdienst in das System einspielen und analysieren zu knnen. Entscheidend bei der Beurteilung der Webmonitoring-Software ist auch hier, fr welchen Zweck die Lsung ein-gesetzt werden soll. So kann einer kleineren Marketing-Abteilung vielleicht schon ein rela-tiv einfach gehaltenes Cockpit ausreichen. Mchte ein Unternehmen die Lsung aller-dings in die IT-Infrastruktur integrieren und verschiedenen Abteilungen fr unterschiedli-che Zwecke zur Verfgung stellen, sind die Anforderungen entsprechend anzupassen.

    Das Studiendesign

    Aufgrund dieser spezifischen Anforderungen der verschiedenen Phasen des Webmonito-ringprozesses wurde fr die vorliegende Studie ein differenziertes Kriteriensystem entwickelt, um der Heterogenitt des Marktes gerecht zu werden und eine Vergleichbarkeit zu schaffen. Mithilfe einer standardisierten, personalisierten Befragung wurde ermittelt, inwieweit die ein-zelnen Anbieter diese Aufgaben lsen. Befragt wurden vierzehn Anbieter, die mit einem eige-nen Webmonitoring-Angebot auf dem deut-schen Markt vertreten sind und ihre Dienste in allen vier Kernphasen des Webmonitoring anbieten. Um der Entwicklung des Marktes Rechnung zu tragen, wurden neben den gro-en, etablierten Anbietern auch Neueinsteiger untersucht. Da die Fragen sehr umfassend wa-ren und viele Details betrafen, richtet sich die Befragung ausschlielich an die Unterneh-mensleitungen oder leitende Angestellte, die den Unternehmensbereich Webmonitoring verantworteten. Dort, wo sich nach der Befra-gung noch offene Fragen ergaben, wurden zustzlich qualitative Telefon- oder persnli-che Interviews gefhrt. Darber hinaus half eine umfangreiche Sichtung der Presseberichte ber die einzelnen Anbieter bei der Verifizie-rung der Aussagen. Sofern die Anbieter einen Einblick in Technologien, wie Cockpit oder Web2.0-Suchmaschine gewhrten, wurden die Antworten mit Hilfe von Live-Tests auch auf diese Weise berprft.

  • Alexander Plum, 2009

    6

    Webmonitoring im Vergleich

    Neben allgemeinen Parametern zur Marktprsenz und Leistungsumfang des Angebots fokussierte das Studiendesign vor allem spezielle, an den Cha-rakter des Webmonitorings angepasste Analyseka-tegorien. Anhand der in den einzelnen Phasen des Webmonitorings angewendeten Technologien, Verfahren und Analysen konnte einerseits das Technologie- und andererseits das Methoden-Know-how des jeweiligen Anbieters bewertet werden. Anschlieend flossen die in den einzelnen Phasen erzielten Bewertungen zum Leistungsum-fang, Technologie- und Methoden-Know-how in eine Gesamtbewertung der Leistungsfhigkeit der Anbieter ein. Ein Teil dieser Auswertungen wird aufgrund der teilweise zgerlichen Haltung vieler Webmonitoring-Anbieter erst in dem zweiten Be-richt der Studie, der im Herbst 2009 erscheint, einflieen.

    Marktprsenz

    Um die Marktprsenz zu bestimmen, wurden die Anbieter gefragt, wie lange sie bereits Erfahrung auf dem Gebiet des Webmonitoring vorweisen knnen, wie viele Mitarbeiter sie Vollzeit in die-sem Bereich beschftigen und in welchen Lndern sie ihr Angebot vertreiben. Zudem sollte ermittelt werden, wie viel Umsatz sie mit Webmonitoring erwirtschaften, um mithilfe dieses Kriteriums die Gre des Marktes und die einzelnen Marktanteile der Anbieter bestimmen zu knnen. Bedauerli-cherweise antworteten nur drei der vierzehn An-bieter auf diese Frage, so dass dieser Aspekt leider nicht geklrt werden konnte.

    Leistungsumfang

    Zur Bewertung des Leistungsumfangs wurde nicht nur erhoben, welche und wie viele Verfahren und Analysen die Anbieter in den einzelnen Phasen des Webmonitoring einsetzen, sondern auch in welcher Form und in welchem Umfang sie die Ergebnisse den Kunden zur Verfgung stellen.

    Technologiekompetenz

    Bei der Evaluation der Technologiekompetenz stand im Fokus, ob die Anbieter eigene Technolo-gien entwickelt haben und fr welche Zwecke sie generell Technologien einsetzen. So ist es bei-spielsweise ein Unterschied, ob ein Anbieter die

    Datenerhebung mit einer eigenen entwickelten Spider- und Crawler-Technologie durchfhrt oder ob dafr ausschlielich verschiedene frei im Netz zugngliche Tools wie Technorati, Google Groups oder Foren-User verwendet werden. Zudem erfordert es mehr technologi-sches Know-how, die Ergebnisse des Monito-rings in einem mandantenfhigen Cockpit oder Dashboard zu veranschaulichen, anstatt nur Texte und tabellarische Auflistungen zur Ver-fgung zu stellen. Auch die Dashboard-Lsungen unterscheiden sich hinsichtlich der dafr verwendeten Technologie.

    Methoden-Know-how

    Das Methoden-Know-how hngt vor allem davon ab, welche Arten von Analysen und Verfahren im Webmonitoringprozess durchge-fhrt werden sowie in welcher Form die Da-tenerhebung und -aufbereitung stattfindet. Daher wurde beispielsweise erhoben, wie die Anbieter bei der Datenaufbereitung vorgehen, welche konkreten Analysetypen zum Einsatz kommen und welche methodischen Verfahren angewendet werden. Zudem floss in die Evalu-ation der Anbieter ein, wie diese methodisch mit der Bewertung der identifizierten Quellen und Beitrge umgehen und wie die Text-Dokumente fr weitere Analysen aufbereitet werden.

    Im Anhang des vorliegenden Abstracts befin-det sich eine vollstndige bersicht ber den verwendeten Kriterienkatalog.

  • Alexander Plum, 2009

    7

    Webmonitoring im Vergleich

    Die Ergebnisse im berblick

    Bevor die an der Onlinebefragung teilgenomme-nen Anbieter im Detail vorgestellt und bewertet werden, folgt zunchst ein kurze Zusammenfas-sung der Studienergebnisse.

    Neue Anbieter drngen auf den Markt

    Generell zeigt die vorliegende Anbieterstudie, dass immer mehr Unternehmen Webmonitoring als neues Handlungsfeld entdecken. Ein Zeichen fr den schnell wachsenden Bedarf an dieser Dienst-leistung. So treten neben den bereits am Markt etablierten Unternehmen, die sich schon seit meh-reren Jahren mit dem Thema Webmonitoring be-schftigen, auch immer hufiger groe Agentur-netzwerke oder Medienbeobachtungsdienste als Anbieter fr Webmonitoring-Dienstleistungen auf. Die neuen Akteure verfgen zumeist nicht ber eigenes methodisches oder technologisches Know-how auf dem Gebiet des Webmonitoring, sondern mssen diese Kompetenz ber Zukufe oder Part-nerschaften in ihr Unternehmen tragen. Daher scheint ein entscheidender Vorteil etablierter Webmonitoring-Spezialisten ihre langjhrige Branchen- und breite Anwendungserfahrung zu sein. Agenturen, wie beispielsweise Weber Shandwick dagegen haben erst seit letztem Jahr und Publicis erst dieses Jahr unter Zukauf, vor allem von Technologie-Know-how, ein speziali-siertes Webmonitoring-Angebot auf den deutschen Markt gebracht. Vorteil dieser neuen Akteure scheint vor allem ihre Kompetenz auf dem Gebiet der Kommunikationsberatung zu sein. Genau hier fehlt es, wie die Studie zeigen konnte, einigen Webmonitoring-Spezialisten, die sich eher auf das Anbieten der Technologie fokussiert haben. Doch gerade erst durch das Interpretieren und Finden der richtigen Antworten aus den Ergebnissen des Webmonitoringprojekts verhilft diese neue Form der Onlineforschung Kunden zum Erfolg. Der Vergleich der verschiedenen Anstze der Webmo-nitoring-Anbieter zeigt, dass vor allem ein Full-Service-Angebot beim Webmonitoring wichtig ist.

    Unterschiede auch in Methodik und Tech-nologie-Einsatz

    Die Studie besttigt, dass sich die befragten Anbieter nicht nur im Leistungsumfang und der grundstzlichen Herangehensweise an das Thema unterschieden. Auch hinsichtlich der Methoden und Technologien bei der Datener-hebung, -aufbereitung und -analyse konnten wesentliche Unterschiede nachgewiesen wer-den. So arbeiten beispielsweise viele Anbieter mit einer speziell fr das Web 2.0 entwickelten Spider- und Crawler-Technologie, die teilwei-se in jahrelanger Forschungsarbeit gemeinsam mit Hochschuleinrichtungen entwickelt wurde. Vier Anbieter nutzen indes eine kommerzielle Technologie eines Drittanbieters. Ein Webmo-nitoring-Anbieter verwendet sogar nur frei im Netz verfgbare Werkzeuge, fnf Anbieter ergnzen die eigene Technologie damit und einer arbeitet zustzlich mit quantitativen Da-tenstzen von Drittanbietern.

    Ein anderes Beispiel fr die Verschiedenheit der Angebote ist das Spektrum der eingesetz-ten Methoden und Verfahren in der Phase der Datenanalyse. Insbesondere hierbei sollten interessierte Unternehmen sehr genau auf die Herangehensweise des Anbieters achten. Lngst nicht alle Angebote so zeigt die Stu-die eignen sich aufgrund dieses Unterschieds fr jeden Anwendungsbereich. Das gesamte zur Verfgung stehende Methodenrepertoire wird nur von den wenigsten Anbietern einge-setzt. Abbildung 1 verdeutlicht die Unterschie-de in der Technologie- und Methodenkompe-tenz der vierzehn Anbieter.

  • Alexander Plum, 2009

    8

    Webmonitoring im Vergleich

    Echtzeit-Screening nur eingeschrnkt mglich

    Hinsichtlich der mglichen Frequenz der Datener-hebung herrscht groe Intransparenz. Angesichts der rasanten Entwicklung der Kommunikation im Internet mchten die Anbieter ihren Kunden natr-lich wichtige neue Meldungen, Vernderungen und Akteure so zeitnah wie mglich verfgbar machen. Gerade wenn das Webmonitoring-System als Frhwarnsystem im Issue-Management genutzt werden soll, ist dies von groer Bedeutung. Daher sprechen viele Anbieter davon, dass sie sowohl das Screening als auch das Monitoring in Echtzeit, d.h. stndlich bzw. tglich durchfhren knnen. Fast alle Anbieter gaben eine tgliche bzw. stndliche Frequenz fr beide Verfahren an. Allerdings soll-ten diese Angaben der Anbieter nicht ungeprft angenommen werden, denn die Zeit und damit der Aufwand fr die Datenerhebung steigt exponen-tiell mit der Anzahl der zu durchsuchenden Quel-len. So ist es durchaus mglich ein Monitoring fr eine gewisse Anzahl bekannter Quellen stndlich zu realisieren. Aber ein stndliches Scannen des gesamten Internets ist schier ausgeschlossen. Kei-ne Technologie auf der Welt kann dies bisher leis-ten. Nicht einmal Google kann die gesamte Anzahl der ihm bekannten Quellen stndlich nach aktuel-len Inhalten durchsuchen. Im Schnitt kann es bis zu einer Woche dauern bis Google diese Menge an Quellen bewltigt hat. Und gerade die Entdeckung

    neuer Quellen, die im Webmonitoring beson-ders wichtig ist, bentigt eine gewisse Zeit.

    Quantitativer vs. qualitativer Webmonito-ring-Ansatz

    Als eine der wichtigsten Erkenntnisse der Stu-die kann festgehalten werden, dass sich die Anbieter vor allem durch ihren Fokus auf den quantitativen oder den qualitativen Webmoni-toring-Ansatz unterscheiden. Die Debatte be-zglich der Vor- und Nachteile der quantitati-ven und qualitativen Forschungsanstze wird in der Wissenschaft und vor allem in den Sozi-alwissenschaften seit mehreren Dekaden heftig diskutiert. Die hierbei geuerten Ansichten und Argumentationslinien spiegeln sich auch auf diesem jungen Feld der Onlineforschung wieder. Zu den Einzelheiten der Debatte sei an dieser Stelle auf die einschlgige Literatur verwiesen. Einige der Webmonitoring- Anbieter haben sich fr den Mittelweg ent-schieden und versucht durch die Kombination quantitativer und qualitativer Analysen die jeweiligen Nachteile auszugleichen. Dieser Ansatz scheint angesichts der Herausforde-rung, aus der riesigen Datenmenge in den vir-tuellen Kommunikationswelten empirisch ab-gesicherte, aber auch wirklich aussagekrftige

    Abb.1: bersicht der Methoden- und Tech-nologiekompetenzder Anbieter

  • Alexander Plum, 2009

    9

    Webmonitoring im Vergleich

    Informationen herauszufiltern, der vielverspre-chendste zu sein.

    Automatisierung erhht die Effizienz

    Ein weiteres offensichtliches Unterscheidungs-merkmal ist der Einsatz automatisierter Verfahren. Nur wenige Anbieter auf dem Markt verfgen tatschlich ber das Know-how verschiedenste Analysen automatisiert durchfhren zu lassen. Da es hierfr noch keine standardisierte Software gibt, mssen die Anbieter in den meisten Fllen eigene Software fr einzelne Analysetypen entwickeln. Bei einfachen Analysen wie der Messung der Quantitt einer Diskussion zu einem speziellen Thema (Buzz-Analysen) scheint dies noch relativ trivial zu sein. Vergegenwrtigt man sich indes die Feinsinnigkeit unserer Sprache, wird klar, dass die automatisierte Bestimmung der Tonalitt der Webbeitrge dagegen kein leichtes Unterfangen darstellt. Gerade in Hinblick auf die mit Jargon, Slang oder Ironie versehene Sprache. Der Vorteil der Automatisierung solcher zeitintensiven, mono-tonen Analysen liegt klar auf der Hand. Durch den Einsatz von Software anstelle von Codierern oder Analysten fr eine solche Arbeiten, lsst sich der zeitliche, personelle und damit auch finanzielle Aufwand erheblich reduzieren.

    Neben dem Kostenaspekt kommt hinzu, dass die manuelle Vorgehensweise durch die Masse an im Web vorhandenen Daten sowie die Komplexitt der Diskussionen und die hohe Vernetzung der Autoren an ihre Grenzen stt. Mittlerweile wird die Gre des sichtbaren Internets auf mehr als 2 Milliarden Seiten geschtzt. Bercksichtigt man auch die nur indirekt zugngliche, nur ber Benut-zer-Login oder ber Abfragen an Datenbank-systeme erreichbaren Informationen, so verzehn-facht sich nach Einschtzungen von Experten die Anzahl vermutlich. Gerade fr Einsatzfelder wie dem Issue- oder Krisen-Management, bei denen es darauf ankommt schnell und annhernd vollstndig neue relevante Informationen im Internet zu fin-den, ist eine manuelle Auswertung daher in den meisten Fllen nicht geeignet. Lsungen hierfr bieten vor allem die Technologie-Anbieter, die mithilfe verschiedener Mining-Verfahren fhig sind, auch sehr groe Datenmenge aufzubereiten und auszuwerten.

    Nicht jedes Angebot eignet sich fr jedes Anwendungsfeld

    Als weitere wichtige Erfahrung aus der Studie muss noch einmal darauf hingewiesen werden, dass vor allem die Ziele und die Anwendungs-bereiche, aber auch die Ressourcen im Unter-nehmen darber entscheiden, welcher Anbieter der passendste ist. So mchte das eine Unter-nehmen vielleicht keine Mitarbeiter dafr ab-stellen das Webmonitoring-System zu bedie-nen. Andere wiederum wollen das System fr alle Mitarbeiter im eigenen Intranet zur Verf-gung stellen. Wieder andere wollen eher die Rohdatenbasis des Webmonitorings mit ihnen bekannten Programmen wie Excel eigenstn-dig analysieren. Daher sollte im Vorfeld der Auswahl des Webmonitoring-Anbieters genau festgelegt werden, welche Ziele verfolgt wer-den und welche Anforderungen und Bedin-gungen das System erfllen muss. Bestenfalls sollten dafr alle im Unternehmen betroffenen Abteilungen bei der Festlegung der Webmoni-toring-Ziele und Anforderungen beteiligt wer-den, damit nicht wesentliche Details, die zur Entscheidung des Webmonitoring-Anbieters wichtig sind, unbercksichtigt bleiben.

  • Alexander Plum, 2009

    10

    Webmonitoring im Vergleich

    Marktaufteilung: Kompetenzfhrer, starke Anbieter, Verfolger und Auenseiter Unter Bercksichtigung aller im Bewertungsmo-dell aufgestellten Kriterien lsst sich der Markt fr Webmonitoring wie folgt einteilen: Neben einem klaren Kompetenzfhrer gibt es drei leistungsstar-ke Anbieter, acht Verfolger und zwei Auenseiter. Die Abbildung 2 veranschaulicht die Aufteilung. In wie weit die jeweiligen untersuchten Anbieter, die Kriterien erfllen, wird in den Einzelprofilen aufgezeigt.

    Die Skala fr die Leistungsfhigkeit bercksichtigt sowohl den Leistungsumfang, die Methoden- und Technologiekompetenzsowie die Branchen- und Anwendungsfelderfahrung der Anbieter. Die Skala Leistungsumfang spiegelt das Spektrum des Ange-bots in allen vier Phasen des Webmonitorings wider und die Gre des Kreises ergibt sich durch die Anzahl der Branchen und Anwendungsberei-che, in denen die Anbieter bereits Webmonitoring-Projekte durchgefhrt haben.

    Abb. 2: bersicht ber die Leistungsfhigkeit und den Leistungsumfang der vierzehn Anbieter

  • Alexander Plum, 2009

    11

    Webmonitoring im Vergleich

    Preis-Leistungs-Verhltnis sehr verschieden

    Der Preis hngt beim Webmonitoring vor allem vom Umfang und der Tiefe des Auftrages ab. Um eine Vergleichbarkeit zwischen den verschiedenen Angeboten zu schaffen, wurden die Anbieter daher gefragt, wie viel eine einmalige Basisanalyse kos-tet, bei der drei Themen ber den Zeitraum von 12 Monaten in einer Sprache, unter Bercksichtigung eines Wettbewerbers analysiert werden. Daneben wurde auch nach dem Preis fr die monatliche Beobachtung, Auswertung und das entsprechende Reporting unter den gleichen Rahmenbedingungen gefragt. Insgesamt haben nur neun Anbieter Anga-ben zu dieser Frage gemacht. Interessanterweise lsst sich kaum ein Zusammenhang zwischen Leis-tungsfhigkeit, Leistungsumfang, Technologie- und Methodenkompetenz und dem Preissegment feststellen. Genauso wenig scheint die Herkunft des Anbieters eine Rolle fr die Hhe des gefor-derten Preises zu spielen.

    Abbildung 3 gibt einen berblick ber die Leistungsfhigkeit (blaue Linie) und das Preis-segment des jeweiligen Anbieters fr die Ba-sisanalyse (rote Linie) sowie das monatliche Webmonitoring-Angebot (grne Linie). Die Preisangaben der Anbieter wurden dabei in unteres, mittleres und hohes Preissegment ein-geteilt. Auf der vorliegenden Skala von 0 bis 100 wurde dem unteren Preissegment der Wert 30, dem mittleren der Wert 60 und dem hohen der Wert 90 zugeordnet. So zeigt sich in der Abbildung beispielsweise, dass das Angebot fr eine Basisanalyse bei den beiden leistungs-starken Anbieter Ethority und Publicis im hochpreisigen Segment liegt, Verfolger wie Cogisum und die Auenseiter Hyve aber eben-falls dort zu finden sind. Nielsen und B.I.G. schneiden im Preis-Leistungs-Verhltnis am besten ab. Aber auch bei Unicepta ergibt sich ein vergleichsweises moderates Verhltnis zwischen Leistung und Preis.

    Abb. 3: Leistungsfhigkeit, Preissegment fr Basisanalyse und monatliches Webmoni-toring der jeweiligen Anbieter

  • Alexander Plum, 2009

    12

    Webmonitoring im Vergleich

    Die Anbieter im Detail

    Hyve AG

    Die Hyve AG entwickelte ihren Webmonitoring-Ansatz aus dem eigenen Agenturgeschft heraus. Als Innovationsagentur fr kundenzentrierte Pro-duktinnovationen, verfolgt Hyve seit 2000 die Einbindung von Kunden in die Entwicklung von Produkten und Services. Bereits seit 2002 nutzt Hyve dafr auch die Communities im Web 2.0. Aus diesem Ansatz heraus entwickelte Hyve ihren qualitativ ausgerichteten Webmonitoring-Ansatz: Netnography.

    Hyve selbst versteht Netnography nicht zwangs-lufig als Monitoring oder Screening. Vielmehr sehen wir dieses Tool als qualitative passive und explorative Methode, um Konsumentenstimmen im Anfangsstadium des Innovationsprozesses zu sammeln und dadurch qualitative Aussagen, Inno-vationspotentiale und Konsumentenbedrfnisse abzuleiten. Ein Netnography-Projekt beinhaltet sowohl die Erhebung und Analyse der qualitativen Daten als auch deren bersetzung in Consumer Insights und das weitere bersetzen und Aufzei-gen von Handlungsoptionen, Produkt- und Servi-celsungen. Es ist eine software-gesttzte, aber auf keinen Fall eine software-basierte Methode. Viel-mehr ist `zwischen-den-Zeilen-Lesen` und inter-disziplinre Denkleistung gefragt, so Dr. Micheal Bartl, Vorstand der Hyve AG.

    Diese Unterscheidungsmerkmale mssen als Ab-grenzungskriterien jedoch relativiert werden. Denn wie die vorliegende Studie aufzeigt, gibt es auf dem deutschen Markt durchaus andere Anbieter, die ebenfalls eher qualitativ vorgehen und vor allem auf die interdisziplinre Denkleistung ihrer eigenen Analysten und Berater setzen. Was Hyve wirklich von den anderen Anbietern am Markt unterscheidet ist ihre Spezialisierung und Konzent-ration auf die Nutzung des Webmonitorings fr das Innovationsmanagement und die Fhigkeit die generierten Insights in Produktinnovationen umzu-setzen. So verfgen sie als einziger Anbieter in der vorliegenden Studie ber ein eigenes Industrie-Design Team. Der Netnography-Ansatz von Hyve kann alles in allem als ein rein qualitativer Web-monitoring-Ansatz charakterisiert werden.

    Datenerhebung

    Hyve konzentriert sich auf die Tiefenanalyse bewusst ausgewhlter Communities zur Gene-rierung von qualitativen Kunden-Insights. Da-her bieten sie auch ausschlielich Social Media Screenings an, die speziell auf die fokussierte Community zugeschnitten werden. Die konti-nuierliche Beobachtung und berwachung von Themen vor allem ein Anwendungsfeld fr PR und Issue-Management spielt keine Rolle im Webmonitoring-Angebot von Hyve.

    Durch das spezielle Analyseziel bezieht Hyve in die Analyse auch ausschlielich Social Me-dia ein. Beitrge der klassischen Medien oder Preis-, Wettbewerber- und Patentinformationen werden aus diesem Grund nicht analysiert. Als Social Media unbercksichtigt, lsst Hyve Newsgroups, Eintrge in Kommentarfelder klassischer Online-Medien und jede Art von Wikis auen vor. Hyve bietet seine Net-nography-Analyse in insgesamt vier Sprachen an. Zur Erfassung relevanter Quellen, auf de-nen sich die Mitglieder der entsprechende Community austauschen, verlassen sich die Analysten von Hyve auf die ffentlich zu-gnglichen Tools im Web und greifen nicht auf eine extra Spider- und Crawler-Technologie zurck.

    Datenaufbereitung

    Durch die qualitative und manuelle Herange-hensweise ist in diesem Sinne keine Aufberei-tung der Daten notwendig. Die von den Ana-lysten als relevant identifizierten Dokumente werden als Texte abgespeichert.

    Erfahrung im Webmonitoring seit

    2002

    Mitarbeiteranzahl* Bis zu 10

    Vertriebsgebiet Deutschsprachiger Raum und Nordamerika

  • Alexander Plum, 2009

    13

    Webmonitoring im Vergleich

    Datenanalyse

    Da Hyve ihren Kunden rein qualitative Ergebnisse liefert, ist es fr sie auch nicht notwendig ein Ver-fahren zu entwickeln, mit dem sie die Quantitt der Kommunikation zu einem Thema bewertet. Fr die Bewertung der Relevanz einer Quelle oder eines Beitrages nutzen sie eine sehr umfangreiche, eige-ne Systematik. Darin spielen unter anderem der Aktivittsindex, die Aktualitt, die Relevanz, die Gre des Forums oder der Inhalt des Forums eine Rolle. Durch den qualitativen Charakter der Er-gebnisse stellt Hyve die Resultate ihren Kunden ausschlielich in Prsentationen vor.

    Resmee

    Da das Unternehmen ihren Netnography-Ansatz rein qualitativ betreibt, verzichtet die Hyve AG weitgehend auf die Entwicklung eigener Techno-logien fr die einzelnen Phasen des Webmonito-rings. An den Stellen, wo sie auf Software ange-wiesen ist, greift die Firma auf gngige Technolo-gien anderer Anbieter oder frei zugngliche Tools im Netz zu. Dementsprechend lsst sich feststellen, dass Hyve selbst ber wenig eigenes Technologie-Know-how verfgt.

    Durch die qualitative Onlineforschung besitzt Hyve umfangreiche sozialwissenschaftliche Me-thodenkenntnisse. Vor allem wendet das Unter-nehmen ethnographische Analyseverfahren aus der Soziologie an. Methoden anderer Wissenschaften sind nach Ansicht von Hyve fr die Ziele ihrer Webmonitoring-Projekte nicht notwendig. So wer-den beispielsweise keine semantischen Analysen, kein Data-, Text- oder Web-Mining eingesetzt. Auch auf quantitative Analysen wie die Buzz-Analyse oder korpusbasierte Verfahren zur effi-zienten Muster- und Strukturerkennung in dem komplexen Geflecht der Social Media greifen sie nicht zurck, da sie sich ohnehin nur auf eine klei-ne, bewusst ausgewhlte Datenmenge beschrn-ken, um qualitative Insights zu generieren. Durch den qualitativen Ansatz verzichtet Hyve insgesamt auf jegliche Form von automatisierten Analysen, sondern setzen nur rein manuelle Verfahren ein.

    Resmierend lsst sich daher feststellen, dass Hyve mit seinem Netnografie-Ansatz unter den in der vorliegenden Studie gewhlten Kriterien und

    im Vergleich zu den anderen Webmonitoring-Anbietern am Markt eher eine Auenseiter Rolle einnimmt. Fr Firmen, die durch einen Einblick in die Bedrfnisse einer eng definier-ten Zielgruppe Produktinnovationen hervor-bringen wollen, scheint die Herangehensweise von Hyve folgerichtig zu sein. Allerdings muss dabei immer beachtet werden, dass durch die bewusste Beschrnkung auf einige wenige Communities, die sich vor allem durch ein hohes Involvement auszeichnen, die bertrag-barkeit der Ergebnisse auf eine grere Ziel-gruppe relativiert werden muss.

    Fr andere Anwendungsfelder des Webmoni-torings wie dem Issue-Management, der Com-petitive Intelligence oder dem Customer Rela-tionship Management, in denen es um die voll-stndige Analysen der Kommunikation zu einem Thema sowie deren kontinuierliche Be-obachtung geht, ist der Ansatz der Netnografie nicht entwickelt worden und daher nicht ge-eignet.

  • Alexander Plum, 2009

    14

    Webmonitoring im Vergleich

    Unicepta

    Das 1994 gegrndete Unternehmen Unicepta ver-steht sich in erster Linie als Medienbeobachtungs-Anbieter, da hier die Wurzeln des Unternehmens liegen. Unicepta war ursprnglich bis zur Ausglie-derung und Grndung eines eigenen Unterneh-mens die Medienbeobachtungsabteilung des Bay-erkonzerns. Daher bernimmt Unicepta auch heute noch die Medienbeobachtung vor allem fr Kon-zerne wie Bayer und BASF und viele Dax notierte Unternehmen.

    Seit 2005 ist Unicepta auch im Bereich Webmoni-toring ttig. Dabei bertrgt das Unternehmen seine Methoden der klassischen Medienbeobach-tung auf das Internet und nimmt eine manuelle Analyse durch Lektoren bzw. Redakteure vor.

    Erfahrung im Webmonitoring seit

    2005

    Mitarbeiteranzahl* 2 Mitarbeiter

    Vertriebsgebiet Deutschland, Nord-amerika

    Datenerhebung

    Unicepta nutzt zur Datenerhebung sowohl selbst entwickelte Spider und Crawler als auch ergnzend die gngigen Suchmaschinen. Die Frequenz der Datenerhebung ist dabei sehr hoch und wurde in der Befragung fr das Screening mit stndlich und das Monitoring mit tglich angegeben. Die Erhe-bung deckt annhernd das gesamte Spektrum der Social Media ab, lsst jedoch Video- und Audioda-teien auen vor. Whrend der Erhebung werden Quellen in bis zu 12 Sprachen bercksichtigt. Im Bereich der Datenerhebung liegt Unicepta dem-nach, was Leistungsumfang und Technologie an-geht, auf Augenhhe mit der Mehrheit der unter-suchten Webmonitoring-Anbieter.

    Datenaufbereitung

    Im Bereich der Datenaufbereitung wurden hinge-gen einige Defizite festgestellt. So werden nach Aussagen von Unicepta nur irrelevante Dokumente

    aus dem gesammelten Datenmaterial gelscht. Eine Spam- und Doubletten-Bereinigung sowie eine Extraktion der Meta-Daten der Dokumen-te findet nicht statt. Zudem sind sie die einzi-gen Webmonitoring-Anbieter, die die erhobe-nen Daten nicht archivieren und damit dem Kunden auch nicht als Rohdaten zur Verf-gung stellen.

    Datenanalyse

    Vor allem in der Analysephase zeigen sich die Grenzen des vornehmlich manuell betriebenen Ansatzes fr den Bereich des Webmonitoring, mit dem Unicepta in der klassischen Medien-beobachtung dagegen sehr erfolgreich ist. Da der Groteil der Auswertung von Menschen-hand vorgenommen wird, kann Unicepta unter Kosten-Nutzen-Aspekten immer nur ein zah-lenmig beschrnktes Dokumentenvolumen bercksichtigen. Neben Infospeed sind sie im brigen die einzigen, die keinerlei Textanaly-se-Software einsetzen.

    Betrachtet man die methodische Herange-hensweise von Unicepta spiegelt sich einmal mehr ihre Herkunft wider. Als klassischer Me-dienbeobachtungsdienst setzen sie dort be-whrten Methoden der deskriptiven Statistik und beide Formen der Inhaltsanalyse ein. Me-thoden aus anderen Disziplinen kommen noch nicht zum Einsatz. So fehlen die fr das Web-monitoring wichtigen Visualisierungstechniken wie Themen- oder Quellen-Netze, semantische und syntaktische Verfahren, sowie Methoden des Text-, Data- und Web-Mining.

    Ergebnisinterpretation

    Die Ergebnisse liefert Unicepta entweder per E-Mail oder in einer Prsentation. Ein Cockpit mit Alert-Funktionen und detailierten Analy-semglichkeiten der erhobenen Daten wurde nach Angaben von Unicepta bisher noch nicht von ihren Kunden gefordert. Dies begrndet Unicepta mit den eingeschrnkten Darstel-lungsmglichkeiten eines solchen Dashboards. Oft wren Detail-Analysen gefragt, die auf einem standardisierten Dashboard schwer dar-stellbar sind. Das dies durchaus mglich ist, stellen andere Anbieter der Studie allerdings

  • Alexander Plum, 2009

    15

    Webmonitoring im Vergleich

    unter Beweis. Gerade fr Kunden, die Webmonito-ring als Issue-Management-Lsung nutzen mch-ten, bietet eine solche webbasierte Dashboard-Oberflche wertvolle Vorteile. So sind sie nicht nur immer ber den aktuellen Stand der interessie-renden Diskussion informiert, sondern knnen jederzeit unabhngig vom Dienstleister in wichtige Beitrge hineinschauen oder die Vernetzung der Autoren prfen.

    Resmee

    Gelingt es Unicepta technologisch und methodisch mit den Webmonitoring-Spezialisten aufzuholen, dann kann die Kombination aus ihrem klassischen Medienbeobachtungs-Know-how und Webmonito-ring-Know-how eine sehr gute Lsung, gerade fr strategische Entscheider darstellen. Dies ist auch erklrtes Ziel von Unicepta. Aus ihrem eigenen Verstndnis heraus richten sie sich weniger an Marketingverantwortliche als an strategisch Ver-antwortliche, denn mit ihrer Dienstleistung wollen sie strategische Bereiche wie Issue-Management, KrisenManagement, strategisches Management und Innovationsmanagement untersttzen.

    Unicepta kann als Unternehmen, das sein Kernge-schft in der klassischen Medienbeobachtung hat, dem direkten Vergleich mit auf Webmonitoring spezialisierten Anbietern momentan jedoch noch nicht mithalten. Hier gibt es, wie aufgezeigt, vor allem in den Bereichen Datenaufbereitung und -analyse Defizite in Methodik, Technologiekompe-tenzund Leistungsumfang, die mit manuellen Ver-fahrenstechniken nicht wettzumachen sind. Als kritisch ist die fehlende Archivierung der Rohda-tenbasis zu bewerten, da auf diese Weise eine Pr-fung der Datenqualitt sowie weitere von Unicepta unabhngige Analysen mit dem Daten-material ausgeschlossen sind.

    Andere Untersuchungsteilnehmer haben diese Herausforderungen mit dem Einsatz geeigneter Technologien gelst, was angesichts der enormen und stetig wachsenden Datenvolumina im Web unumgnglich ist. Problematisch scheint dies vor allem, da sich Unicepta im Bereich Webmonito-ring auf das Anwendungsgebiet Issue-Management spezialisiert hat und sich spezielle Webmonitoring-Technologien, wie eine umfassende Archivie-rungs- und Datenaufbereitungs-Technologie oder

    eine Cockpit-Lsung sich gerade fr diesen Anwendungsbereich sehr gut eignen.

    Bei der Bewertung sollte dennoch bercksich-tigt werden, dass Unicepta vorrangig in der klassischen Medienbeobachtung verankert ist. Daher sollte das Unternehmen nicht unter den Gesichtspunkten eines Webmonitoring-Anbieters betrachtet werden; viel mehr ist ihr Webmonitoring-Angebot hier als Portfolio-Ergnzung zu verstehen. Momentan befindet sich der Bereich Webmonitoring nach Anga-ben der Geschftsfhrung im Aufbau und wird in Zukunft verstrkt an Bedeutung im Dienst-leistungsangebot von Unicepta gewinnen.

  • Alexander Plum, 2009

    16

    Webmonitoring im Vergleich

    Weber Shandwick / Radian6

    Zur Analyse der Reputation ihrer Kunden im digi-talen Raum und als Basis fr integrierte Kommu-nikationsstrategien arbeitet die Agentur Weber Shandwick mit dem amerikanischen Social Media Monitoring Tool Radian6. Auf dem deutschen Markt hat sich Weber Shandwick seit Mrz 2008 mit einer eigener Unit unter der Marke screengrab auf das Thema Social Media spezialisiert und geht es vor allem aus der Perspektive einer Kommuni-kationsberatung an. Daher bieten sie sich vor allem fr die Unternehmen an, die mithilfe von Webmo-nitoring versuchen, ihre kommunikativen Strate-gien und Manahmen zu verbessern. Radian6 selbst ist noch nicht mit einer eigenen deutschen Niederlassung vertreten. Im untersuchten Webmo-nitoring-Angebot von Weber Shandwick ber-nimmt die PR-Agentur die qualitative Analyse sowie die Empfehlung von Handlungsmanahmen und deren Umsetzung. Radian6 dagegen fungiert als Technologie-Anbieter in diesem Tandem. Erfahrung im Webmonitoring seit

    Weber Shandwick seit 2008

    Mitarbeiteranzahl* Bis zu 30

    Vertriebsgebiet International

    Datenerhebung Radian6 setzt bei der Datenerhebung auf ein quel-lenunabhngiges Verfahren, das heit das Tool scannt das gesamte Web nach relevanten Beitr-gen. Nach eigenen Angaben dies sogar stndlich. Allerdings sind solche Aussagen von auen und selbst mittels Live-Tests schwer zu berprfen, genauso wie die Vollstndigkeit der Trefferquote. Insgesamt knnen mit dem Tool neun Sprachen erfasst werden, darunter auch die wichtigsten asia-tischen Sprachen. Als relevante Beitrge knnen Text-, Audio- und Videodateien auf Blogs, in Fo-ren oder Bewertungsportalen mit Radian6 gefun-den werden. Die Suchmaschinentechnologie von Radian6 basiert auf einer eigenen Suchmaschine sowie ber eine Schnittstelle zu 32 ffentlich zu-gnglichen Suchmaschinen. Darunter sind bei-spielsweise Google-Blog-Search und Technorati.

    Datenaufbereitung

    Das Tool Radian6 gehrt in die Kategorie der Dashboards, daher werden alle erfassten Bei-trge inkl. der relevanten Kontextinformation in einer Datenbank abgespeichert. Bei der Echtzeit-Suchanfrage werden dem User auto-matisch alle Beitrge aus den letzten 30 Tagen angezeigt. In wie weit die Findings des Social Media Screenings automatisiert von Spam, Doubletten oder irrelevanten Content bereinigt und in welcher Art die Dokumentenbasis fr die Analysen aufbereitet werden, konnte We-ber Shandwick nicht beantworten.

    Datenanalyse

    Wie auf dem nordamerikanischen Markt blich setzt Radian6 bei der Datenanalyse auf rein automatisierte quantitative Analysen. ber fnf verschiedene Widgets Radian6 bezeich-net sie als eine Art Hilfsprogramme, welche mit der Radian6-Suchmaschine zusammenar-beiten kann der Anwender demzufolge die Suchergebnisse zu seinen Themen ber auto-matisierte quantitative Verfahren fr sich aus-werten. Beispielsweise zeigt das Widget To-pic-Cloud die fnfzig am hufigsten erwhn-ten Wrter in den Suchergebnissen, whrend das Widget Comparative-Topic-Monitor das jeweilige Beitragsvolumen von zwei ausge-whlten Themen darstellt. Auf diese Weise wird zum Beispiel ersichtlich, ob in den letzten 30 Tagen mehr zu Angela Merkel oder zu Frank-Walter Steinmeier gesprochen wurde. Die qualitative Analyse, d.h. beispielsweise das detailierte Nachzeichnen eines Stim-mungsbildes oder die Analyse von Aspekten der Unzufriedenheit mit einem Produkt muss der Anwender von Radian6 aus der angezeig-ten Datenmenge selbst durchfhren. Er kann sich zwar Trendverlufe im Dokumentenauf-kommen zu den verschiedenen Themen anzei-gen lassen, die Kernfragen des Webmoni-torings Wie und warum wird ber ein Thema diskutiert? muss der Anwender sich durch das Lesen der jeweiligen Beitrge jedoch selbst beantworten. Im vorliegenden Fall bernimmt Weber Shandwick auf Wunsch seiner Klienten diese qualitative Auswertung, da bei den Klienten oft Zeit, Ressourcen und zum Teil

  • Alexander Plum, 2009

    17

    Webmonitoring im Vergleich

    auch das notwendige analytische Fachwissen fr diese aufwendige Arbeit fehlen. Die Kommunika-tionsberater von Weber Shandwick lesen bei einem solchen Auftrag die Quellen einzeln durch, filtern diese manuell und nehmen anschlieende eine kontextbasierte Bewertung vor. Semantische Ana-lysen, Themen- oder Quellen-Netze sowie Mining Verfahren kommen im Webmonitoring-Ansatz von Weber Shandwick nicht zum Einsatz.

    Resmee

    Angesicht der Tatsache, dass Weber Shandwick auf die Kombination von einfachen automatisier-ten quantitativen Analysen und manuellen qualita-tiven Analysen baut, ist die Methodenkompetenz mit anderen Anbietern, die das gesamte Methoden-repertoire bedienen knnen, nicht vergleichbar. Die Grenze dieser Vorgehensweise ist wie ein-gangs erlutert die schiere Masse an vorhande-nen Beitrgen und die Komplexitt vieler Themen.

    Bezglich der Technologiekompetenzschneidet Weber Shandwick mit der Radian6-Technologie etwas besser ab, rangiert aber trotzdem mit dieser Lsung eher im unteren Mittelfeld. So kann Radian6 durch die benutzerdefinierten Einstellun-gen zwar auf die verschiedenen Informationsbe-drfnisse der Anwender individuell eingehen, je-doch fehlen im Cockpit entscheidende Ergebniszu-sammenfassungen, die dem Anwender den Durch-blick durch das Datendickicht verschaffen. Auch kann der Anwender selbst ber die deskriptiven statistischen Verfahren hinaus keine anderen Ana-lysen selbst durchfhren. Groer Nachteil ist auch die fehlende Tonalittsbestimmung. So muss der Anwender diese sehr zeitintensive Bestimmung fr jeden einzelnen Beitrag selbst vornehmen.

    Letztlich lsst sich feststellen, dass diese Kombi-nation aus PR-Agentur und Technologie-Anbieter im Grunde ein sehr guter Ansatz darstellt, da hier zwei fr das Webmonitoring wesentliche Kompe-tenzen zusammengefhrt werden. Jedoch fehlt es diesem Tandem bisher noch an entscheidender Erfahrung im Webmonitoring-Bereich gerade in Bezug auf den deutschen Sprachraum.

  • Alexander Plum, 2009

    18

    Webmonitoring im Vergleich

    Infospeed

    Infospeed hat sich aus einem IT-Beratungs-unternehmen zu einem auf Webmonitoring spezia-lisierten Dienstleistungsunternehmen entwickelt. Ihren Umsatz generieren sie zu 100 Prozent aus dem Verkauf von Kunden- und Marktinsights aus dem Social Web. Daher charakterisieren sie sich heute hauptschlich als Marktforschungsunter-nehmen.

    Erfahrung im Webmonitoring seit

    2005

    Mitarbeiteranzahl* Bis zu 10 Mitarbeiter

    Vertriebsgebiet Deutschland, Nord-amerika

    Datenerhebung

    Zur Datenerhebung bildet Infospeed Searchstrings, das sind Suchwortkombinationen, ab, die sie in ihre eigene Web 2.0-Suchmaschine eingeben und auf diese Weise alle zu einem Thema relevanten Beitrge im Social Web finden wollen. Infospeed geht demnach wie die meisten Anbieter quelle-nunabhngig vor. Ein quellenbasiertes Verfahren kommt nach Angaben von Infospeed nicht zum Einsatz. Die Frequenz ist mit dem quartalsmigen Rhythmus fr das Screening und einem wchentli-chen Rhythmus fr das Monitoring zu den anderen Studienteilnehmern vergleichsweise gering. Mit ihrer eigene Spider- und Crawler-Technologie knnen sie Textbeitrge in Blogs, Foren, Twitter, Communities und Portale mit User Generated Con-tent durchsuchen. Video- oder Audio-Dateien be-zieht Infospeed nicht in ihr Webmonitoring ein. Als Social Media Kanle bleiben Newsgroups, Eintrge in Kommentarfeldern, Wikis und Social Bookmarking-Dienste unbercksichtigt. Momen-tan hat Infospeed ihre Technologie auf sieben Sprachen ausgerichtet.

    Datenaufbereitung

    Aus den durch die Spider und Crawler erfassten Dokumenten lscht Infospeed manuell Doubletten und irrelevante Dokumente. Die relevanten Meta-daten werden zwar extrahiert, aber nicht in einer

    Datenbank archiviert. Als Archivierungsform whlt Infospeed die textbasierte Speicherung.

    Datenanalyse

    Fr die Datenanalyse setzt Infospeed, bis auf Buzz-Analysen und Suchbegriffsanalysen, ausschlielich auf manuelle Auswertungen. Daher werden die Dokumente auch nicht wei-ter semantisch aufbereitet. Das Spektrum der eingesetzten Verfahren ist im Vergleich zum Durchschnitt der Studienteilnehmer relativ gering. So kommen bei Infospeed nur Analy-sen mittels Themen-Netze und kombinierter Themen-Quellen-Netze sowie die qualitative Inhaltsanalyse zum Einsatz.

    Ergebnisdarstellung

    ber die Resultate des Webmonitorings infor-miert die Infospeed GmbH ihre Kunden in Form von E-Mail, Textdokumenten und mithil-fe eines Cockpits. Letzteres wurde bereits in die Unternehmenssoftware verschiedener Kunden eingebaut. Einen Demozugang bietet Infospeed Interessenten allerdings noch nicht, da die Software noch nicht mandantenfhig ist. Standardfunktionen, wie Volltextsuche oder Alert-Services ber E-Mail soll die Software bereitstellen.

    Resmee

    Bezogen auf den Leistungsumfang wie auch die Leistungsfhigkeit des gesamten Angebots liegt Infospeed eher im unteren Mittelfeld der untersuchten Webmonitoring-Anbieter. Da sie beispielsweise nicht alle Social Media Kanle und Dateiformate und momentan nur eine ein-geschrnkte Anzahl von Sprachen bercksich-tigen. Zudem stt ihr Ansatz, der Kombinati-on aus automatischer Erfassung und manueller Auswertung wie schon im Profil zu Unicepta erlutert auf Grund des stetig wachsenden Dokumentenaufkommens im Web schnell an seine Grenzen. Die Mglichkeit, die Auswer-tung in einem zeitlich und auch finanziell ver-tretbaren Rahmen durchzufhren, sinkt expo-nentiell mit der Anzahl der zu einem Thema vorhandenen Kommunikation. Wie die Studie zeigt, verzichten andere Anbieter trotz

  • Alexander Plum, 2009

    19

    Webmonitoring im Vergleich

    Technologie-Einsatz nicht auf die menschliche Intelligenz bei der Auswertung. Doch wo Techno-logie den Menschen ersetzen kann und damit die Effizienz des Prozesses steigert, ist es sinnvoll auf automatisierte Verfahren zurck zugreifen.

  • Alexander Plum, 2009

    20

    Webmonitoring im Vergleich

    Cognita AG

    Das Spin-Off-Unternehmen der ETH Zrich ent-wickelt und betreibt nach eigenen Angaben perso-nalisiert aufbereitete, intelligente Mediendienst-leistungen, von tglichen Kurzberichten bis zu Applikationen fr Firmenkunden. Im Bereich Webmonitoring werden die Leistungen in allen vier Kernphasen von der Datenerhebung bis zur Dateninterpretation angeboten. Die Cognita AG sieht sich selbst eher als Technologie-Anbieter denn als Unternehmensberatung oder Marktfor-schungsunternehmen. Auf Handlungsempfehlun-gen bzw. Umsetzung von geeigneten Manahmen nach dem Webmonitoring sind sie daher nicht spezialisiert.

    Datenerhebung

    Auf dem Markt tritt das im Vergleich zu anderen Webmonitoring-Anbietern kleine und junge Un-ternehmen vor allem mit ihrem Echtzeit-Beobachtungsdienst bluereport auf. Dieser Dienst konzentriert sich auf die Phasen Datenerhebung und -aufbereitung und kann als Monitoring-Dienst charakterisiert werden, da hier ein quellenbasiertes Verfahren zur Anwendung kommt. Dabei wird nicht das komplette Web nach relevanten Quellen durchforstet, sondern speziell ausgewhlte Me-dien- und Web 2.0-Quellen. Nach eigenen Anga-ben knnen mit dem bluereport ber 12.000 Quel-len kontinuierlich beobachtet werden. Neben reichweitenstarken Medienangeboten werden auch Mitteilungen von Unternehmen, Verbnden, NGOs, Parteien, Parlamenten und Verwaltungen sowie ber 6.000 Blogs beobachtet. Audio-, Video-, Patent- und Preisinformationen der Wett-bewerber werden nicht systematisch durchleuchtet. Dafr ist Cognita der einzige Anbieter, der auch

    explizit diverse Parlamentsdatenbanken fr die Informationssuche verfgbar macht.

    Datenaufbereitung

    Bei der Datenaufbereitung werden Spam-beitrge und Doubletten herausgefiltert sowie der Name der Quellen und das Erstellungsda-tum als relevante Kontextinformationen der Beitrge abgespeichert. ber die Einstellung und Pflege der individuellen Suchagenten kn-nen die Beitrge nach hnlichen Artikeln zum gleichen Thema geclustert werden. ber den webbasierten bluereport werden dem Anwen-der tagesaktuell neu gefundene Beitrge als Trefferliste prsentiert. Dabei whlt Cognita, wie die nchste Abbildung zeigt, eine hnliche Darstellung wie diverse Suchmaschinen.

    Stuft der Anwender einen angezeigten Beitrag als relevant ein, kann er ihn ber die Archivie-rungsfunktion im Ablageordner fr sptere Zwecke speichern.

    Datenanalyse

    Positiv hervorzuheben ist, dass Cognita eine eigene Methodik zur Relevanzbewertung der Quellen und Beitrge sowie der Quantitt des zu einem Thema erfassten Dokumentenauf-kommens entwickelt hat. Andere wichtige Verfahren, um aus der digitalen Datenmenge ntzliches Wissen zu generieren, fehlen aller-dings. Zur Anwendung kommen vor allem deskriptive quantitative Analysen mithilfe statistischer Verfahren, die Social-Network-Analyse, Themen- und Quellen-Netze sowie die quantitative Inhaltsanalyse und semanti-

    Erfahrung im Webmonitoring seit

    2008

    Mitarbeiteranzahl* 4

    Vertriebsgebiet Deutschsprachiger Raum

    Abb. 4: Screenshot der blueReport-Lsung

  • Alexander Plum, 2009

    21

    Webmonitoring im Vergleich

    sche Verfahren. Mining-Verfahren, die die Effi-zienz der Analyse enorm steigern und sich gerade bei groen Datenmengen anbieten, werden nicht eingesetzt. Ebenso wird keine qualitative Inhalts-analyse zur Generierung von tiefergehenden Kun-den- und Markt-Insights verwendet. Anzumerken ist, dass die inhaltlichen Analysen in dem Fest-preisangebot bluereport nicht enthalten sind, son-dern auf Wunsch des Kunden individuell angefer-tigt werden.

    Ergebnisprsentation

    Neben dem bluereport bietet Cognita die Ergebnis-se des Webmonitoring auch in Form von E-Mail, Tabellen und Prsentation an. Ein Cockpit zur Prsentation der Resultate der Datenanalyse ist nicht im Angebot von Cognita integriert.

    Resmee

    Das Unternehmen bietet zwar ein Echtzeit-Monitoring an, allerdings ist die Technologie nur auf das quellenbasierte, aber nicht auf das quelle-nunabhngige Verfahren spezialisiert. Zudem wird keine Management-Software wie ein Cockpit oder Dashboard angeboten, das die Ergebnisse der Webmonitoring-Analyse in Grafiken zusammen-fasst und entscheidungsrelevant prsentiert. Insge-samt rangiert die Cognita AG mit ihrer Technolo-giekompetenzdamit im unteren Mittelfeld. Da Cognita fr das Webmonitoring wesentliche Ver-fahren nicht anwendet, liegt sie im Vergleich zu den anderen Anbietern mit ihrer Methodenkompe-tenz ebenfalls im unteren Mittelfeld. Zusammen-fassend lsst sich schlussfolgern, dass die Strke der Cognita AG auf ihrem Echtzeit-Monitoring-Dienst liegt. Das heit, diejenigen Anwender, die jederzeit auf Neuigkeiten in Parlamentsdatenban-ken, in den klassischen Medien und ausgewhlten Blogs auf dem Laufenden gehalten werden mch-ten, erhalten mit dem bluereport ein einfach zu bedienendes Tool zur kontinuierlichen Medienbe-obachtung. Die Auswertung des tglich einstr-menden Materials und die kontextbezogene Inter-pretation liegt weiterhin in der Hand des Anwen-ders. Als umfassendes Optimierungswerkzeug zur Verbesserung der eigenen Manahmen und Strate-gien, welches den Groteil der Arbeit bereits im Vorfeld abnimmt, ist bluereport eher nicht geeig-net.

  • Alexander Plum, 2009

    22

    Webmonitoring im Vergleich

    Online-MarketWatch.com

    Das sterreichische Unternehmen ist bereits seit 1999 auf die Entwicklung von Softwaresystemen zur kontinuierlichen Marktbeobachtung, vor allem im Internet, spezialisiert. Inhaltlich liegt der Fokus daher insbesondere auf dem Bereitstellen von Mo-nitoring-Software. Einmalige Analyse, d.h. qualita-tive Tiefenanalysen der Webkommunikation sind bei Online-MarketWatch eher untypisch. Als Technologie-Anbieter konzentriert sich die Firma mit ihrem Angebot auf die Phase der Datenerhe-bung und Datenaufbereitung. Die Interpretation von Ergebnissen und die Umsetzung von Ma-nahmen spielt bei Online-MarketWatch nur eine marginale Rolle.

    Erfahrung im Webmonitoring seit

    1999

    Mitarbeiteranzahl* Bis zu 10

    Vertriebsgebiet Deutschsprachiger Raum, Sd-Westeuropa und Osteuropa

    Datenerhebung

    Zur Erfassung der relevanten Quellen und Beitrge im Web setzt Online-MarketWatch auf ein kombi-niertes Vorgehen von quellenunabhngigen und quellenabhngigen Verfahren. Nach eigenen An-gaben kann das Monitoring und auch Screening des Webs tglich durchgefhrt werden. Sie beo-bachten dabei Blogs, Newsgroups sowie Adwords und vergleichen Preisangaben in insgesamt 5 Spra-chen. Wichtige Web 2.0 Kanle wie Communities, Wikis, Mikroblogging-Dienste wie Twitter und auch Foren werden nicht bercksichtigt. Auch Audio- oder Video-Dokumente werden nicht erho-ben.

    Datenaufbereitung

    Bei der Datenaufbereitung ist der Leistungsumfang des sterreichischen Unternehmens deutlich gr-er. So werden Spam, Doubletten und irrelevante Fundstcke gelscht. Meta-Daten werden extra-

    hiert und der Datensatz archiviert, um im An-schluss dem Kunden angeboten zu werden. Auch Pre-Verfahren aus Text-, Data- und Web-Mining werden genutzt, um das Materials fr die Analysephase aufzubereiten.

    Datenanalyse

    Online-MarketWatch setzt eine klare Prioritt auf quantitative Auswertung. Diese wird so-wohl automatisiert als auch manuell durchge-fhrt. Manuelle qualitative Analysen kommen nur selten zum Einsatz, automatisierte qualita-tive Analysen gar nicht. Daher beschrnkt sich das Spektrum der Analysen auf Buzz-, Tonali-tt-, Relevanz-, Quellen-, Issues- und Suchbeg-riffsanalysen. Autoren-, Profiling- oder Trend-Analysen werden nicht angeboten.

    In der Methodik hat sich das Unternehmen auf die Kombination deskriptiver statistischer Ver-fahren, quantitativer Inhaltsanalyse mit ver-schiedenen Mining-Methoden spezialisiert. Visualisierungsverfahren wie Personen-, The-men- oder Quellen-Netze bietet Online-MarketWatch nicht. Die Social-Network-Analyse oder ethnografische Verfahren wie auch andere qualitative Methoden setzt Online-MarketWatch als ein auf quantitative Verfah-ren spezialisierter Webmonitoring-Anbieter nicht ein.

    Ergebnisprsentation

    Die Berichte ber die Resultate des Webmoni-toringprojekts erfolgen z. T. ber E-Mail oder Zusammenfassungen in Tabellen, zum anderen mit Hilfe eines eigens konzipierten Cockpits bzw. Dashboards. Auch ein telefonisches Brie-fing steht zur Verfgung. Analog zur Daten-analyse erfolgt auch die Prsentation haupt-schlich mit dem Augenmerk auf quantitative Daten. Im Dashboard lassen sich neben Google-Rankings, Preis- und Sortimentsnde-rungen sowie Markenanalysen auch Tonalitts- und Relevanz-Analysen anzeigen. Zur eigenen Untersuchung stehen dem Nutzer unter ande-rem Text- und Data-Mining-Verfahren zur Auswahl. Ein integrierter E-Mail Alert warnt vor pltzlichen Vernderungen in Preisen oder

  • Alexander Plum, 2009

    23

    Webmonitoring im Vergleich

    Sortimenten.

    Resmee

    Der Fokus und damit die Strken der Online-MarketWatch liegen auf der Preis- und Sorti-mentsbeobachtung sowie der Werbemessung. So sind sie von den untersuchten Anbietern einer der wenigen, der auch die Wirkung von Adwords mes-sen kann. In der Gegenberstellung zu den anderen Anbietern auf dem Markt fr Webmonitoring kann Online-MarketWatch daher als Experte fr Kon-kurrenzbeobachtung, Competitive Intelligence und Marktbeobachtung charakterisiert werden und durch die Spezialisierung auf die Datenerhebung, -aufbereitung und quantitative Analyse eher als Informationsdienstleister, wie als Berater oder Agentur verstanden werden. Hinsichtlich der Qua-litt als Social Media Monitoring-Spezialist kann Online MarketWatch durch die Nichtbercksichti-gung wichtiger Web 2.0 Kanle den Vergleich mit den anderen untersuchten Unternehmen noch nicht standhalten.

  • Alexander Plum, 2009

    24

    Webmonitoring im Vergleich

    Cogisum Intermedia AG

    Die 2000 gegrndete Cogisum AG hat sich auf die inhaltliche Erschlieung und Strukturierung von digitalem Wissen durch automatisierte Verfahren spezialisiert. Ihr Handlungsfeld sieht die Cogisum AG an der Schnittstelle zwischen Enterprise Con-tent Management und Business Intelligence Systemen. Seit 2003 beschftigen sie sich mit der Erschlieung der Informationen aus dem Web. Aus diesem Unternehmensverstndnis heraus fokussiert sich Cogisum klar auf die Automatisie-rung der Verfahren der Datenerhebung, -aufbereitung und -analyse beim Webmonitoring. Interpretation der Ergebnisse liefert Cogisum da-her eher selten; Handlungsempfehlungen sowie Umsetzung von empfohlenen Manahmen gar nicht. Daher kann Cogisum auch vornehmlich als Technologie-Anbieter charakterisiert werden.

    Erfahrung im Webmonitoring seit

    2003

    Mitarbeiteranzahl* Bis zu 15 Mitarbeiter

    Vertriebsgebiet Deutschsprachiger Raum

    Datenerhebung

    Cogisum ist einer der wenigen Anbieter am Markt, die nicht beide Suchverfahren einsetzen. Nach eigenen Angaben beschrnken sie sich nur auf das Verfahren des Monitorings. Dafr haben sie aber Verfahren zur Erweiterung der vorhandenen Quel-lenbasis entwickelt, um auch neue Quellen in das Monitoring einbeziehen zu knnen. Wie viele an-dere Webmonitoring-Anbieter bezieht Cogisum keine Audio- und Video-Dateien in das Monitoring ein. Daneben erfassen sie nach eigenen Angaben auch keine Patent- und Preisinformationen im Web. Als Social Media kann Cogisum bis auf Mikroblogs, wie Twitter alle wichtigen Kanle erfassen. Aktuelle bercksichtigt Cogisum alle europischen Verkehrssprachen.

    Datenaufbereitung

    Bei der Datenaufbereitung erfllt Cogisum fast vollstndig die aufgestellten Kriterien. Sie bereinigen die Datenbasis von Doubletten, entfernen irrelevante Beitrge und extrahieren wichtige Kontextinformationen der Beitrge. Da sie in der Datenanalyse Verfahren des Text-Mining einsetzen, fhren sie auch die Phase des Preprocessing durch. Die Dokumen-te inkl. der Texte und Meta-Daten hinterlegt Cogisum in einer Datenbank. Eine Spambe-reinigung fehlt allerdings.

    Datenanalyse

    Als Technologie-Anbieter legt Cogisum seinen Schwerpunkt in der Datenanalyse auf automa-tisierte Analysen. Manuelle Verfahren kom-men nur selten zum Einsatz. Als zwei wichtige Analysen fehlen im Analyseportfolio von Co-gisum die Suchbegriffsanalyse sowie die Buzz-Bewertung. Anhand letzterem kann die Bedeu-tung der Quantitt des jeweils gemessenen Dokumentenaufkommens zu einem Thema erst inhaltlich erschlossen werden. Die Bewertung der Relevanz von Quellen und Beitrgen nimmt Cogisum anhand eines an den Kunden angepassten internen Bewertungssystems vor.

    Methodisch setzt Cogisum auf eine sehr um-fangreiche Kombination aus deskriptiven sta-tistischen Analysen, der Mustererkennung durch die Generierung von Themen- und Quel-len-Netze, Text- und Web-Mining-Verfahren, sowie qualitativer Inhaltsanalyse.

    Ergebnisprsentation

    Durch den Fokus auf automatisierte Webmoni-toring-Analysen liefert Cogisum als Output des Webmonitoring-Prozesses seinen Kunden vorwiegend quantitative Ergebnisse. Diese Ergebnisse stellt Cogisum in Form eines Cockpits dar. In dieser webbasierten Oberfl-che erhlt der Anwender Einblicke in die Ergebnisse aller Analysen. Andere Prsentati-onen gab Cogisum nicht an.

    Das Cockpit von Cogisum weist eine gute Performance auf. Positiv hervorzuheben sind beispielsweise die Mglichkeiten der weiteren Datenanalyse, die der Anwender hat. So

  • Alexander Plum, 2009

    25

    Webmonitoring im Vergleich

    kann er Echtzeit-Internetsuchanfragen, deskriptive statistische Analysen, Verfahren der Social-Network-Analyse, semantische Analysen, sowie Text-Mining-Verfahren selbst durchfhren. Hin-sichtlich der Mglichkeiten der Informationssuche in der Dokumentenbasis fehlen dem Anwender des Cogisum-Cockpits nur die Alternativen des eige-nen verschlagwortens der Beitrge und eine Social Bookmarking-Funktion. Obwohl Cogisum sich auf die Entwicklung von Software zur Optimierung von Informations- und Wissensmanagement spezi-alisiert hat, ist die Applikation fr das Webmonito-ring noch nicht mandantenfhig. Allerdings ist dies nach Aussagen der Cogisum AG in Planung. We-sentlich fr die Bewertung des Cockpits sind die fehlenden Informationen zum Suchverhalten der relevanten Zielgruppe sowie zur Verteilung der negativen, positiven und neutralen Stimmungen zu den interessierenden Themen. Letzteres befindet sich nach Cogisum gerade in der Entwicklung.

    Resmee

    Insgesamt betrachtet erfllt Cogisum viele wichti-ge Anforderungen an ein modernes Webmonito-ring und verfolgt mit der Automatisierung der Verfahren der Datenerhebung, -aufbereitung und -analyse auch einen angesichts der riesigen Da-tenmenge im Web sinnvollen und notwendigen Ansatz.

    Im Vergleich zum Durchschnitt der Studienteil-nehmer zeichnet sich Cogisum durch ein gutes technologisches Angebot aus. Doch schrnkt sich der Nutzerkreis dieses Angebots durch die Aus-richtung auf den quantitativen Webmonitoring-Ansatz und das Vernachlssigen wichtiger qualita-tiver Methoden im Vergleich zu den Nutzergrup-pen anderer Angebote ein. Den wichtigen Schritt der Transformation der Daten in entscheidungsre-levante Markt- und Kundeninsights bleibt bei die-ser Lsung dem Anwender berlassen. Er muss sich die Zeit nehmen und ber das notwendige methodische Know-how verfgen, um das Daten-material zu interpretieren und die richtigen Schls-se daraus zu ziehen. Methodisch gesehen wurde das Angebot von Cogisum daher eher in das untere Mittelfeld eingeordnet.

    Durch die aufgezeigten Lcken des Angebots, wie der Nichtbercksichtigung des Screenings-

    Ansatzes oder die gerade fr den quantitativen Webmonitoring-Ansatz notwendige Buzz-Bewertung liegt Cogisum trotz seiner sonst guten Performance nur im Mittelfeld der unter-suchten Webmonitoring-Anbieter.

  • Alexander Plum, 2009

    26

    Webmonitoring im Vergleich

    Nielsen Media Research

    Die Nielsen Media Research GmbH gehrt zur VNU-Gruppe, ein weltweit agierendes Medien- und Informationsforschungsunternehmen. Daher gehen sie auch den Bereich Webmonitoring als klassisches Marktforschungsunternehmen an. Aus dieser Perspektive bieten sie eine breite Leistungs-palette an: Datenerhebung, -aufbereitung, -analyse bis hin zur Interpretation der Ergebnisse und dem Aussprechen von Handlungsempfehlungen. Die Umsetzung der empfohlenen Manahmen ist nur sehr selten Teil des Angebots. Der Fokus des Webmonitoring-Ansatzes von Nielsen liegt nach eigenen Angaben auf der qualitativen Tiefenanaly-se und der Ableitung von sinnvollen Handlungs-empfehlungen. Daher liefern Sie als Ergebnisse des Online Monitorings auch vorwiegend qualita-tive Daten.

    Erfahrung im Webmonitoring seit

    1999

    Mitarbeiteranzahl* Bis zu 10 Mitarbeiter

    Vertriebsgebiet Deutschsprachiger Raum; Sdwesteuro-pa; Asien; Nordame-rika; Sdamerika

    Datenerhebung In der Phase der Datenerhebung offenbaren sich die Schwchen von Nielsen, die sonst eine sehr gute Performance aufweisen, denn sie gehen nur quellenbasiert vor, um relevante Beitrge und In-formationen zu entdecken. Der Nachteil bei dieser Vorgehensweise ist, wie eingangs erwhnt, dass hierbei nur vordefinierte Quellen durchsucht wer-den. Die Tiefen des Webs sind auf diese Weise nicht vollstndig erfassbar. Das Monitoring kann Nielsen, wie andere Anbieter stndlich anbieten. Zur Vollstndigkeit der berck-sichtigten Datenformate und -kanle lsst sich feststellen, dass Nielsen sowohl Text- als auch Video-Dateien, aber keine Audio-Dateien erfassen kann. Zudem bleiben auch Patent- und Preisinfor-mationen unbercksichtigt. Bis auf Wikipedia und andere Wikis sowie Social Bookmarkdienste, wer-den alle anderen Social Media Kanle beachtet.

    Technologisch setzt auch Nielsen eine eigene Spider- und Crawler-Technologie zur Datener-hebung ein. Datenaufbereitung In dieser Phase erfllt Nielsen fast alle aufge-stellten Anforderungen. Nur die Durchfhrung der Preprocessing-Phasen der Textanalyse sowie eine textbasierte Archivierung fehlen hier. Datenanalyse Hinsichtlich des Leistungsumfangs bietet Nielsen in der Datenanalyse ein breites Spekt-rum, denn bis auf detaillierte Profiling-Analysen knnen sie alle Analysen des Krite-rienkatalogs durchfhren. Der Schwerpunkt liegt dabei fast immer auf automatisierten, quantitativen sowie manuell qualitativen Ver-fahren. Zur Bewertung der Relevanz von Quel-len und Beitrgen hat Nielsen im Gegensatz zu anderen Wettbewerbern noch keine eigene Kennzahl bzw. Metrik entwickelt. Die Bewer-tung nimmt Nielsen, sofern diese vorhanden sind, anhand der Anzahl der Unique User, sowie der Menge der Kommentare und der Backlinks vor. Um die Bedeutung der Quanti-tt des Dokumentenaufkommens zu einem untersuchten Thema zu messen, greift auch Nielsen auf eine interne Benchmark-Datenbank zurck. Bezglich des Automatisierungsgrades der Verfahren lsst sich feststellen, dass Nielsen die einfacheren Verfahren wie Buzz-, Such-begriffs- und Quellen-Analysen bereits voll-stndig automatisiert durchfhrt. Fr andere komplexere Analysen whlt Nielsen eine Kombination aus manueller und automatisier-ter Vorgehensweise. Die Relevanz-Analyse fhren sie vollstndig manuell durch. Aus dem Spektrum der fr die Analysen einsetzbaren Verfahren, um aus der Rohdatenbasis interpre-tierbare Ergebnisse zu gewinnen, whlt Niel-sen fr sein Webmonitoring die quantitative und qualitative Inhaltsanalyse, semantische und syntaktische Verfahren sowie Text-Mining. Ergebnisprsentation

  • Alexander Plum, 2009

    27

    Webmonitoring im Vergleich

    Der Umfang der Ergebnisprsentation ist sehr um-fangreich. So kann der Kunde die Befunde seines Webmonitorings bis auf eine Social Media Appli-kation in allen Formaten erhalten. Fr eine konti-nuierliche Webbeobachtung bietet demnach auch Nielsen ein Cockpit an. In diesem werden fast alle Ergebnisse der verschiedenen Analysen prsen-tiert. Der Anwender hat hier wie bei den anderen Cockpits die Mglichkeit benutzerdefinierte Ein-stellungen vorzunehmen und mittels verschiedener Suchfunktionen, die ihn interessierenden Informa-tionen zu finden. Eine Alert-Funktion steht dem Kunden von Nielsen auch zur Verfgung. Bezglich der Integration in die Software-Umgebung des Kunden steht die Lsung von Niel-sen noch hinter anderen Angeboten auf dem Markt, denn bisher gibt es diese Mglichkeit noch nicht. Zudem erhlt der Anwender nur eine einge-schrnkte Mglichkeit eigene Analysen durchzu-fhren. So kann er nur Echtzeit-Internetsuchanfragen starten sowie syntaktische Verfahren und Text-Mining Analysen in Eigenre-gie anwenden. Resmee Am Markt der Webmonitoring-Anbieter besticht Nielsen vor allem durch seine langjhrige Erfah-rung auf dem Gebiet der Marktforschung und kann auch im Bereich des Webmonitorings auf umfang-reiche Erfahrung zurckgreifen. Wie anhand des Abschneidens in den einzelnen Phasen des Web-monitoring zu sehen ist, gehrt Nielsen zu einem soliden und fundierten Webmonitoring-Anbieter. Andere Anbieter haben aber vor allem durch eine bessere technologische Performance und breiteres Methodenspektrum Vorteile gegenber Nielsen.

  • Alexander Plum, 2009

    28

    Webmonitoring im Vergleich

    VICO Research & Consulting GmbH

    Die VICO Research & Consulting GmbH ist einer der Studienteilnehmer, der sich auf Webmonito-ring als Kerngeschft konzentriert. Seit 2003 sammelt das junge Unternehmen Erfahrung auf diesem Gebiet, mittlerweile mit bis zu 20 Mitarbei-tern. Wie der Firmenname impliziert bietet das Unternehmen dabei nicht nur reines Social Media Monitoring an, sondern auch Handlungsempfeh-lungen in Form von Social Media Consulting. Die Firma ist demnach im Bereich Webmonitoring als Full-Service-Anbieter zu verstehen.

    Erfahrung im Webmonitoring seit

    2003

    Mitarbeiteranzahl* Bis zu 20 Mitarbeiter

    Vertriebsgebiet Deutschsprachiger Raum; Sdwesteuro-pa; Skandinavien; Nordamerika

    Datenerhebung

    Die VICO GmbH nimmt ihr Screening und Moni-toring jeweils tglich vor und dies quellenbasiert und quellenunabhngig. Durch interne wie externe Technologien sowie einem Rohdatenlieferanten werden in erster Linie Daten aus den gngigen Social Media Kanlen, darunter auch aus dem Wissensportal Wikipedia sowie dem Microblog-gingdienst Twitter, erhoben. Nur spezielle, frei einsehbare Wikis sowie die Social Bookmarking Dienste werden nicht bercksichtigt. Preis- und Patentangaben sowie Audio- und Video-Dokumente auf den klassischen Medienkanlen, sowie der Unternehmenskommunikation werden nicht bercksichtigt. VICO konzentriert sich in der Datenerhebung demzufolge vornehmlich auf das Web 2.0. Das Screening wird aktuell in mehr als sieben verschiedenen Sprachen angeboten.

    Datenaufbereitung

    Die erhobenen Informationen werden vor der Ana-lyse umfangreich aufbereitet. Neben Spam und Doubletten werden auch irrelevante Dokumente entfernt sowie die Daten inklusive Original-URL

    und Metadaten textbasiert archiviert. Diese Rohdaten stehen im Anschluss dem Kunden zur Verfgung.

    Datenanalyse

    Fr die Datenanalyse nutzt VICO automatisier-te und manuelle Methoden fr qualitative und quantitative Fragestellungen gleicherma-en. Eine weitere Bewertung der Methoden-kompetenz des Unternehmens ist leider nicht eindeutig mglich, da VICO keine detaillierte-ren Angaben zu Leistungsumfang, den Vorge-hensweisen und dem Einsatz der Technologie in dieser wichtigen Phase des Webmonitorings preisgab. Die Fragen zu den eingesetzten Ver-fahren beantwortete VICO hingegen. Nach Angabe der Unternehmensleitung setzt VICO deskriptive statistische Verfahren, Text- und Data-Mining, sowie die quantitative und quali-tative Inhaltsanalyse ein. Auch ethno-grafische Verfahren aus der Soziologie werden zur Er-schlieung von qualitativen Insights ber die Bedrfnisse und das Verhalten spezieller Ziel-gruppen verwendet. Zur Ermittlung von Mei-nungsfhrern und Multiplikatoren kommen wichtige Verfahren, wie Personen-Netze oder die Social-Network-Analyse jedoch nicht zum Einsatz. Ebenso bleiben korpusbasierte Ver-fahren und spezielle Web-Mining Methoden unbercksichtigt.

    Ergebnisprsentation

    Auch hinsichtlich der Ergebnisprsentation hlt sich VICO sehr bedeckt. Zwar wurde an-gegeben, dass die Webmonitoring Resultate in Form von Textdokumenten, Prsentationen, Workshops und auch einer Software-Applikation geliefert werden knnen. Doch was die konkrete Leistungsfhigkeit, mgliche eigene Analysen durch den Kunden oder ein-zelne Komponenten der Dashboard bzw. Cockpit Lsung angeht, wurden von der VICO GmbH keine Angaben gemacht. Dies macht eine transparent nachvollziehbare Einscht-zung des Webmonitoring- Angebots der Stutt-garter Firma sehr schwierig.

  • Alexander Plum, 2009

    29

    Webmonitoring im Vergleich

    Resmee

    Durch die fehlenden Informationen in den zentra-len Aspekten des Webmonitorings, der Analyse und Prsentation, ist eine Einordnung der VICO GmbH sehr schwierig, soll aber dennoch nicht unversucht bleiben. Aus den gemachten Angaben sowie der klaren Positionierung als Social Media Monitoring Unternehmen in der ffentlichkeit, schneidet VICO trotz fehlender Angaben immer noch gut ab und siedelt sich daher im Mittelfeld der Webmonitoring-Anbieter an. Die Existenz eines Dashboards, der breite Umfang bei der Da-tenaufbereitung und die Entwicklung einer eigenen Textanalyse Software suggerieren fundiertes tech-nologisches Fachwissen. Das Auerachtlassen von Audio- und Video Material sowie die Nichtberck-sichtigung einiger fr das Webmonitoring vielver-sprechender Verfahren legen einzelne Schwach-stellen des Webmonitoring-Angebots von VICO offen. So bleibt der Eindruck, dass das junge Stutt-garter Unternehmen ein durchaus kompetentes Webmonitoring Unternehmen, mit dem Fokus auf Social Mediam ist, aber zum heutigen Stand der ffentlichkeit keine greren Einblicke in ihre Technologie und Vorgehensweise gewhren mch-te.

  • Alexander Plum, 2009

    30

    Webmonitoring im Vergleich

    TNS Infratest

    Das Unternehmen TNS Infratest gehrt zur welt-weiten TNS Group, die 2007 einen Umsatz von ber 1,63 Millionen Euro erwirtschaftete und ih-rerseits wiederum ein Ableger der britischen WPP plc ist. In Deutschland ist TNS Infratest an 5 Standorten vertreten. 1947 an der Universitt Mnchen gegrndet, ist das Kerngeschft von TNS Infratest seit jeher Marktforschung. Ausgehend von dieser Dienstleistung beschftigt sich das Un-ternehmen seit 2006 auch mit dem jungen Online-forschungsfeld des Webmonitorings. Aktuell sind derzeit bis zu 10 Mitarbeiter bei TNS in diesem Bereich ttig.

    Erfahrung im Webmonitoring seit

    2007

    Mitarbeiteranzahl* Bis zu 10 Mitarbeiter

    Vertriebsgebiet Deutschsprachiger Raum; Sdwesteuro-pa

    Datenerhebung

    Fr die Datenerhebung nutzt TNS Infratest die Technologie der Firma NetBreeze. Daneben wer-den auch ffentliche Suchmaschinen benutzt, um in insgesamt 20 Sprachen quellenbasiert und unabhngig nach relevanten Beitrgen im Web zu suchen. Sowohl Screening als auch Monitoring werden nach Angaben von TNS Infratest tglich aktualisiert. Erhoben werden alle Texte in digitaler Form, also auch Transkriptionen von Video- oder Audiodateien. Von den mglichen Social Media werden bis auf Microbloggingdienste wie Twitter, Social Bookmarking Dienste wie MisterWong und Communities durch das Webmonitoringtool, sonst alle Kanle erfasst. Mit aktuell 20 integrierten Sprachen rangiert das Marktforschungsinstitut, was die Multilingualitt angeht, unter den leis-tungsstarken Anbietern.

    Datenaufbereitung

    Als Teil der Datenaufbereitung subert TNS Infra-test die Rohdaten von Doubletten sowie irrelevan-

    ten Dokumenten und extrahiert wichtige In-formationen wie Erstellungsdatum oder Auto-renname. Eine Bereinigung von Spam fehlt allerdings. Die Rohdaten der Datenerhebung werden inkl. der Meta-Daten und der Texte archiviert. Da auch TNS Infratest Mining-Verfahren zur Datenanalyse anwendet, fhren sie auerdem die Preprocessing-Phasen der Textanalyse durch.

    Datenanalyse

    Als klassisches Marktforschungsunternehmen liegen die Strken von TNS Infratest im Rah-men der Datenanalyse. Durch sein Know-how setzt TNS Infratest sowohl qualitative als auch quantitative Analysen fr das Webmonitoring ein. So werden fast alle relevanten Analysen von Autoren- und Relevanzanalysen, bis hin zu Issue- und Quellen-Analysen bercksichtigt. Vollstndig automatisiert laufen dabei nur die Buzz- und die Tonalittsanalyse. Als Marktfor-schungsunternehmen verwendet TNS Infratest selbstverstndlich viele der klassischen Analy-severfahren wie deskriptive Statistik, quantita-tive und qualitative Inhaltsanalyse, aber auch Mining Verfahren wie Data- und Text-Mining. Nur Verfahren der Social-Network-Analyse, Analysen mittels kombinierter Themen-Quellen-Netze, korpusbasierte Verfahren und ethnografische Verfahren aus der Soziologie fehlen im Webmonitoring-Ansatz von TNS Infratest. Zur Bewertung des ermittelten Dokumentenaufkommens, sprich dem Buzz zu einem Thema, nutzt die Firma interne Bench-mark-Datenbanken als Vergleichswert.

    Ergebnisprsentation

    TNS Infratest bietet seinen Kunden drei Mg-lichkeiten der Ergebnisprsentation an, die jedoch sehr unterschiedlich nachgefragt wer-den. So ist beispielsweise die Schulung des Kunden auf dem eigentlichen Webmonitoring-Tool bisher in der Praxis noch nicht gewnscht worden. Die Prsentation der Ergebnisse ber ein Dashboard kommt dagegen in der Praxis nach Angaben von TNS schon hufiger vor. Am hufigsten wird die Prsentation der Er-gebnisse in Form von Powerpointfolien ge-wnscht und damit auch durchgefhrt fr

  • Alexander Plum, 2009

    31

    Webmonitoring im Vergleich

    kontinuierliche Monitoring-Projekte meist im Ab-stand von 14 Tagen bis hin zu 3 Wochen. Textba-sierte Versionen in Form von E-Mails oder als Tabellen stehen nicht zur Auswahl. Die Daten werden dabei vorwiegend in quantitativer Form prsentiert. Die Lieferung der Rohdaten kann von TNS angeboten werden, ist bisher aber noch nicht nachgefragt worden.

    Bis auf die Autoren- sowie Profiling-Analyse las-sen sich im TNS Dashboard alle Analyseergebnis-se anzeigen. Selbststndig kann der Nutzer unter anderem semantische Darstellungsanalysen wie Themennetze durchfhren. Korpusbasierte Analy-sen und Data-Mining Verfahren fehlen jedoch. Der Anlass fr Alerts wird im Vorfeld mit dem Kunden festgelegt und kann auf Wunsch als E-Mail gesen-det oder in der Webmonitoring-Applikation ange-zeigt werden.

    Resmee

    TNS Infratest sticht am Markt der Webmonitoring-Unternehmen vor allem durch seine langjhrige Erfahrung und stabile Infrastruktur im Bereich der klassischen Marktforschungsunternehmen hervor. Insgesamt lassen sich viele positive Anstze im Webmonitoring-Ansatz von TNS Infratest feststel-len, die vor allem aus der Kombination von klassi-schen Marktforschungsunternehmen und dem Webmonitoring-Technologie-Anbieter Netbreeze hervorgehen.

    Im direkten Vergleich mit Webmonitoring-Spezialisten landet TNS Infratest im oberen Mittel-feld. Zum einen durch die Nichtbercksichtigung wichtiger Social Media Kanle und Video- und Audio-Formate. Zum anderen erfolgt nur ein sehr kleiner Teil der von TNS Infratest angebotenen Analysen vollautomatisiert. Die meisten Analysen werden in einer Vorstufe manuell und in der Hauptstufe dann automatisiert durchgefhrt. Die-ses Vorgehen spiegelt sich auch im Preis der Webmonitoring-Leistung wider. So gehrt das monatliche Reporting von TNS zu den hochpreisi-gen Angeboten am Markt. Dagegen gibt es Unter-nehmen am Markt, die fr den gleichen Leistungs-umfang und dieselbe Qualitt das monatliche Re-porting zu einem sehr viel niedrigen Preis anbie-ten. Hinzu kommt, dass TNS Infratest zwar auch qualitative Analysen durchfhrt, nach eigenen

    Angaben ihren Kunden aber eher quantitative Ergebnisse zur Verfgung stellt.

  • Alexander Plum, 2009

    32

    Webmonitoring im Vergleich

    Publicis Consultants

    Ganz neu am Markt fr Webmonitoring ist die Kommunikationsberatung Publicis Consultant Deutschland. Der deutsche Ableger der Publicis Consultants gehrt zur Publicis Groupe, der viert-grten Kommunikationsorganisation weltweit. Die Kommunikationsberater von Publicis haben sich vor allem auf Corporate Communications, Public Relations, Public Affairs und Corporate Strategy spezialisiert. Angesichts der zunehmen-den Bedeutung der Social Media fr die Unter-nehmenskommunikation gehen sie den konsequen-ten Schritt, in dem sie dieses Feld in ihr Bera-tungsangebot aufnehmen. Unter der Marke Net Intelligence bietet Publicis neben Strategie, Konzeption und Manahmenumsetzung auch Social Media Analyse an. Der Fokus liegt ganz klar auf der Gewinnung von Insights aus dem Social Web fr eine Optimierung der Kommunikationsstrategien der Kunden von Publicis.

    Erfahrung im Webmonitoring seit

    2009

    Mitarbeiteranzahl* Bis zu 5 Mitarbeiter

    Vertriebsgebiet Deutschsprachiger Raum; Sdwest-, Ost- und Nordeuropa; Nordamerika

    Datenerhebung

    Um die relevanten Beitrage im Netz zu finden setzt Publicis auf die Technologie der Firma Linkfluen-ce, der amerikanischen Tochter von RTGI, einem der fhrenden franzsischen Social Media Measu-rement Unternehmen. Die verwendete Spider- und Crawler-Technologie ist dabei fr beide Formen der Datenerhebung ausgelegt: das quellenabhngi-ge und quellenunabhngige Verfahren. Schnittstel-len zu bestehenden Suchmaschinen und Social Bookmark-Diensten sowie das Abonnement von Feeddiensten kommt bei dieser Technologie zur Datenerhebung nicht zum Einsatz. Nach Angaben von Publicis knnen beide Verfahren mit einer

    stndlichen Frequenz eingesetzt werden, was allerdings wie eingangs besprochen gerade beim quellenunabhngigen Verfahren relativ schwer realisierbar ist.

    Positiv hervorzuheben ist auch die Vol