In den üblichen Foren und der „Szene“ beobachte ich eine eindeutige Tendenz auf die Bewertungsprozeduren anhand von Keywords, Metriken wie Alexa / Pagerank und sonstigen SEO-Variablen (Sichtbarkeitsindizes, Rankingverteilungen etc.). Dies halte ich zwar nicht grundsätzlich für falsch, aber hier ignoriert man meistens eine konkrete Marktsituation und / oder die Annahme der jeweiligen Projekte durch die Zielgruppen.
Dieses „Problem“ lässt sich über die folgenden Ansätze lösen:
[via Social-Media-Statistik-APIs]
Im ersten Schritt denkt man über die Datenquellen btf. der Sitemaps, rankenden (Deep)links oder indexierten Seiten der zu beobachtenden Objekte nach. Die Sitemaps erreicht man in den meisten Fällen über „deinedomain.com/sitemap.xml“, die indexierten Seiten findet man über einen geeigneten Index-Scraper (selbstverständlich zzgl. Alive-Check) und die rankenden (Deep)links lassen sich über geeignete Datendienste wie XOVI, Sistrix und Sonstige erfassen. In den meisten Fällen werden hier entsprechende APIs mit mehr oder weniger guten Dokumentationen angeboten. Ich verwende ganz gern in dieser Situation die Dienste von Xovi. Grundlegende Programmierfähigkeiten müssen also hier bereits vorhanden sein.
Im zweiten Schritt entwickelt man geeignete Prozeduren zur Abfrage der Socialmedia-Statistiken. Wie man Diese anspricht, habe ich im Artikel „API-Lösungen für die Behandlung von Social Media“ beschrieben. Hier sind also je (!) zu beobachtenden SocialMedium die entsprechenden Leseprozeduren zu entwickeln, welche die Daten aus den APIs auslesen und in die entsprechenden Variablen und Datenbanken speichern. Im konkretem Beispiel haben wir also eine Ausleseprozedur für
a) Facebook
=> Variable für Likes, Shares, Comments und Clicks
b) Twitter
=> Variable für Tweets (Zähler)
c) Google+
=> Variable für +1 (Zähler)
d) Pinterest
=> Variable für Pins (Zähler)
e) […]
Meistens liefern besagte APIs die gewünschten Daten im JSON-Format zurück, welches selbstverständlich ausgelesen und interpretiert werden muss.
Im dritten Schritt entwickelt man eine Zählprozedur, welche die Ergebnisse aus a),b),c),d),e) usw. zusammen zählt und in eine geeignete tabellarische Form bringt. Die Ergebnisse wären hier allerdings „neutral“ und ungewichtet. Nun unterscheiden sich natürlich die zu beobachtenden Projekte durchaus im Detail und daher ist eine flexible Gestaltung der Zählprozedur interessant (also die wahlweise Hinzunahme der SocialMedia etc.). Eine andere Flexibilisierung bekommt man über die Erweiterung des Zählalgos in Form einer Zwischenschaltung eines Faktors realisiert. Ich löse das mit einer Gewichtungszahl: also „0“ bedeutet „SocialMedium ist unwichtig“, „1“ bedeutet „Social Medium ist etwas wichtig“ oder „6“ bedeutet „Social Medium ist sehr wichtig“.
Hat man nun die projektbezogene Gewichtung der SocialMedia festgelegt, legt man über eine geeignete Schleifenkonstruktion (for to do …) die vorher extrahierten (Deep)links über die entwickelten Ausleseprozeduren und übergibt die Ergebnisse in eine geeignete Tabellenkonstruktion (bei Delphi wäre das eine simple Tstringgrid). Die „piXologisch EasySocial“ unterscheidet hier zwischen zwei Anwendungsfällen: a) Auflistung der analysierten (Deep)links und deren SocialMedia-Parameter und / oder b) Zusammenzählung der extrahierten Werte.
So – wenn die fehlerfreie Abarbeitung erledigt ist, kann die Prozedur alleinstehend behandelt werden oder man erweitert diese um ein Projektmanagementsystem, welches mindestens zwei Seiten miteinander abgleicht und hier Unterschiede zwischen deren Akzeptanz und Behandlung in den Socialmedia aufzeigt. Dieser Modus ist natürlich praktikabel, sofern die zu vergleichenden Objekte sich hinsichtlich Umfang und Inhalt ähneln. Ist dies nicht der Fall, benötigt man den Abgleich bezogen auf z.B. das Ranking: hier verwendet die „EasySocial“ die API von Xovi oder einen eigenen Positionsscraper.
[via WDF oder WDF*IDF]
Diesen Ansatz hatte ich im Artikel „Socialanalyse – Versuch einer Formel“ erläutert.