Updatenotiz „Socialtracker“

Das Problem der nicht erfassbaren Tweets / Retweets wurde nun mit Hilfe der Anbindung an die Twitter-Search-API gelöst. Das Reportingtool „Socialtracker“ wirft nun die Ergebnisse aus dem eigenen Tweet-Zähler mit den folgenden Einschränkungen aus:
– maximal 100 Ergebnisse (Tweets / Retweets)
– maximal „Heute“ (minus) 7 Tage.
Die Basis für den Zähler hatte ich im Artikel „Twitter-Search-API“ grob dargestellt.
Das Script wurde um $summe=$tweets->search_metadata->count; erweitert.

Update: Socialtracker (0.4b)


Die erwirtschaftete Präsenz diverser Projekte in den „Sozialen Medien“ lassen sich nun durch diese Diagramme visualisieren und exportieren (JPEG, BMP). Das Beispiel zeigt eines unserer Projekte (beim Affiliatestammtisch vorgestellt) und die Anwendung „Socialtracker 0.4b“ erlaubt nun tiefergehende Interpretationsansätze und weitere Anpassungen des jeweiligen Socialmediamarketings. Es lassen sich nun folgende Fragen stellen:

1. Wann findet eine socialmediaübergreifende Kommunikation statt?
2. Werden Socialmediamarketingaktivitäten von Externen aufgegriffen und weiter geteilt? (Viralität)
3. Welche Aktivitäten (speziell in Verbindung mit den Hashtags) bewirken welches Ergebnis?

ToDo für die Versionsnummer 0.5b

1. Vergleich von mehreren Projekten.
2. Notizen und Querverweis der Notizen in den Diagrammen.

Freigabe: „socialtracker v.0.12“

Die aktuelle Version wurde im „Freigabestatus“ in die Dropbox geladen. Diese ist eine fehlerbereinigte Version und beinhaltet die folgenden (neuen) Features:

[Bitly-Statistik (Basis)]
Ich ging in einem der letzten Beiträge auf Bitly, die Bitly-API und deren Potentiale ein. Hier habe ich die Anbindung der Schnittstelle an das Modul „Social-Signals“ fertig gestellt. Es ist im entsprechenden Auswahlmenü zu finden und ergänzt die Ergebnisse der Social-Signals-Analyse um die verkürzten URLs (sofern vorhanden) und die Clicks über Diese.

[GPlaces und das API-Management]
Die aktuelle Version erlaubt die Benutzung mehrerer Google-Accounts bzw. deren APIs. Das Recherchemodul „Google-Places“ lässt sich nun über das Hauptmenü oder über die Tastenkombination [Strg]+[G] aktivieren: es verlangt die Eingabe einer Branchenbezeichnung und das Einladen einer Ortliste.

socialtracker 0.12b / Changelog

Neue Erkenntnisse und Ergebnisse aus diversen Experimenten ergeben die folgende Funktionsliste für die Versionsnummer 0.12b:

[SocialSignals]

  1. Abgleich von generierten Ergebnissdatenbanken untereinander und Zusammenfassung der Ergebnisse in geeigneter Diagramform (Signalsentwicklung je erfasster Plattform auf Checkdatum)
  2. Erfassung und Darstellung einer Top10-Top20-Liste anhand der „SocialSignals“
  3. Reportgenerierung aus 1) und 2)

[GPlaces]

  1. Fertigstellung, wie mit den aktuellen Anwendern besprochen.
  2. Auswertung der GPlaces-Bewertungen in Form einer WDF und / oder KWD

[Facebook]

Es hat sich herausgestellt, dass die Analysequelle „Facebook“ in Anbindung an die Hashtagmatrix und die aktuell vorhandenen Analyseverfahren anhand der „Hashtags“ weniger aussagefähig ist, als erhofft. Ich werde zwar die Hashtagfunktionen implementieren, allerdings wird der Schwerpunkt hier auf eine der üblichen Textanalysealgorithmen der SEO liegen. Die Datenquelle hierfür ist die Facebook-Search-API, auf die ich in einem weiteren Beitrag eingehen werde.

Statusupdate: Socialtracker / Analyser

Die (neue) Anwendung wird zeitnah um weitere Module erweitert. Ein spezielles ist hier eine Funktion umfasst die Analyse von Posts auf X Facebook-Seiten zu anvisierten Themen und den repräsentierten Zielgruppen. Hierbei wird unterschieden zwischen den Publikationen der Seiten, der Kommentare unterhalb der Publikationen und den „einfachen“ Rückmeldungen der Fans / Besucher.

Die heraus extrahierten Daten werden wie folgt ausgewertet:

  1. KWD & WDF-Analysen mit Abgleich zu den eigenen Texten, Produktbeschreibungen etc. mit Unterscheidung zwischen „normalen“ Publikationen und „usergenerierten“ Rückmeldungen.
  2. Analyse: Zeichenlänge der Posts (alle Varianten)
  3. Analyse: (Basis) – Fragestellungen, Blacklist etc.
  4. Analyse: Like / Comments zu Posts
  5. Analyse und Abgleich Fananzahl, Likeanzahl, Kommentanzahl

Aktuell lassen sich keine Klicks über die veröffentlichten Links etc. nachweisen und hierzu finden noch Recherchearbeiten / Experimente über die FB-eigene API statt. Es ist allerdings geplant, eine Art Indikatorenliste für besonders „werthaltige“ Posts in Form der Einbeziehung von Likes, Comments etc. aufzustellen.

In Absprache mit den aktiven Betatestern und Klienten der Wobus & Lehmann GbR ist ein geeignetes Alertsystem geplant. Ob ich das in der Freeware freischalte, werde ich gesondert entscheiden.

Es wurde auch (endlich) eine technische Lösung zur Reportgenerierung via PDF-Format gefunden, das hat zur Folge, dass die W&L GbR mit Etablierung der Anwendung entsprechende Dokumente – je nach Projekt und Anforderung – obligatorisch versendet.

Statusupdate II – Socialtracker

Die wesentlichen (Haupt)datenquellen sind nun angebunden. Es fehlt noch die Zusammenführung mit dem KW-Vorschlagstool, die Anbindung an die Twitter-API zwecks Hashtag-Analyse und ich überprüfe noch das Tag-Setzungsverhalten bei Facebook. Die Anwendung wird zeitnah um eine Konkurrenzanalyse erweitert und es wird hier dann auch möglich sein, via XOVI-API oder eigenem Algorithmus die #1-#10 mit den vorhandenen Prüfprozeduren zu analysieren. Über das „Design“ einer geeigneten Formel zur Abbildung der Erkenntnisse aus dem Tool denke ich derzeit nach und werde diese vermutlich auch einigen Kollegen zwecks Gegenprüfung vorlegen.

Statusupdate Socialtracker // Werthaltigkeitsanalysen

Schaut man sich die vielen Strategien der Textbewertungsmechanismen (bes. Keyworddichte und WDF / WDF*IDF), kommt man sehr schnell auf den Gedanken, dass hier etwas fehlt: der Abgleich zu einer tatsächlich existierenden und abprüfbaren Marktsituation. Es erscheint ja als äußerst unlogisch, Texte nur nach SEO-Richtlinien zu optimieren, ohne auch nur im Ansatz zu prüfen, ob denn die Kernaussage eines Textes – bzw. das angebotene Produkt, die angebotene Dienstleistung – sich auch tatsächlich einer Nachfrage erfreut.

Ansatzpunkte, um dieses Problem aufzulösen wären:

[Hashtaganalyse]

Folgt man der Annahme, dass Hashtagkombinationen und Häufigkeiten dieser Worte deckungsgleich sind mit der KW-Dichte des zu bewerbenden Artikels, könnte man vermuten, dass der zu bewerbende Artikel eine große Abnehmerschaft in den Medien findet, deren Hashtags über entsprechende Algorithmen analysiert. Wenn man die Ergebnisse in ein geeignetes und vergleichbares Schema übergeben möchte, kann man hier über eine Abbildung in Form der WDF oder KW-Dichte nachdenken. Es erscheint mir als logisch, dass eine möglichst hohe Übereinstimmung besagter Werte mit den zu bewerbenden Texten / Inhalte / Produkte „optimal“ sein kann.

[Socialmedia-Analyse via API]

Interessant wird die Prüfung auf einen bereits vorhandenen und optimierten Text im Vergleich zur Konkurrenz. Man kann hierbei die Deeplinks der jeweiligen Angebote (=>Texte) erfassen (via Positionscheck, Xovi-Anbindung etc.) und über die Socialmedia-API-Anbindungen die folgenden Variablen abprüfen: Likes, Shares, Comments, Clicks. Das Studium der Facebook-API zeigt, dass selbstverständlich die Clicks auf Angebot-XYZ ausgegegeben werden können – dies erfolgt erstaunlich schnell (nahezu Echtzeit) und ist recht sauber. Führt man die Socialmedia-Analyse-Prozedur durch, empfiehlt es sich, ein eigenes Gewichtungsmodell zu entwickeln. Für mich und meine / unsere Projekte sind Shares, Comments und Clicks interessanter als Likes.

[Gegenprobe auf Google-Trends]

Neulich entdeckte ich eine recht gute Variante der Anbindunga uf Google-Trends. Es spricht also nichts dagegen, eine quasi abschließende Probe auf besagte Datenbanken aus den Ergebnissen der Hashtag / KW / WDF – Analyse in automatisierter Form zu legen. Ich denke hier noch über einen geeigneten Algorithmus nach, der die Daten aus diesem „Medium“ in die Werthaltigkeitsberechnung mit einbezieht.

Aus den o.g. Gedankenfetzen ergibt sich diese ToDo-Liste für die Anwendung „Social-Tracker“ (0.6b)

  1. Textanalyse mit KWD und WDF (erledigt)
  2. Hashtaganalyse: Erweiterung auf KWD und WDF – auf Hashtaganzahl und Wortanzahl gerechnet
  3. G-Trendsanalyse auf KW-Dichte / Text & Hashtags (ggf. Quartal / Jahr)
  4. Datenaufbereitung in Form von Diagrammen plus PDF-Export

Ob man hieraus eine geeignete mathematische Formel entwickeln kann und / oder sollte, ist mir im Moment noch nicht klar. Diesbezügliche Entscheidungen werde ich treffen, wenn weitere Erkenntnisse aus den Zahlenmaterialien sichtbar werden.

Verifiziert habe ich

  1. Verwendung der gefilterten Hashtags als eigene Hashtags und / oder Schlagworte in Blogkonstruktionen und / oder Textoptimierung fördert das Ranking
  2. Verwendung von gefilterten Hashtags als Informationsträger in den Socialmedia der gef. Hashtags lässt im schwereren Longtailbereich Texte ranken (in Abhängigkeit von der Accountautorität)
  3. Kommentare auf bspw. gepostete Links in Facebook können rankingfördernd sein, wobei hier weitere Variablen zu beachten sind
  4. die Verwendung von „guten“ Hashtags (siehe Filter, interne Bewertung etc.) bewirkt – je nach Qualität der Posts / Inhalte und Autorität der postenden Accounts – Verteilungs-, Reichweiten- und Rankingeffekte.