Socialtracker v.0.8b fertig gestellt …

Die aktuelle Version beinhaltet neben allgemeinen kosmetischen Veränderungen die folgenden frischen Funktionen:

[Konfiguration]
Angaben zur Konfiguration wie API-Keys, Datenbanken und Verweise auf Datenquellen etc. werden Schritt für Schritt auf den Reiter „//=>Konfiguration“ ausgelagert. Aktuell ist hier die Beschreibung der Stopword-Datei und die Definition der Mindestzeichenanzahl für G-Suggest, Gplus-Hashtaganalyse und Textanalyse aktiv.

[Zusammenzählung der „Social Signals]

Diese Funktion verlangt das Anlegen eines Projektes (keine Sonderzeichen, Leerzeichen etc.) via Funktionsleiste => „Projektmanagement“.

Das Programm erwartet hier den Import von kompletten Linklisten. Diese werden entweder über das Hauptmenü „Import“ (Linkliste) abgeholt oder über die Optionsleiste (Datenquellen). Bei den Datenquellen lassen sich drei Optionen auswählen:

a) Sitemap-URL
– Konstruktionen mit Sitemapverschachtelungen sind aktuell nicht (!) erfassbar, es gilt: eine Sitemap => eine URL-Liste
b) XOVI
– für diese Quelle ist die Hinterlegung eines gültigen XOVI-API-Codes zwingend erforderlich.
– Auslesen sämtlicher bei Xovi erfassten Links zu einer URL
– bitte die korrekte URL-Schreibweise beachten: manchmal funktioniert ohne www, manchmal ist www erforderlich
– Ausgabelimit ist (fest verbaut) 1500 URLs
– Scrapeprozess kann, je nach Umfang, relativ lange dauern
c) Sitemap-Datei
– funktioniert wie a) und erfordert eine lokal abgespeicherte XML-Sitemap

Nach der Datenquellendefinition und dem Scrapeprozess hat man die Möglichkeit, die verschiedenen Socialmedia via deren Statistikservices oder API-Lösungen auszulesen. Dies geschieht über die Funktionsleiste:

a) Facebook
– Auslesen von Like, Click, Share, Comment plus Zusammenzählung
– direkte Anbindung an Facebook

b) Twitter
– Auslesen der Tweets zu den URLs
– direkte Anbindung an Facebook

c) Gplus, Pinterest, Delicious
– Auslesen besagter Services über die API eines kostenfreien Drittanbieters
– BETA-Status und kein abschließender Entschluss bzgl. der Weiterverwertung des Anbieters
– je nach Auslastung wird „N/A“ ausgegeben

d) „Alles“
– Auslesen sämtlicher SocialSignals über API des Drittanbieters
– BETA-Status

Nach Auswahl der Analysefunktionen und Bestätigung mit Hilfe des Buttons „Check“ wird die Zählprozedur gestartet. Hier gilt, dass der Berechnungsaufwand entsprechend des Listenumfangs hoch oder niedrig sein kann. Die Analyseergebnisse befinden sich im Reiter SocialSignals => Daten / Auswertung in tabellarischer Form. Der Übertrag in ein Diagramm findet über Hauptmenü => Auswertung => Social-Signals statt.

[Textanalysen]
Die Textanalyse befindet sich im Reiter „Texte“. Sie verlangt die Eingabe eines Textes und erledigt die üblichen Analyseprozeduren wie Keyworddichte und WDF. Sie befindet sich teilweise im Beta-Status.
Eine besondere „Datenquelle“ für diese Funktion ist der Facebook-Scraper (Button FB-Scraper). Nach Betätigung erscheint ein untergeordnetes Fenster, welches die Eingabe einer Facebookseite (nur Name, erkennbar in der URL einer FB-Seite) verlangt. Hier werden die Statusmeldungen gescraped und in die Hauptfunktion übertragen.
Die Datenbasis der „Textanalyse“ lässt sich über die Angabe „Ignoriere Keys mit < XX Häufung“ anpassen. Ergebnisse aus dieser Analysefunktion lassen sich mit Hilfe der bekannten Hashtaganalyse und G-Suggest gegenprüfen – man möchte schließlich erfahren, welche Worte auch tatsächlich verwendet werden. Die Verbindung zwischen den beiden Features findet man im „Popup-Menü“ (Rechtsklick auf die Ergebnistabelle).

a) Analyse => Hashtaganalyse
– Übergabe der ersten Spalte (also: gefilterte Keys) an die Hashtagfunktion
– Ergebnisse lassen sich über den Button „+Hashtag“ zusammenführen
b) Analyse => G-Suggest
– Übergabe der ersten Spalte an die G-Suggestfunktion
– (aktuell) keine Zusammenführung der Ergebnisse

Download: socialtracker_08b.zip

[Dateisystem]
Die angelegten Projekte befinden sich im Unterordner „projekte/[projektname]“. Hier werden Sitemap-Url und URL-Listen abgelegt. Die Ergebnisse aus dem Komplex „SocialSignals“ befinden sich im Ordner „reporting/[typ]/[projektname]“ in jeweils html oder csv-Format mit beigefügtem Datum. Im Ordner „config“ befindet sich die „Stopword“-Datei, welche entweder hier oder im Programm unter „Konfiguration“ bearbeitet werden kann.

[Bekannte Fehler]

  1. keine Durchgehende Ausfilterung leerer Zeilen beim SocialSignal-Tracking (Bitte mehrmals bedienen)
  2. Datenübertragungsfehler bei SocialSignals zu Diagramm

[Todo]

  1. Anbindung der Datenquellen Twitter und Gplus an den Komplex „Textanalyse“ und geeigneter Abgleich der Ergebnisse
  2. Hashtaganalyse auf Twitter und Abgleich Gplus <> Twitter
  3. saubere Reports auf PDF-Basis zzgl. Layoutfunktion
  4. fortlaufende Beobachtung der Trends aus den Socialmedia

Es gilt auch hier, dass Support und Einweisungen ausschließlich den Kunden der Wobus & Lehmann GbR gewährt wird. Ausnahmen sind nur bei interessanten Beta-Testern möglich, wobei wir hier uns die Akteure genauer anschauen werden.

piXologisch EasyKeywordrecherche 0.1b fertig gestellt

Aufgrund einiger Anfragen habe ich mich zu einer Freigabe der piXologisch EasyKeywordrecherche als „Freeware“ entschieden. Diese Anwendung bezieht sich auf die „Google-Suggest-API“ und analysiert Keywordlisten hinsichtlich ihrer Alternativen.

Die Bedienung ist relativ einfach gehalten:

  1. Projekt anlegen
  2. Sprache wählen => DE / EN
  3. Analysieren
  4. Ergebnisse speichern => CSV

Zukünftige Versionsnummern werden ggf. um eine Analyse nach den deutschen Bundesländern / Städte erweitert. Eine längerfristige Erfassung der Ergebnisse zwecks Anfertigung umfangreicherer Statistiken ist ebenfalls _angedacht_

Download: keyword_recherche.zip

Die Mindestvoraussetzungen sind PCs mit Windows Vista / 7.

Supportanfragen etc. werden nicht beantwortet. Bugmeldungen und Featurewünsche bitte direkt an Anne Lehmann (anne(at)pontipix.de)

über Sinn und Unsinn diverser Contentdiskussionen

Die obligatorische Forenlektüre förderte einmal wieder diverse virtuelle Diskussionen rund um das Thema „Contentqualität“ zu Tage. Hier ist auffallend, dass zu häufig wie folgt argumentiert wird:

  1. Guter Content ist ein Garant für eine optimale Position, Traffic und Umsatz.
  2. Guter Content ist unique-Content.
  3. Guter Content automatisiert den Linkaufbau auf „natürliche“ Weise.

Im Rahmen meiner SEO-Aktivitäten frage ich mich immer wieder, wie man „guten“ Content eigentlich im Detail erkennt und definiert. Wirklich interessanter und werthaltiger Inhalt ist ein auf die Befriedigung diverser Bedürfnisse zugeschnittener. Um die Bedürfnisse der zu bedienenden Zielgruppe überhaupt zu erkennen, bedarf es einiger Recherchearbeiten:

  1. Trendidentifikationen via Keywordtool, Google-Trend
  2. Langzeitbeobachtungen: entstehen Produktrezensionen, Produktbewertungen, Firmenbewertungen auf Bewertungsportalen und Shoppingplattformen wie eBay und Amazon?
  3. Medienanalyse außerhalb des WWW, also TV, Radio und Zeitschriften
  4. Kommunikationsanalyse- und beobachtung der Fanpages diverser Mitbewerber

Man kann also die folgenden Schlüsse ziehen:

  1. je mehr Kommunikation in Form von Bewertungen zu Produkt XYZ existieren, desto werthaltiger ist ein Produkt
  2. je werthaltiger ein Produkt ist, desto umfangreicher sind Bewertungstexte
  3. je farbiger die Wortwahl der Bewertungstexte ist, desto umfangreicher ist die Liste der zu optimierenden Keywords
  4. ausformulierte Bewertungstexte zeigen ein Sprach- und Suchverhalten und der kleinste gemeinsame Nenner zeigt die zu optimierende Phrasen
  5. hohe Publikationsfrequenzen von Rezensionen, Bewertungen und allgemeine Meinungsäußerungen etc. zeigen eine (mögliche) hohe „Werthaltigkeit“ diverser Keywords welche sich in den Produkten und Produktbeschreibungen wieder finden

Inhaltsdiskussionen und Publishaktivitäten sind in Verbindung mit einem Blick auf das „reale Leben“ also relativ einfach. Ich beobachte und teste hin und wieder diverse Social-Media-Analyse-Services wobei ich hin und wieder feststelle, dass eine vollumfängliche softwarebasierte Beobachtungslösung nicht existiert und der vorhandene Markt meine / unsere Bedürfnisse nicht abdecken kann. Es wäre also denkbar, dass ich die piXologisch EasxyPromo hier um einige Monitoringfeatures erweitere …