Woher kommt der Traffic? (Socialmedia-Analyse(n))

Vor ein paar Tagen nahm ich mir etwas Weiterbildungszeit und sichtete diverse WWW-Marketing-Wochenabschlussbeiträge. Zur Info: diese besondere Art der Blogbeiträge beschreibt meistens eine Wochenzusammenfassung an besonders faszinierenden Links und externen Beiträgen. Aus logischen Gründen stand aktuell meistens Facebook und / oder die generelle Arbeit mit den Socialmedia im Fokus und ich wurde aufmerksam / munter, als ich das Dokument „Pinterest, Google, & Instagram big winners as Facebook share of visits falls 8% in 2017“ von Shareaholic da gesehen hatte und hier ist eine Klischeesituation aufgefallen:

[1] Eine Autorität veröffentlicht Beobachtungen
[2] Eine Subautorität nimmt die Beobachtungen daher, ergänzt diese um einige Anmerkungen
[3] Unfassbar viele Dienstleister_innen nehmen die Inhalte aus [2], um diverse Existenzberechtigungen herbei zu argumentieren und sog. „hochwertigen Content“ zu produzieren.

Der gemeinsame Nenner zwischen [2] und [3] ist hier – ganz im Sinne der Klischees – das bewusste Nicht-Hinterfragen der Thesen aus [1], da man es ja mit einer wahnsinnig anerkannten Autorität zu tun hat. Ich erkenne jedenfalls keinerlei Logik in dieser faszinierenden Gangart und Branchenautoritäten müssen sich jedezeit hinterfragen und fachlich kritisieren lassen. Aus meiner Perspektive generiert sich genau aus diesem Merkmal die Berechtigung des Labels „Autorität“ und es ist mir schleierhaft, warum gefühlt sämtliche Autoritäten der Marketingbranchen den fachlichen Konflikt meiden.

Wie auch immer und zurück zum Shareaholic-Artikel kommend.
Ich unterstelle Shareaholic aus sehr guten Gründen eine gewisse Grundkompetenz bzgl. der Aus- und Bewertung von Socialsignals, nur befinden sich im Beitrag diverse Lücken:

[1] Keine Offenlegung der analysierten Seiten.
[2] Keine Offenlegung der Länder und Zielgruppen zu den analysierten Seiten.
[3] Keinerlei Offenlegung der zeitlichen Entwicklung der Signals / Socialbewegungen über den kompletten Zeitraum von 2017.
[4] Keinerlei Offenlegung der Datenerhebungsmethoden.

Gerade der 4. Punkt wirkt auf mich – vorsichtig formuliert (!) – mehr als verwirrend und ich frage mich, warum den DACH-Kolleg_innen nicht aufgefallen ist, dass Instagram schlichtweg keinerlei Möglichkeiten zur Analyse von Traffic von externen (also: nicht selbst betreuten!!!) Seiten und Projekten liefert: es existiert keine einzige Möglichkeit, mit Schnittstellen / API-Endpoints den Traffic von völlig unbetreuten Accounts zu deren Webseiten zu erfassen. Da frage ich mich: Wie hat das Shareaholic geschafft und wo genau befindet sich da die Dokumentation? Diese sehe ich nicht und Querchecks via Google und diverse „Nerd“-foren ergab keinesfalls eine Problemlösung.

Es bleibt also folgende Frage offen: Warum bewirbt man mit völlig intransparenten Datenerhebungen ein Socialmedium zum Zwecke der Trafficgenerierungsansätze? Ich sehe hier keinerlei Logik oder sogar Gesprächsgrundlage für diese oder jene Projekte.

Genau diese Problematik beschäftigte mich die letzten 2 Tage und das Ergebnis entsprechender Gedankengänge ist:

[1] Instagram
Der Traffic via Instagram lässt sich definitiv nicht sauber monitoren, wenn keinerlei Zugriff auf eine hinreichend große Accountmasse (Hier: alle Themen, Länder, Branchen etc.) besteht. Man kann also nur mit Hilfe der Indikatoren hier Analysen anstellen und ich wage die Formulierung folgender Thesen:

(a) Der Traffic ist hoch, wenn möglichst viele Interaktionen auf den Postings der jeweiligen Accounts identifizierbar sind, wobei hier zwischen Botgesteuert und „Organisch“ zu unterscheiden ist.

Quellen:
Beiträge aus „Interaktionenprojekt
InstagramAPI (Endpoint -> Likes)
InstagramAPI (Endpoint -> Comment -> Get)

(b) Der Traffic kann hoch werden / sich gut entwickeln / ist hoch, wenn die Postings der jeweiligen Accounts entsprechend „mächtige“ Hashtags verwerten.

Quellen:
Beiträge aus „Hashtagprojekt
Datenbanken zu „Hashtagprojekt“
InstagramAPI (Endpoint -> GetTag)

Werden über die bekannten und dokumentierten API-Endpoints bspw. zu Instagram die notwendigen Daten erhoben, stellt man sehr schnell etwas „Lustiges“ fest:
Die Datenmassen können zwar extrem umfangreich sein, jedoch bilden Diese immer einen recht kleinen Moment aus dem Universum von Instagram ab. Sie lassen sich maximal im Rahmen der Datenbankinhalte verwerten und können keinesfalls Aufschluss über unbekannte Themen und Untersuchungsobjekte liefern. Dann weiter: die Verwertung dieser technischen Schnittstellen zeigt ab einem gewissen Punkt die Begrenztheit, weil eben diese Endpoints nur eine begrenzte Menge an Abfragen zulassen. Instagram ist hier recht liberal oder „großzügig“, andere Socialmedia jedoch nicht (siehe: Twitter und die Retweet / Tweetzählproblematik).

Fazit zu Instgram:
Absolute Aussagen zu „Traffic“ im Vergleich zu den anderen Socialmedia lassen sich nicht sauber generieren, man arbeitet da mit „Vermutungen“ und die Sauberkeit eben dieser Vermutungen / Prognosen hängt ab von:
– Offenlegung der Erhebungsverfahren
– Gegenprobe via API-Endpoints
– Menge der erhobenen Daten aus „API-Endpoints“ inkl. deren inhaltlichen Breite
Diese Sachen sehe ich weder im o.g. Report, noch in den Szenecontentmarketingaktivitäten.

[Andere Socialmedia außerhalb von Instagram]
Am 6.12.2013 fand ich Gelegenheit, ein Projekt fertig zu stellen. Dieses ist auch Bestandteil unserer Monitoringaktivitäten und begutachtet die Socialsignalentwicklungen aus Facebook, Twitter und Pinterest. Früher empfand ich noch die Notwendigkeit, Google-Plus zu beobachten und die entsprechende Funktion wurde im Laufe der Jahre eingestellt, da besagtes Medium eine extrem untergeordnete Rolle spielt. Die Kernidee hinter dem Projekt entstand eigentlich bereits in den Jahren 2010-2011, als wir – aus einem Zufall heraus – die Socialmedia (damals primär Twitter und Friendfeed) als spannendes Promomittel entdeckten und hierüber geradezu euphorisierende Rankingeffekte (einhergehend mit Traffic und Umsatz) produzieren konnten. Es war damals für alle Beteiligten absolut sichtbar und klar, dass selbstverständlich Traffic über die verwerteten Socials organisierbar IST und aus dieser Beobachtung leitete ich damals (!) folgende These ab:

Der Traffic via Twitter, Facebook u. anderen ist von der Sichtbarkeit abhängig und die Sichtbarkeit der der Postings ist abhängig von den Interaktionen auf dem Posting.

Die Thesenverifikation lässt sich via Quercheck auf die Interaktionszähltools und entsprechende APIs realisieren, wobei man hier selbstverständlich in regelmäßigen Abständen Prüfungen durchzuziehen hat.

Twitter: https://opensharecount.com/
Pinterest: https://api.pinterest.com/v1/urls/count.json?callback%20&url=deineurl.org
Facebook: https://www.kickstartcommerce.com/use-facebook-graph-api-get-count-url-likes-shares-comments.html

Obwohl ich dazu neige, bspw. aus den Socialsignalszahlen generelle Trafficprognosen abzuleiten, neigt die liebe Anne Lehmann hier zu einer gewissen „Erbsenzählerei“ und sie zwang mich irgendwann dazu, eine weitere Gegenprobe funktion zu suchen. Diese fand ich in dem Ansatz über die Bit.ly-API und unser Monitoringwerkzeug erfasst diese Zahlen parallel zu den Daten aus den genannten Interaktions/Signalszähler. Hierbei muss natürlich beachtet werden, dass ein (relativ) sauberes Trafficmonitoring nur dann funktioniert oder „aufgeht“, wenn die begutachteten Projekte eben auch mit Bit.ly-URLs arbeiten.

Fazit aus meiner „Arie“.
-> Manche oder viele Autoritäten verdienen zwar einen gewissen Vorschuss an Vertrauen, jedoch muss die Autorität hinterfragbar sein und diese Vorraussetzung ist nicht gegeben, wenn Datenerhebungswege oder Grundlagen dieser oder jener Thesen nicht offen gelegt werden.
-> Der kritiklose Umgang mit „Studien“ und / oder Autoritäten birgt die Gefahr von falschen und gefährlichen Strategien im Onlinemarketing.

Fragen? Anmerkungen?

Analyse: Orte, Location via Instagram und Facebook

Ich hatte in diversen Gesprächen und sonstigen Statements angedeutet, dass wir einige Experimente (spez. Likes, Socialmediautomatisierungen und Contentmarketingansaetze) mit den Erkenntnissen aus „Locations“ durchführen. Diese sind flächendeckend positiv ausgegangen. Die nachfolgenden Quellcodes stammen aus dem aktuellen Recherchetool (INSTA-FINAL)

Ich nutze die Daten für das Abarbeiten folgender Szenarien:
(a) Liken via Instafinal
(b) konkrete Firmen und Locationanalyse
-> Was wird geschrieben?
-> Wieviele Menschen sind da WANN aktiv und was schreiben die, was
bewegt die?
-> Vorbereitungen auf Messen, da Messen selbstverständlich Locations sind.
-> Vorbereitungen auf konkrete Messegespräche
-> Aufbereitung der Daten für die üblichen Akquisevorbereitungen
-> Erkenntnisgewinnung, Inspiration für div. Contentmarketingansätze
(c) Hashtagrecherchen

//-> Locationrechercheprozedur

1. Schritt: Token von Facebook besorgen

How to get a Facebook Access Token

2. Schritt: Mit Facebook-Token nach Orten, Firmen usw. suchen

procedure TForm1.Button42Click(Sender: TObject);
var l_clear: integer;
var
JSONArray: tJSONArray;
JSONValue,jvalue: tJSONValue;
JSONPair: TJSONPair;
JSON, json_sub: TJSONObject;
size: integer;
j_array: tJSONArray;
s: string;
i,j: integer;
next_id: string;
chk_br: char;
begin
locsearch.text := StringReplace(locsearch.text, ‚ ‚, ‚+‘,
[rfReplaceAll, rfIgnoreCase]);
listbox2.Items.Clear;
with locs do
begin
cells[0,0]:=’Nr.‘;
cells[1,0]:=’Name‘;
cells[2,0]:=’ID-Code‘;
cells[3,0]:=’URL‘;
colcount:=4;
rowcount:=1;
end;
try
with debug do
begin
clear;
text:=idhttp1.Get(‚https://graph.facebook.com/search?q=’+locsearch.Text+’&type=place&access_token=’+fbtoken.text);
end;
JSONValue := TJSONObject.ParseJSONValue(debug.text);
JSON := TJSONObject.ParseJSONValue(debug.Lines.Text) as TJSONObject;
JSONArray := TJSONArray(JSON.Get(‚data‘).JsonValue);
memo1.Clear;
for i := 0 to JSONArray.Size – 1 do
begin
with locs do
begin
cells[0,rowcount]:=inttostr(rowcount);
cells[1,rowcount]:=TJSONPair(TJSONObject(JSONArray.Get(i)).Get(’name‘)).JsonValue.Value;
listbox2.Items.Add(cells[1,rowcount]);
cells[2,rowcount]:=TJSONPair(TJSONObject(JSONArray.Get(i)).Get(‚id‘)).JsonValue.Value;
cells[3,rowcount]:=’https://www.instagram.com/explore/locations/’+cells[2,rowcount]+’/‘;
rowcount:=rowcount+1;
end;
end;
grdColWidth(locs, 40);
except
end;
end;

3. Schritt: Medien aus Locations abholen und ggf. analysieren

procedure TForm1.get_loc_short(mytable: TStringGrid; locid: string);
var
JSONArray: tJSONArray;
JSONValue,jvalue: tJSONValue;
JSONPair: TJSONPair;
JSON, json_sub: TJSONObject;
size: integer;
j_array: tJSONArray;
s: string;
i,j: integer;
next_id: string;

begin
with mytable do
begin
cells[0,0]:=’Nr.‘;
cells[1,0]:=’URL‘;
cells[2,0]:=’Tag‘;
cells[3,0]:=’Likes‘;
cells[4,0]:=’Comments‘;
cells[5,0]:=’Erstellzeit‘;
cells[6,0]:=’ID‘;
colcount:=7;
rowcount:=1;
end;
memo3.Lines.Add(‚url =>
https://api.instagram.com/v1/locations/’+locid+’/media/recent?access_token=’+token.text);
memo3.Lines.SaveToFile(verz+’\tmp_mediaurlsapi.txt‘);
try
debug.text:=idhttp1.Get(‚https://api.instagram.com/v1/locations/’+locid+’/media/recent?access_token=’+token.text);
debug.text:=idhttp1.Get(‚https://www.instagram.com/explore/tags/’+tagsuche+’/?__a=1‘);
JSONValue := TJSONObject.ParseJSONValue(debug.text);
JSON := TJSONObject.ParseJSONValue(debug.Lines.Text) as TJSONObject;
JSONArray := TJSONArray(JSON.Get(‚data‘).JsonValue);
try next_id:= JSONValue.GetValue(‚pagination.next_url‘);
except
end;
for i := 0 to JSONArray.Size – 1 do
begin
with mytable do
begin
cells[0,rowcount]:=inttostr(rowcount);
cells[1,rowcount]:=(TJSONPair(TJSONObject(JSONArray.Get(i)).Get(‚link‘)).JsonValue.Value);
s:=(TJSONPair(TJSONObject(JSONArray.Get(i)).Get(‚tags‘)).ToString);
s:= StringReplace(s, ‚“tags“:[‚, “, [rfReplaceAll,rfIgnoreCase]);
s:= StringReplace(s, ‚]‘, “, [rfReplaceAll,rfIgnoreCase]);
cells[2,rowcount]:=s;
s:=(TJSONPair(TJSONObject(JSONArray.Get(i)).Get(‚likes‘)).ToString);
s:= StringReplace(s, ‚“likes“:{„count“:‘, “,
[rfReplaceAll,rfIgnoreCase]);
s:= StringReplace(s, ‚}‘, “, [rfReplaceAll,rfIgnoreCase]);
cells[3,rowcount]:=s;
s:=(TJSONPair(TJSONObject(JSONArray.Get(i)).Get(‚comments‘)).ToString);
s:= StringReplace(s, ‚“comments“:{„count“:‘, “,
[rfReplaceAll,rfIgnoreCase]);
s:= StringReplace(s, ‚}‘, “, [rfReplaceAll,rfIgnoreCase]);
cells[4,rowcount]:=s;
cells[5,rowcount]:=(TJSONPair(TJSONObject(JSONArray.Get(i)).Get(‚created_time‘)).JsonValue.Value);
cells[5,rowcount]:=datetimetostr(UnixToDateTime(strtoint(cells[5,rowcount])));
cells[6,rowcount]:=(TJSONPair(TJSONObject(JSONArray.Get(i)).Get(‚id‘)).JsonValue.Value);
rowcount:=rowcount+1;
end;
grdColWidth(mytable, 40);
end;
except
end;
//uebertrag auf tabelle
grdColWidth(mytable, 40);
form1.Caption:=version+‘ alle Posts herunter geladen‘;
end;

Socialmedia-Profil-Analyse (Rohdaten), v.0.1B [Instagram]

Die angekündigte Software ist nun in der ersten Versionsnummer fertig gestellt und sie produziert die folgenden Daten:

[Accountüberblick]
Komplettdatensatz aus dem Account „hanneswobushanneswobus_25022015 (Excel, xlsx)

Die Exceltabelle zeigt: (a) URL der Posts, (b) Erstelldatum, (c) Comments, (d) Likes, (e) Tags, (f) Beschreibung – leer, (g) Post-ID

[Todo]

  1. Auswertung von Comments je individuellen Tag
  2. Präsentation: Top10 der wirkungsvollsten Tags (gem. an Likes und Comments)
  3. Präsentation: Top10 der „besten“ Posts (gem. an Likes und Comments)
  4. Präsentation: schlechteste Posts und Tags (ggf. auch Taggruppen)
  5. Auswertung von Likes je individuellen Tag
  6. Diagram: zeitliche Entwicklung f. Posts, Likes und Comments (siehe: „Socialtracker“)

[Tortendiagram]
hanneswobus__diag

Die Beobachtung der Abonnenten und abonnierten Accounts wird im aktuellen Konzeptstadium gesondert betrachtet. Nach einigen internen Diskussionen und Gesprächen mit Externen / Kund_innen wird die nächste Versionsnummer um einen entsprechenden Komplex erweitert.

Die Todo hierfür ist:

  1. Erfassen der Abonnenten und Erfassen der abonnierten Accounts als „Liste“.
  2. Ausgabe: „Wer folgt dem beobachteten Account und welchen Accounts folgt der beobachtete Account?“
  3. Aktivitätsbeobachtung: „Wer ist in welcher Form auf den beobachteten Accounts aktiv (gez. durch Likes, Comments)?“

Die aktuellen Engagements und Projekte werden selbstverständlich um die Dienstleistung „Instagram-Account-Reports“ und die entsprechende Beratung erweitert.

Ich bekomme derzeit erstaunlich viele Rückmeldungen mit ein und denselben Inhalten: das Erfassen der Daten über Instagram, Pinterest und anderen Socialmedia ist (a) nicht möglich oder (b) extrem aufwändig / teuer. Nunja: hier möchte ich auf den Inhalt „Gesprächspartner_innen für das Internetmarketing“ hinweisen. Das Erfassen und Verstehen der extrem gut dokumentierten Socialmedia-API gehört zum Berufsbild „Internetmarketing“ oder „Socialmedia-Marketing“ dazu und das Entwickeln eigener Lösungsansätze für das Beobachten und die Datenerfassung ist gerade mit Hilfe der APIs mit einem enorm geringen Zeitaufwand durchaus möglich.

Informationen zu den APIs inklusive (!) Codebeispiele findet man hier:
[Instagram]
Instagram (Developer)
Endpoints der API
Infos zu der Limitierung
Tagsuche
Grobrecherchen, Rohdatenerfassung (hierauf basiert die aktuelle Version der Software!!!)
Zielgruppenanalysen auf Basis der Locations

[Pinterest]
Developer – Doku
User, Usermanagement, Follower & Co.
Dokus zu den Boards, Boardmanagement
Pins, Management und Recherche
Zielgruppenanalysen via Pinterest-API
Basisfunktionen

Zielgruppenanalysen mit Pinterest

In den letzten Tagen wurde ich äußerst intensiv dahingehend befragt, wie man denn mit Hilfe von Pinterest Fans aus vordefinierten Ländern identifizieren kann.
Die Vorgehensweise ist via API relativ einfach erklärt:

[1. Schritt]
Suchabfrage auf die Boards
https://api.pinterest.com/v3/search/pins/?join=via_pinner,board,pinner&page_size=20&query=[suchwort(e)]&access_token=[deintoken]

[2. Schritt]
Erfassen der Boardbesitzer_innen über den Eintrag „data[nr].url„. Dieser hat das Schema /username/boardname und demzufolge müssen die „/“ zzgl. dem Boardnamen entfernt werden. Der extrahierte Username wird zwecks Weiterverarbeitung zwischengespeichert.

[3. Schritt]
Erfassen der Userangaben mit Hilfe der URL: https://api.pinterest.com/v3/pidgets/users/[username]/pins/
Die Angaben zum User befinden sich in diesen Variablen:
[user][about] => Beschreibung
[user][location] => Ort / Land
[user][full_name] => Name des Users
[user][follower_count] => Anzahl der Fans
[user][pin_count] => Anzahl der Pins
[user][profile_url] => Profilurl

Schaut man sich nun die Ergebnisse aus der Abfrageurl an, fallen Angaben zu den letzten Pins und deren „Beliebtheit“ (repin_count, like_count) auf und diese lassen sich nun als Bezugsgröße für die Beobachtungen zu „Aktivität“ und „Beliebtheit“ heran ziehen. Bei einer sauberen Langzeitanalyse dieser Daten lassen sich u.U. Teilaspekte des „User Intent“ prognostizieren. Ich werde vermutlich bis zum 18.01.2016 die Recherchefunktionen in unseren Beobachtungskomplex einbeziehen und unseren Kund_innen und Betatester_innen zur Verfügung stellen. Eine eventuelle Erweiterung der Accountanalysefunktionen auf die Systeme „Instagram“, „Twitter“ und „Facebook“ wird von uns derzeit intern noch ausdiskutiert.

Update: Hashtaganalyse (Instagram) auf Version 0.12B

Wie bereits angekündigt habe ich neulich die Datensätze aus der Postanalyse in das Projekt eingepflegt. Diese beinhalten in der zugänglichen Version folgende Angaben:

(a) Tagsammlung
(b) Link
(c) Publish-Datum des Posts

Die Analysefunktion lässt sich über den folgenden Link erreichen und ist im System unter dem Kürzel „TF+P“ zu finden (siehe „letzte Recherchen“).

Versierte User_innen können auch das Script auch hierueber aufrufen: http://www.pontimania.de/_tools/instagram/output_txt3.php?abfr=foto&tagmin=20. Hier lassen sich die Variablen „abfr“ und „tagmin“ entsprechend der Bedürfnisse anpassen, wobei „tagmin“ hier die maximal auszulesende Ergebniszahl beschreibt.

Ich bitte zu beachten:
Das Erfassen der Posts erfordert relativ viel Speicherplatz und demzufolge wird ein lückenloses Monitoring nicht gewährleistet. Wir werden allerdings „intern“ noch über die Updatefrequenzen diskutieren und eine entsprechende Meldung in diesem Blog absetzen. Die Rechercheergebnisse aus der Tabelle „Posts“ können und sollten also primär zum Zwecke der „groben“ Inspiration dienen.

Die bestehende API wird zeitnah auf die neuen Datensätze angepasst.

Pinterest – Ergebnisse aus der „Search-API“ auslesen und weiter verarbeiten

Die wesentlichen „Bausteine“ zum Auslesen dieser API sehen so aus:

[Einlesen des Feeds]
$json=file_get_contents('https://api.pinterest.com/v3/search/pins/?join=via_pinner,board,pinner&page_size='.$menge.'&query='.$search.'&access_token=deintoken');
Die Variable „$menge“ beschreibt hier die Anzahl der auszugebenden Ergebnisse, wobei hier maximal 200 möglich sind. Die Variable „$search“ beschreibt die zu übergebende Anfrage, welche eine Phrase oder ein einzelnes Wort beinhalten kann.

[Auswerten des Feeds]
$json_a=json_decode($json,true);
$data = $json_a['data'];
$summe = count($data);

Das Element „data“ umfasst die Datensätze zu den einzelnen Pins und die Variable $summe beinhaltet die Zusammenzählung aller ausgegebenen Datensätze zu den Pins.

$json_a['data'][$a]['title']
Die Variable „$a“ bezieht sich hier auf die Zählschleife, welche die Datensätze „Schritt für Schritt“ einliest und auswertet. Sie wird mit jedem Schritt um „1“ addiert und die Schleife beendet sich beim Erreichen des Zustands „$a=$summe“.
$json_a['data'][$a]['description']
https://www.pinterest.com/pin/".$json_a['data'][$a]['id']
$json_a['data'][$a]['repin_count']." / ".$json_a['data'][$a]['like_count']

Auslesen der Pinbeschreibung, des Pinlinks und der Anzahl „Repins“ / „Likes“. Für weitere Informationen aus den Ergebnissen muss natürlich der unbearbeitete Originaldatensatz hinsichtlich der Variablen analysiert werden und hier können sich Hinweise auf die Autoren der Pins, der hinterlegten URLs und eventuellen Qualitätsmerkmalen der Pins wie Hauptfarbe und Auflösungen interessant werden.

Nach aktuellem Kenntnisstand existiert leider keine Möglichkeit, die Ausgabe der Pins in irgendeiner Form zu sortieren (Datum, ID, Autor etc.) und man muss hier eine geeignete Sortierfunktion selbst entwickeln oder das Problem via nachgelagerter Datenbankanbindung lösen.

Wozu benötigt man das Ganze oder wie lassen sich nun die Datensätze konkret verwerten? Pinterest liefert interessante Rückschlüsse auf konkrete Marktsituationen, da die Metriken „Like“ und „Repin“ im Verhältnis zum Datum langfristig beobachtbar sind. Hieraus lassen sich klare Trends ableiten und zwar dahingehend, dass bestimmte Angebote eben „beliebt“ sind. Bei ordentlicher Datenerfassung und Datenaufbereitungen lassen sich die Zahlen nun auch mit bspw. unserer Hashtagdatenbank abgleichen und man könnte hier auch Gegenproben auf die Ergebnisse aus G-Trends oder dem G-Keywordtool realisieren. Denkbar wäre hier auch eine Hashtaganalyse auf die „Title“ und „Description“.

[Notiz] SocialmediaTracker 0.3b fertig gestellt

Neu ist hier:

  1. Zusammenführung der Ergebnisse im Reiter „Zusammenfassung“ (mit Bitly-Abgleich)
  2. Bitly-Modul akzeptiert jetzt niedrigere Abfragefrequenzen
  3. Erweiterung der Exports in CSV
  4. Bugfix: Twitter-Statistik

Das Reportingformat entspricht dieser Beispieldatei und wird ab sofort in das Kundengeschäft eingegliedert.

In einer zukünftigen Version werde ich weitere Importquellen wie Webmastertools, Piwik und den eigenen Rankingchecker hier andocken und somit die maschinelle Nachweisbarkeit der Zusammenhänge von Konversion <> Social-Media ermöglichen.

Pinterest: Analytics

Eine geeignete API basierte Zugangsmöglichkeit zu den Statistiken von „Pinterest“ ist mir derzeit nicht bekannt und ich verweise hier auf https://analytics.pinterest.com/. Der Zugang zu diesem Service erfordert einen geschäftlichen Account, sofern dieser nicht vorhanden ist wird man durch eine entsprechende Konvertierungsprozedur durchgeleitet. Das Backend erinnert stark an das Layout von Piwik oder G-Analytics und hier lassen sich die folgenden Metriken auslesen:

– Einblendungen, Repins, Likes, Clicks je Pin
– Einblendungen, Repins, Likes, Clicks je Pinwand

Zur Erklärung // Informationen innerhalb der Analytics
https://analytics.pinterest.com/audience/
Dieses Features schlüsselt die Einblendungen, die Herkunftsländer und das Geschlecht der Besucher (Fans, Follower) auf.

Weitere Informationen findet man hier.

Rankingchecker – eigene Ansätze

Die beeindruckend hohe Fehlerquote bei den üblichen Analysewerkzeuge und Datendienstleister animierten mich dazu, mich wieder einmal mit der Etablierung eines eigenen Ansatzes auseinander zu setzen. In der Anwendung „piXologisch EasyPromo“ existiert bereits ein crawlerbasierender Rankingchecker und dieser wird um die folgende Funktion ersetzt:

http://www.google.com/uds/GwebSearch?callback=response&rsz=large&v=1.0&q=’+ UTF8Encode(query)

Diese muss in der Programmierung um die Variablen:

„&start=[label]“ („label“ bezieht sich auf die Ergebnisseiten OHNE SEM in Form der fortlaufenden Resultate)
„&gl=[Ländercode]“ (uk, de usw.)

erweitert werden.

Der Ansatz beinhaltet im aktuellen Stadium keine Recherche auf Bundesländer- und Stadtebene und es muss im Prinzip „nur noch“ eine geeignete Datenbanklösung gefunden werden.
Durch die Entwicklung an den Keywordrecherchetools, der Anbindung an die Piwik-API etc. lassen sich mit diesen Ansatz folgende Probleme lösen:

– Welche wirtschaftlich werthaltigen Keywords ranken im Vergleich zum Wettbewerb?
– Wo ranken die „not-provided“-Einstiegsseiten zu den „wirtschaftlich werthaltigen“ Keywords? (Abgleich Piwik-API)

Im Etablierungsprozess der Algos werde ich bzgl. der zu prüfenden Keywords neben der manuellen Eingabe die Vorschlagrechercheprozeduren und einen Import aus den Webmastertools in Betracht ziehen. Betrachtungen bzgl. der Wettbewerbsanalyse lassen sich durch das Vorhandensein diverser Socialmedia-Recherche-Algorithmen nun so lösen, dass eventuell gefundene #1-#10 Wettbewerber hinsichtlich der „Social-Signals“ analysiert werden können.

Eine Backlinkcheckerfunktion wird aufgrund der aktuell begrenzten Ressourcen nicht angedacht oder umgesetzt und wir werden hausintern die Reports (unter Vorbehalt) bis Mittel 2015 auf die skizzierte Lösung umstellen.

Wie kann ich … die Konversion von Keywordpositionen prüfen?

Irgendwo in der „Szene“ tauchte neulich diese Fragestellung auf. Der Lösungsweg ist relativ einfach zu verstehen.
Setzt man also voraus, dass die Erfassung der getätigten Umsätze über die entsprechenden Funktionen der Software „Piwik“, „Analytics“ oder im Einsatzgebiet „Affiliatemarketing“ als Zusammenspiel von den üblichen Analyseanwendungen mit Prüfung der Umsätze über die APIs der Netzwerke etabliert ist und auch funktioniert, bleibt eigentlich nur noch das Problem der „Not-Provided“-Zugriffe.

Die Lösung ist recht simpel. Man benötigt aus den genannten Analyseanwendungen die Ausgabe der Einstiegsseiten – zugeordnet zur Eigenschaft „not-provided“. Diese Liste oder Linksammlung übergibt man mit Hilfe einer zu programmierenden Lösung an die API von irgendeinem Dienstleister (Sistrix … Xovi) seiner Wahl. Die API-Lösungen sind in der Regel sehr gut und verständlich dokumentiert und liefern durch die Abfrage- und Ausgabefunktionen die rankenden Keywords zu den übergebenen Linklisten aus. Selbstverständlich ist dieser Weg nicht ideal, da Xovi und Sistrix nicht (!) das Such- und Userverhalten abbilden können. Um hier die entstandene Lücke zu füllen, bietet sich ein Blick in die Webmaster-Tool-Daten an: hier lassen sich die Ergebnisse aus dem Punkt „Suchanfragen“ auswerten.

Natürlich bleiben bei der Beanspruchung der Keyworddatenbanken und der Datensätze aus dem Webmastertool weitere Lücken im Erkenntnisgewinnungsprozess. Diese löst man entweder über die Entwicklung eines eigenen Rankingcheckers oder über die Anbindung eines ggf. vorhandenen Positionsprüfers (Hier auf geeignete Exportfunktionen, APIs etc. achten!). Piwik scheint hier einen Sonderfall abzubilden – man kann konkrete Positionsangaben auch bei „not-provided“-Zugriffen (gekennzeichnet durch „#“) auswerten und hierüber den Weg zum Verkauf oder Absprung analysieren.

Der skizzierte Lösungsweg befindet sich bei unseren Projekten bereits im Einsatz und ich bitte zu bedenken, dass die konkrete Implementierung individuell sein kann. Der Grund ist relativ einfach: durch das nicht standardisierte Erfassen von den Verkäufen (via Piwik, via Analytics, via externe Buchhaltungsanwendung, via Webshop, via Affiliatenetzwerke), wird man wohl um eine Eigenentwicklung nicht umhin kommen.

Anhand der Rückmeldungen aus meiner „Socialmedia-Filterblase“ habe ich die Vermutung, dass dieses Thema sehr wichtig ist. Da die W&L GbR allerdings keine individuellen Softwareentwicklungen anbietet, existiert (derzeit) keine Möglichkeit der Herausgabe unserer Algorithmen und Anpassen der Funktionen auf den individuellen Endanwenderfall. Selbstverständlich besteht die Möglichkeit einer Anfrage nach Struktogrammen oder der Erläuterung des Lösungsweges. Bei Interesse bitte eine EMail an anne(at)pontipix.de senden oder das Anfrageformular verwenden.