Projekt InstaLOC, Aktuelle Statistiken

Der aktuelle Datenbestand umfasst:

587.903 Locations inkl. Geocodes, IDs und Namen
12.669.502 Unique Tagclouds
5.633.457 Beiträge ohne Locationzuordnung
8.516.617 Beiträge mit Locationzuordnung
4.863.200 codierte User
10.700.170 Unique Zeitstempel (Beiträge)

Die Masterdatenbank umfasst alle erfassten Datensätze und die Scrapingtechnologie schafft das genannte Volumen innerhalb von 3-4 Werktagen.

Twitter, Statistiken und erste Zahlen aus dem aktuellen Experiment


Im Zuge der Verfestigung des Fotoblogprojektes wurde der beigeordnete Twitteraccount konzeptionell neu aufgestellt.

Dies umfasst:
– Etablierung geeigneter Like, Follow und Retweetautomatismen via APIbasierte PHP-Scripte (Bots)
– „natürlich aussehende“ Aktivitäten (tageszeitabhängig, via Crontab einstellbar)
– Qualitätssicherung der Follow, Like und Retweets via Search-API-Operatoren (AND, OR)
– Ausrichtung der Hashtags (f. Retweet, Like und Follow) an etablierte und qualitativ extrem hochwertige Accounts (subjektive Wahrnehmung, orientiert sich an Motivwahl und technische Umsetzungen von Fotos)

Die Wirkung (mehr Follower, Impressionen auf Tweets, Profilbesuche) der eingesetzten Automatismen lässt sich – analog zu den Instagramboterfahrungen – relativ genau und „sauber“ prognostizieren. Etwas komplexer oder komplizierter ist natürlich die Optimierung der Interaktionen auf den Tweets, also: Like, Comments und Retweets. Gerade bei diesen Interaktionsformen lässt sich nun ablesen, ob denn der dargebotene Content (eigene Produktionen und Retweets) als „hochwertig“ empfunden wird. Besagter Account wird diesbezüglich über Instagram via IFTTT bespielt und bei den Motiven orientiere ich mich an den vielen Gesprächen mit meiner Laborpartnerin, dem sozialen Umfeld und den Klient_innen der Wobus & Lehmann GbR. Diese „Minimarktforschung“ wird natürlich um regelmäßige Accountscreenings (via Datenbanken, manuelle Sichtung etc.) ergänzt.

Die aktuell „erfolgreichen“ Tweets sind:
https://twitter.com/aufnahme_n/status/934355833374281729
https://twitter.com/aufnahme_n/status/934356220483461120

Bit.ly – Statistiken nutzen (API)

1. Referrers und Clicks auslesen
https://api-ssl.bitly.com/v3/link/referrers?access_token=deintoken&link=http%3A%2F%2Fbit.ly%2FMwSGaQ
Das Ergebnis zeigt die Linkspender der zu analysierten URL und die erfassten Clicks hieraus.

2. Encoders und Clicks auslesen
https://api-ssl.bitly.com/v3/link/referrers?access_token=deintoken&link=http%3A%2F%2Fbit.ly%2FMwSGaQ
Das Ergebnis zeigt die Linkspender der zu analysierten URL und die erfassten Clicks hieraus.

3. Verweisende Domains und Clicks auslesen
https://api-ssl.bitly.com/v3/link/referring_domains?access_token=deintoken&link=http%3A%2F%2Fbit.ly%2FMwSGaQ
Das Ergebnis zeigt die Linkspender der zu analysierten URL und die erfassten Clicks hieraus.

Wozu braucht man das?
Die ausgegebenen Ergebnisse liefern Rückschlüsse zu einem Teil der Trafficvolumina von Projekten, über deren Zugriff man nicht verfügt.

Download: pontipix_bitly.xls (Beispieldatensätze aus dieser Domain).