Seltsame Beobachtungen bei dem Handling der InstaLOC 2.0 Datenbanken (Speicher)

Die Zusammenführungen der Rohdaten via Location-IDs (Facebookcodierung/Instagram) mit den Geodaten aus Openstreetmap entdeckte ich folgendes Problem:

Die Abarbeitungen der Queries müllt mir meine C-Partition zu und verbraucht unlogischen Speicher, obwohl die Arbeiten bspw. auf den Partitionen D, E und F laufen.

Diese Baustelle wurde über den Befehl:

PRAGMA temp_store_directory = ‚f:\‘

gelöst. Interessant ist auch, dass diese Anweisung (via SQLitestudio) die Schreib- und Lesegeschwindigkeiten extrem beschleunigt, sofern der Hauptteil der Arbeiten auf der internen SSD-Platte läuft (ca. 3000MB/Sek.).

Wieder einmal bin ich darüber erstaunt, wieviel man im BIGDATA-Bereich lernen kann. :-)

Etablierung der Zielgruppenforschung im Instagramumfeld und erste Zahlen aus der praktischen Anwendung

Mit Etablierung der InstaLOC-Datenbanken und den angedockten Zielgruppen- und Marktanalysen wurden zeitgleich diverse Tests mit bestehenden Accounts durchgeführt.
Diese Szenarien sollten klären:

(a) Followerwachstum
(b) Interaktionen auf den Medien, Videos, Stories
(c) Interaktionsqualitäten und Nachhaltigkeiten

Vor ca. 4 Wochen wurden 2 Testaccounts ausgewählt, Gespräche geführt und an das System angedockt.

Die beobachteten Effekte sind:
(a) Followerwachstum (gerundet)

Account: (A)
Thema: Kunst, Art, Fotografie
13.000 Follower -> 26.000 Follower -> 40.000 Follower

Account: (B)
Thema: Coaching/Consulting
1.500 Follower -> 17.000 Follower -> 20.000 Follower

(b) Interaktionen auf die Medien

Account: (A)
Thema: Kunst, Art, Fotografie
Interaktionsspannbreite, Bilder – Likes: 130 bis ~3.000

Interaktionsspannbreite, Videos – Likes + Views

Account: (B)
Thema: Coaching/Consulting
Interaktionsspannbreite, Bilder – Likes: ~350 – ~800

Account (A) entwickelt sich erstaunlich gut und es sind ca. 200-260 dauerhafte Besucher_innen auf die verlinkte Seite identifizierbar. Ebenfalls beobachte ich starke Kommunikation via „DM“, eMail und auch Telefon aus den Spektren der angesprochenen Zielgruppen (hier: Galerien, Fotograf_innen, Kunst allgem.).
Account (B) zeigt eine starke Etablierung der zielgruppenorientierten Kommentare und eine Einpendelung der Interaktionen auf ~800 / Medium. Erste Anfragen via DM und eMails sind ebenfalls nachvollziehbar.

Nach Zahlensichtung, Ergebnisanalysen und diverse Brainstormings wurden letzte Woche weitere Accounts aus dem Bereich „Handel“ und „Home & Living“ in die Strategie überführt. Hier sind Effekte analog zu Account (A) und Account (B) sichtbar.

Interesse an einer Partnerschaft? Fragen?
Gerne unter office(at)pontipix.de
Weitere Informationen unter: https://www.pontimania.de/

InstaLOC – Sichtung und Abfragen bzgl. der „Themenweltdatenbank“

Für die Prüfung und auch „Eichung“ der erweiterten Datenquelle (hier: Tagsearch mit Ergänzung zu den Locations) wurde eine Themenweltdatenbank angelegt, welche auch durch aktuelles Zeitgeschehen inspiriert ist.

Der Scraper benötigte 20 Stunden für die Erfassung der Daten, wobei diese Zeit auf 2 Tage verteilt und eine Liste mit ca. 6000 „Spezialterms“ abgearbeitet wurde.

Datenbankstatistik:
Anz. Einträge: 1238290
Anz. Filter: 45
Anz. Tagsclouds: 1011505
Anz. Locations: 110648
Anz. Accounts: 553799
Anz. Posting/Zeitstempel: 806680
Dateigröße (Byte): 689319936

Beispielabfragen:
(1) select location, erstellzeit from locations where (tag like ‚%22aXX%22‘) and (tag like ‚%22mXXXXXXXXXXXX%22′) and (location <> ’null‘);

Übersetzung:
Hole alle Locations und Erstellzeitpunkte (Zeitstempel) aus der Datenbank, wo die „tag like“ Bedingungen zutreffen und eine Location hinterlegt ist.
Ergebnisse:
771 Einträge

(2) select count(distinct(location)) from locations where (tag like ‚%22aXX%22‘) and (tag like ‚%22mXXXXXXXXXXXX%22′) and (location <> ’null‘);
Übersetzung:
Hole Locations aus der Datenbank, wo die „tag like“ Bedingungen zutreffen und eine Location hinterlegt ist.
Ergebnisse:
99 Einträge (für count(distinct(location)),
Liste (PDF, Locations, für „select location“)
Liste (PDF, Erstellzeit + Location, für „select location, erstellzeit“)

(3) select count(username) from locations where (tag like ‚%22aXX%22‘) and (tag like ‚%22mXXXXXXXXXXX%22‘);
Übersetzung:
Zähle die Accounts zusammen, wo in den Tagwolken die 2 abgefragten Terms vorkommen.
Ergebnisse:
3077 Einträge

Projekt „InstaLoc“ – Wechsel der Datenscrapertechnologie

Nach diversen Gesprächen, Socialmediabeobachtungen usw. entschied ich mich zur festen Einbindung eines weiteren Datenscraperansatzes.
Dieser interpretiert nun die Stadt nicht als Konstruktion mit einer Grenze, sondern als „Gegend“ mit der Stadt als Mittelpunkt.

Konkrete Beispiele können sein:

Datenbank „Mainz“ -> Mainz + Wiesbaden
Datenbank „Apolda“ -> Apolda + Weimar + Jena + div. Dörfer (falls auslesbar)
Datenbank „Leipzig“ -> Leipzig + Halle + Merseburg

Der Testlauf zum Raum „Mainz“ ergab ca. 25.700 auslesbare Locations zu max. 2000 Beiträge und ein Datenerfassungsdurchlauf beansprucht etwas um die 24 Stunden.

Im Zuge der nächsten Updates werden weitere Erhebungsmethoden getestet und ggf. in die Prozeduren eingebaut.

Die massive Datenausweitung und das feinmaschig erfasste Locationnetz erlaubt nun (auch nach Rückmeldung der Kolleg_innen) die Beantwortung folgender Fragen:

(1) Wo befinden sich ansprechbare (!) Zielgruppen?
(2) Was machen die ansprechbaren Zielgruppen an welchen Orten (gez. durch die Tagwolken, Fotofilter, Emotionsäußerungen etc.)=
(3) Wie sind die Bewegungsstrecken von ansprechbaren Zielgruppen gestaltet? (Hotel->Bar, Hotel->Museum, FashionStore->Bar->Club usw.)
(4) …

Anwendungsszenarien der interpretierbaren Rohdaten / Analysedaten können auch sein:
(1) Genauere Auswahl von Plakatplätzen in Städten
(2) Genauere Auswahl und Briefings von Promotiontrupps (Flyerverteilungen, Werbegeschenkeverteilungen)
(3) div. politische Analysen, pol. Trendanalysen
(4) Trendanalysen in Bezug auf Orte und Ortsverbindungen für Auf- und Abbau v. lokalen Geschäften
(5) Konkurrenzanalysen auf Locationbasis (hier: Sprache und Interaktionen)
(6) Möglichkeiten: Verkauftrigger / Lead- und Saleunterstützungen
(7) Kundengruppen: Interessensschwerpunktanalyse- und reportings (Freizeitverhalten u.a.)

An der Stelle bedanke ich mich bei Georg Grohs, Dr. Klaus Holthausen / Andrea Fetzer (Roland Berger), Lars Heinemann, Mitossi und Dirk Schumann für die treibende und kreative Beurteilung des Projektes.

Datenexporte: Instagram-Locationprojekt, Teil (1)

(1) Locationrecherche nach Auflistung der aktiven Accounts

SELECT location, Anz_user from(
Select location, count(username) as Anz_user from locations GROUP BY location ) as my_table
WHERE (Anz_user >= 2) order by Anz_user DESC

Diese Abfrage listet alle Locations auf, wo mind. 2 Accounts Postings abgesetzt hatten.
Datei (Paris): loc_2

(2) Locationrecherche nach Auflistung der aktiven Accounts, Anpassung nach Locationtyp

SELECT location as Ort, Anz_user from(
Select location, count(username) as Anz_user from locations GROUP BY location ) as my_table
WHERE (Anz_user >= 2) AND (location like '%museum%') order by Anz_user DESC

Diese Abfrage listet alle Locations auf, wo mind. 2 Accounts Postings abgesetzt hatten und erlaubt die Feinprüfung auf Locationtyp.
Datei (Paris), Hotel: loc_2_hotel
Datei (Paris), Museum: loc_2_museum

(3) Location- und Accountauflistung nach Suchwort (Tagsubstring)
select location, tag, username from locations where tag like '%fashion%' group by username;

Diese Abfrage listet alle Locations und Accounts auf, welche etwas zu „Fashion“ gepostet hatten
Datei (Paris), „fashion“: paris_fashion

(4) Userauflistung nach Suchwort UND Mindestaufkommen in Bezug auf die Locationaufsummierung

SELECT username, numb from(
Select username, tag, count(location) as numb from locations GROUP BY username ) as my_table
WHERE (numb >= 2) and (tag like '%fashion%') order by numb DESC;

Diese Abfrage listet alle erfassten Accounts auf, welche an mind. 2 Locations aktiv etwas zu „Fashion“ schrieben.
Datei (Paris), Loc=2, „fashion“: user_tag_fashion_2

Wie kann ich interagierende Accounts mit Hilfe eines Instagrambugs auslesen?

In einer der letzten Vertriebs- und Verkaufsveranstaltung (Subthema: Erkennen und Bewerten von Accounts, Interaktionen usw.) wurde ich inspiriert, eine geeignete technische Lösung zu recherchieren, welche die Titelfrage beantwortet. Der Grund ist einfach: Durch die Beschneidung der Instagram-API ist die technische Erfassung o.g. Metriken schlichtweg nicht mehr möglich. Einen Ausweg bietet folgende Vorgehensweise:

[AbfrageURL]
https://www.instagram.com/[Accountname]/?__a=1

[Codekonzept]
lade_account_liste(datei,DB)
//-> Erfassen der Likenden
for l=0 to liste_ende do
begin
httpget(https://www.instagram.com/liste[l]/?__a=1
(1) extract(graphql->user->edge_owner_to_timeline_media->edges->[NrX]->node[X]->edge_media_preview_like->count)
(2) extract(graphql->user->edge_owner_to_timeline_media->edges->[NrX]->node[X]->edge_media_preview_like->edges->[NrY]->node[Y]->id)
(3) extract(graphql->user->edge_owner_to_timeline_media->edges->[NrX]->node[X]->edge_media_preview_like->edges->[NrY]->node[Y]->profile_pic_url)
(4) extract(graphql->user->edge_owner_to_timeline_media->edges->[NrX]->node[X]->edge_media_preview_like->edges->[NrY]->node[Y]->username)
end

[Erklärung]
„httpget“ = Ergebnis der Abfrage wird herunter geladen
„extract“ = Das Ergebnis der Abfrage wird nach der Variable durchsucht und die Inhalte werden im gewählten Format gespeichert.
„lade_account_liste“ = Die zu begutachtenden Accounts werden in Listenform (Textdatei, SQLTab etc.) in die Prozedur eingespielt.

Die Manuelle Sichtung der Ergebnisse kann man mit https://jsoneditoronline.org/ erledigen. Hier einfach die Abfrageurl https://www.instagram.com/[Accountname]/?__a=1 mit dem Accountnamen im Browser eintragen und das Resultat in den jsoneditor kopieren.

[Erklärung: Datensätze]
(1) Auslesen der aktuellen Likes als Zahl
(2) Auslesen des likenden Accounts in Form der InstagramID
(3) Auslesen der Profilbildurl des likenden Accounts
(4) Auslesen des likenden Accountnamens

[Fazit]
Ich bezeichne den begutachteten Erhebungsweg bewusst als „Bug“, da Instagram offziell das Erfassen dieser Datensätze im letzten API-Entwicklungsturnus geschlossen hatte. Nun mag man davon halten, was man möchte und ich sehe u.a. hier für mich den Beleg dafür, dass die geschlossenen Endpoints selbstverständlich nach wie vor aktiv sind. Vielleicht beschäftig sich Instagram mit der Bug-Bereinigung, vielleicht bleibt aber auch diese Abfragevariante „ewig“ offen. Die Sichtung des JSON-Codes zeigte mir, dass „leider“ nur eine begrenzte Anzahl an interagierenden Accounts auslesbar ist, aber auch dieses Problem lässt sich elegant über eine geeignete Timer-Variante lösen. Diese aktiviert im Prinzip im Sekundentakt den Scrapingvorgang und holt sich die gewünschten Datensätze ab, speichert und verarbeitet die Eintragungen. Hochfaszinierend ist in diesem Gedankenspiel die Metrik „Username“: Die Inhalte aus der Variable lassen sich in geeignete Listen übertragen und in das o.g. Grobkonzept einspielen. Über diesen Weg erfährt der wissensdurstige Dataminer alles aus dem Medienstream des Influenceraccounts / Accounts UND den Accounts, welche eben mit dem Hauptanalyseobjekt interagieren.

Hier setzt bei mir das kritische und hinterfragende Nachdenken an:
Welchen Wert haben umfangreiche Datenschutzerklärungen, wenn bspw. Social Media problemlos recherchierbare Lücken für die Datenerhebungen offen lassen?
Welchen Wert haben offzielle Ankündigungen und Umsetzungen zu API-Änderungen, gerade aus dem FB-Haus in Verbindung mit Cambridge Analytica?
Welchen Wert haben Äußerungen aus dem Hause Facebook bzgl. der Kontrolle der Datenzugriffe von Externen, wenn (a) dieser „Bug“ identifizierbar und (b) nutzbar ist?

Ich muss gestehen, dass ich einen gewaltigen Nutzen in diesen Datenerhebungsvarianten sehe. Natürlich habe ich über die Nutzbarmachung im Interesse der Wobus & Lehmann GbR nachgedacht, bin aber letztendlich davon abgekommen, weil mir derzeit kein sauberes Anonymisierungsverfahren bekannt ist. Ich finde es schade, dass die Influencer-Marketing-Agenturszene schweigt und keinerlei Analysen, Statements oder generell Worte zu dieser Datenproblematik veröffentlicht.

Influencermarketing, Instagram und das (lästige) Problem der suboptimalen Followerzahlen?

Ich glaube, dass die Leser_innen des Arbeitsblogs mit extrem hoher Wahrscheinlichkeit meine enorme Skepsis gegenüber der „offziellen“ Strategie des Influencermarketings verstanden haben und ich denke, dass ich etwas mehr Erklärung schuldig bin. Es ist eigentlich einfach und bei Sichtung der Kritiken (also … nicht nur meine) tauchen immer wieder Argumente rund um die einkaufbaren Follower auf und hier vertrete ich nun einmal den Ansatz, dass man die Strategie „Influencermarketing“ eben wegen der massiven Kritiken nicht auf Basis der Subjektivitäten „Erfahrung“ oder „Zwischenmenschlichkeit“ beurteilen muss, sondern man MUSS diesen Ansatz eben auch mit Hintergrundwissen zu den Einflussfaktoren / „alternativen“ Strategien jedes Mal neu bewerten (also: je Szenarium, je Projekt, je Kund_in usw.).

Nun ist eine spannende Problemquelle beim Instagrambasierten Influencermarketing eben die Frage, ob die einkaufbare Reichweite (hier: Follower) auch tatsächlich „real“ ist. Ich wundere mich immer wieder, wie selten eben diese unfassbar spannende Problematik so selten und so unbefriedigend diskutiert wird, obwohl gefühlt einige 1000 Anbieter mit entsprechenden Kaufangeboten auf dem Markt völlig problemlos recherchierbar sind. Es gehört für mich zum Tagesgeschäft dazu, die Konkurrenz zu beobachten, welche eben diese spezielle Marketingform anbietet und natürlich entdecke ich da viele Blogbeiträge und Erfahrungsberichte zu wahnsinnig emotional ausgeschmückten Worstcase-Szenarien und ich mache mir da immer einen Spaß und frage nach konkreten Erfahrungen. Sprich: man kann in der hochintellektuellen Sparte „Marketing“ ja schlichtweg nur zu Dingen Formulierungen tätigen, von denen man schlichtweg auch etwas versteht und hierzu gehört auch das Durchspielen von Experimenten und NICHT (!) das kritiklose Wiederholen von nicht nachprüfbaren Experimenten der Werbeszene. Man sollte schon im Interesse der Sichtung dieser einkaufbaren Follower sich um das Erwirtschaften eigener (!) Erfahrungen bemühen.

Eines davon erledigte ich vor geraumer Zeit mit einem extra aufgesetzten Instagramaccount und hier ging ich so vor:
[1] Recherche bei Google
https://www.google.de/search?q=buy+instagram+followers+cheap
(„cheap“ deswegen, weil ich kein Interesse am Verspielen von Geld hatte.)
Im Rahmen des ersten Grobchecks entdeckte ich, dass die vielen Anbieter sich „beweisen“ wollen und man bietet potentiellen Kund_innen eben auch Testpakete – natürlich – kostenfrei an.

[2] Recherche bei Google, nach kostenlosen Followertestpaketen
https://www.google.de/search?q=buy+instagram+followers+free+trial
https://www.google.de/search?q=10+free+instagram+followers+trial
https://www.google.de/search?q=50+free+instagram+followers+trial
https://www.google.de/search?q=20+free+instagram+likes

Ich sehe nun einen bunten und wunderschön ausgeschmückten Laden mit sehr vielen interessanten Angeboten und weil mir hier der moralische Zeigefinger (oder besser: der basislose moralische Zeigefinger) keine Freude bereitet, experimentierte ich mit den folgenden Angeboten ein wenig herum:

[Pro Forma – Hinweis]
Ich übernehme keine Verantwortung, wenn die Benutzung der nachfolgenden Angebote nicht die gewünschten Effekte produziert.

http://www.buzzdayz.com/free-instagram-follower-trial/
https://www.quickfansandlikes.com/
http://www.gramozo.com/free-trial/
https://www.getmassfollowers.co.uk/
http://buyhugefollowers.co.uk/
http://www.thebestfollowers.co.uk/
https://instalegendary.com/
https://soclikes.com/
https://getmoreinsta.com/index.php?page=addfreefollowers

Eine besonders interessanter Anbieter ist:
https://plusmein.com/index.php?page=addfreefollowers
Dieser erlaubt das Einbuchen von jeweils 20 Follower je 24 Stunden und damit kann der Experimentalaccount über einen schönen Zeitraum hinweg „wachsen“. Eine „Runde“ des Testaccounts durch diese Liste „erntete“ zwischen 250 und 300 relativ stabile Follower.

Ein paar Worte zur Bewertung der zusammengeschnorrten Follower.
Ich habe hier eher „gemischte“ Gefühle zur Qualität: ich sehe klischeehafte Fakeaccounts (also: junge Frau, extrem viele Abos, wenig Follows, keine|wenig Medien) und ich sehe natürlich auch sehr natürlich wirkende Accounts und das lässt mich fragen, woher diese Anbieter denn die vermittelbaren Accounts überhaupt nehmen und ein wenig Recherche ergab, dass die meisten Quellen sich auf das Interaktionen – gegen Coin – System beziehen. Interessant ist der Anbieter „plusmein.com“, denn hier entdeckte ich in den ersten Testläufen durchaus auch neue Follower, deren Daten und Medien dem typischen Bild des einkaufbaren Influencers entsprechen.
Ganz ehrlich: ich habe keine Ahnung, wie dieser Anbieter arbeitet und woher die Accounts stammen und im Moment theoretisiere ich in Richtung „Engagement Gruppe“, wobei das natürlich nicht final verifizierbar sein dürfte. Obwohl die Qualitäten wechselhafter Natur sein können, sehe ich auch, dass der Schwundfaktor im – sagen wir mal – „natürlichen“ Rahmen bleibt, wobei ich auch sehe, dass die Interaktionen da, wenn auch äußerst gering sind.
Komme ich nun zur moralischen Einordnung und hier vertrete ich – wie erwähnt – eine eher pragmatische Sichtweise, gerade deswegen, weil die Einordnung der Followerlisten in Fake / Non-Fake sehr schwierig ist. Natürlich existieren sehr viele Indikatoren für eben „schwierige“ Ansätze innerhalb einer Accountstruktur und diese sind Ungleichgewichte in den Zahlen, komische Kommentare, aber mal ganz ehrlich: es gibt durchaus Menschen, die wie die Irren unfassbar vielen anderen Menschen folgen, dann gibt es Accounts, die ohne Verantwortung oder „Zutun“ eben Ziel von Spamcommentattacken werden. Mir passiert sowas ständig, den Kund_innen ebenfalls und ich sehe da immer wieder automatisch generierte Comments aus eben auch der Feder deutscher Accounts aus der Berater_innenszene, der Socialmediaberater_innen und selbstverständlich auch völlig normale Firmen. Das hängt auch damit zusammen, dass viele eben diese Werkzeuge wie „Ninjagram“ verwenden und die Hoffnung hegen, dass abgesetzte Kommentare Aufmerksamkeit erzeugen.
Also: „Fakes“ sind definitiv nicht sauber und extrem eindeutig identifizierbar und das gilt auch für den Kauf oder das oben beschriebene Zusammenschnorren. Also quält mich eine Frage: Wieso existieren stark moralisierende Argumente rund um ein nicht nachprüfbares Thema? Ich erkenne keinerlei Logik in der eigenen Geschäfts- und Dienstleistungsaufwertung, wenn nicht überprüfbare Followerlisten als pauschal „sauber“ deklariert werden und das via Behauptung schlichtweg „nur“ in den Raum gestellt wird.

Ob nun diese Positionierungsvariante edel, gut, moralisch einwandfrei oder sogar „praktikabel“ ist, muss und soll jeder Mensch für sich selbst entscheiden. Mir steht das Erheben des moralischen Zeigefingers nicht zu, würde aber das eventuelle Einsatzszenarium immer wieder neu bewerten und während eines eventuellen Schnorrens / Einkaufens unbedingt auf folgende Dinge achten:

(1) Absolut saubere Contentqualität.
(2) Klare, deutliche und zielgruppengenaue Kommunikation.
(3) Natürliche Marketingmaßnahmen

Fragen, Gedanken, Hinweise? Gern über Kommentar oder via Telefonat. Ich suche übrigens tatsächlich händeringend nach einem sauberen Followerlistenauswertungsalgorithmus.

Woher kommt der Traffic? (Socialmedia-Analyse(n))

Vor ein paar Tagen nahm ich mir etwas Weiterbildungszeit und sichtete diverse WWW-Marketing-Wochenabschlussbeiträge. Zur Info: diese besondere Art der Blogbeiträge beschreibt meistens eine Wochenzusammenfassung an besonders faszinierenden Links und externen Beiträgen. Aus logischen Gründen stand aktuell meistens Facebook und / oder die generelle Arbeit mit den Socialmedia im Fokus und ich wurde aufmerksam / munter, als ich das Dokument „Pinterest, Google, & Instagram big winners as Facebook share of visits falls 8% in 2017“ von Shareaholic da gesehen hatte und hier ist eine Klischeesituation aufgefallen:

[1] Eine Autorität veröffentlicht Beobachtungen
[2] Eine Subautorität nimmt die Beobachtungen daher, ergänzt diese um einige Anmerkungen
[3] Unfassbar viele Dienstleister_innen nehmen die Inhalte aus [2], um diverse Existenzberechtigungen herbei zu argumentieren und sog. „hochwertigen Content“ zu produzieren.

Der gemeinsame Nenner zwischen [2] und [3] ist hier – ganz im Sinne der Klischees – das bewusste Nicht-Hinterfragen der Thesen aus [1], da man es ja mit einer wahnsinnig anerkannten Autorität zu tun hat. Ich erkenne jedenfalls keinerlei Logik in dieser faszinierenden Gangart und Branchenautoritäten müssen sich jedezeit hinterfragen und fachlich kritisieren lassen. Aus meiner Perspektive generiert sich genau aus diesem Merkmal die Berechtigung des Labels „Autorität“ und es ist mir schleierhaft, warum gefühlt sämtliche Autoritäten der Marketingbranchen den fachlichen Konflikt meiden.

Wie auch immer und zurück zum Shareaholic-Artikel kommend.
Ich unterstelle Shareaholic aus sehr guten Gründen eine gewisse Grundkompetenz bzgl. der Aus- und Bewertung von Socialsignals, nur befinden sich im Beitrag diverse Lücken:

[1] Keine Offenlegung der analysierten Seiten.
[2] Keine Offenlegung der Länder und Zielgruppen zu den analysierten Seiten.
[3] Keinerlei Offenlegung der zeitlichen Entwicklung der Signals / Socialbewegungen über den kompletten Zeitraum von 2017.
[4] Keinerlei Offenlegung der Datenerhebungsmethoden.

Gerade der 4. Punkt wirkt auf mich – vorsichtig formuliert (!) – mehr als verwirrend und ich frage mich, warum den DACH-Kolleg_innen nicht aufgefallen ist, dass Instagram schlichtweg keinerlei Möglichkeiten zur Analyse von Traffic von externen (also: nicht selbst betreuten!!!) Seiten und Projekten liefert: es existiert keine einzige Möglichkeit, mit Schnittstellen / API-Endpoints den Traffic von völlig unbetreuten Accounts zu deren Webseiten zu erfassen. Da frage ich mich: Wie hat das Shareaholic geschafft und wo genau befindet sich da die Dokumentation? Diese sehe ich nicht und Querchecks via Google und diverse „Nerd“-foren ergab keinesfalls eine Problemlösung.

Es bleibt also folgende Frage offen: Warum bewirbt man mit völlig intransparenten Datenerhebungen ein Socialmedium zum Zwecke der Trafficgenerierungsansätze? Ich sehe hier keinerlei Logik oder sogar Gesprächsgrundlage für diese oder jene Projekte.

Genau diese Problematik beschäftigte mich die letzten 2 Tage und das Ergebnis entsprechender Gedankengänge ist:

[1] Instagram
Der Traffic via Instagram lässt sich definitiv nicht sauber monitoren, wenn keinerlei Zugriff auf eine hinreichend große Accountmasse (Hier: alle Themen, Länder, Branchen etc.) besteht. Man kann also nur mit Hilfe der Indikatoren hier Analysen anstellen und ich wage die Formulierung folgender Thesen:

(a) Der Traffic ist hoch, wenn möglichst viele Interaktionen auf den Postings der jeweiligen Accounts identifizierbar sind, wobei hier zwischen Botgesteuert und „Organisch“ zu unterscheiden ist.

Quellen:
Beiträge aus „Interaktionenprojekt
InstagramAPI (Endpoint -> Likes)
InstagramAPI (Endpoint -> Comment -> Get)

(b) Der Traffic kann hoch werden / sich gut entwickeln / ist hoch, wenn die Postings der jeweiligen Accounts entsprechend „mächtige“ Hashtags verwerten.

Quellen:
Beiträge aus „Hashtagprojekt
Datenbanken zu „Hashtagprojekt“
InstagramAPI (Endpoint -> GetTag)

Werden über die bekannten und dokumentierten API-Endpoints bspw. zu Instagram die notwendigen Daten erhoben, stellt man sehr schnell etwas „Lustiges“ fest:
Die Datenmassen können zwar extrem umfangreich sein, jedoch bilden Diese immer einen recht kleinen Moment aus dem Universum von Instagram ab. Sie lassen sich maximal im Rahmen der Datenbankinhalte verwerten und können keinesfalls Aufschluss über unbekannte Themen und Untersuchungsobjekte liefern. Dann weiter: die Verwertung dieser technischen Schnittstellen zeigt ab einem gewissen Punkt die Begrenztheit, weil eben diese Endpoints nur eine begrenzte Menge an Abfragen zulassen. Instagram ist hier recht liberal oder „großzügig“, andere Socialmedia jedoch nicht (siehe: Twitter und die Retweet / Tweetzählproblematik).

Fazit zu Instgram:
Absolute Aussagen zu „Traffic“ im Vergleich zu den anderen Socialmedia lassen sich nicht sauber generieren, man arbeitet da mit „Vermutungen“ und die Sauberkeit eben dieser Vermutungen / Prognosen hängt ab von:
– Offenlegung der Erhebungsverfahren
– Gegenprobe via API-Endpoints
– Menge der erhobenen Daten aus „API-Endpoints“ inkl. deren inhaltlichen Breite
Diese Sachen sehe ich weder im o.g. Report, noch in den Szenecontentmarketingaktivitäten.

[Andere Socialmedia außerhalb von Instagram]
Am 6.12.2013 fand ich Gelegenheit, ein Projekt fertig zu stellen. Dieses ist auch Bestandteil unserer Monitoringaktivitäten und begutachtet die Socialsignalentwicklungen aus Facebook, Twitter und Pinterest. Früher empfand ich noch die Notwendigkeit, Google-Plus zu beobachten und die entsprechende Funktion wurde im Laufe der Jahre eingestellt, da besagtes Medium eine extrem untergeordnete Rolle spielt. Die Kernidee hinter dem Projekt entstand eigentlich bereits in den Jahren 2010-2011, als wir – aus einem Zufall heraus – die Socialmedia (damals primär Twitter und Friendfeed) als spannendes Promomittel entdeckten und hierüber geradezu euphorisierende Rankingeffekte (einhergehend mit Traffic und Umsatz) produzieren konnten. Es war damals für alle Beteiligten absolut sichtbar und klar, dass selbstverständlich Traffic über die verwerteten Socials organisierbar IST und aus dieser Beobachtung leitete ich damals (!) folgende These ab:

Der Traffic via Twitter, Facebook u. anderen ist von der Sichtbarkeit abhängig und die Sichtbarkeit der der Postings ist abhängig von den Interaktionen auf dem Posting.

Die Thesenverifikation lässt sich via Quercheck auf die Interaktionszähltools und entsprechende APIs realisieren, wobei man hier selbstverständlich in regelmäßigen Abständen Prüfungen durchzuziehen hat.

Twitter: https://opensharecount.com/
Pinterest: https://api.pinterest.com/v1/urls/count.json?callback%20&url=deineurl.org
Facebook: https://www.kickstartcommerce.com/use-facebook-graph-api-get-count-url-likes-shares-comments.html

Obwohl ich dazu neige, bspw. aus den Socialsignalszahlen generelle Trafficprognosen abzuleiten, neigt die liebe Anne Lehmann hier zu einer gewissen „Erbsenzählerei“ und sie zwang mich irgendwann dazu, eine weitere Gegenprobe funktion zu suchen. Diese fand ich in dem Ansatz über die Bit.ly-API und unser Monitoringwerkzeug erfasst diese Zahlen parallel zu den Daten aus den genannten Interaktions/Signalszähler. Hierbei muss natürlich beachtet werden, dass ein (relativ) sauberes Trafficmonitoring nur dann funktioniert oder „aufgeht“, wenn die begutachteten Projekte eben auch mit Bit.ly-URLs arbeiten.

Fazit aus meiner „Arie“.
-> Manche oder viele Autoritäten verdienen zwar einen gewissen Vorschuss an Vertrauen, jedoch muss die Autorität hinterfragbar sein und diese Vorraussetzung ist nicht gegeben, wenn Datenerhebungswege oder Grundlagen dieser oder jener Thesen nicht offen gelegt werden.
-> Der kritiklose Umgang mit „Studien“ und / oder Autoritäten birgt die Gefahr von falschen und gefährlichen Strategien im Onlinemarketing.

Fragen? Anmerkungen?

Arbeitseinblick: Schwieriges Projekt & tolle Zahlen

Kurzfristig übernahmen wir die Arbeiten an einem Projekt der schwierigen Sorte im Bereich der Büroartikel & Verbrauchsmaterialien.

Ausgangszustand (Marketing):
‣ Sitemap mit ca. 75.000 Elementen,
‣ ca. 40.000 Produkte,
‣ diverse technische Mängel,
‣ kaum vorhandene Vermarktung der einzelnen Produkte mit Hilfe der üblichen Strategien,
‣ OVI-Wert bei ca. 1,08,
‣ kaum sichtbare Social-Media-Aktivitäten

Das Projekt hatte eine ungewöhnlich kurze Laufzeit von zwei Monaten (Juli bis August 2017) und bedurfte daher einer genau terminierten Vorgehensweise. Durch die vorhandene Tag- und Trenddatenbank (siehe Hashtagprojekt) gelang ein zügiger Einblick in die Branche des Klienten. Nach einer  kurzen Recherchephase wurden folgende Strategieelemente für die Promoarbeiten gewählt:

‣ Identifikation der lohnenswerten Knotenpunkte (hier: Kategorien mit nachgefragten Produkten)
‣ Linkaufbau für diese Kategorie-Seiten mit Hilfe stark frequentierter Kataloge und Blogs
‣ Linkaufbau für diese Kategorie-Seiten mit Hilfe der agentureigenen Pinterest-Accounts (manuell eingesetzte Quelle)
‣ Produktvermarktung mit Schwerpunkt auf Twitter

In der Projektlaufzeit konnten wir folgende Ergebnisse erzielen:

Grafik 1: Zuwachs der Besuche via SUMA von ca. 28 (Ende Juni) auf ca. 500 am Ende des Projektzeitraums Ende August
Zuwachs der Besuche via SUMA von ~28 (Ende Juni) auf 488 (17.August)

Grafik 2: Erhöhung des OVI-Index von 1,08 auf 3,45
Erhöhung des OVI-Index von 1,08 auf 2,12

Grafik 3: Erhöhung der rankenden Keywords von ca. 4100 auf ca. 9200

Durchgeklickt & ausgewertet: Instagram als Traffic-Lieferant

Nach einigen Diskussionen rund um die Wertigkeit von Instagram (auch im Bezug auf B2B-Projekte), haben wir uns entschlossen, ein paar neue Zahlen zu zeigen. Die nachfolgenden Ergebnisse resultieren aus einem Projekt, das wir im Frühjahr 2017 erfolgreich abgeschlossen haben.

Ein paar Informationen zum Projekt:
– Firma aus Mitteldeutschland mit Startup-Charakter
– IT-bezogene Dienstleistung, Services für IT-Belange
– extrem erklärungsbedürftige Produkte, schwieriger Absatz via klassischem Internetmarketing
– Social-Media-Aktivitäten u.a. via Instagram (Stand April 2017: ca. 200 Postings, 3k Abonnent_innen, 700 Abos)

Zu unserem Vorgehen:
Im Zeitfenster November 2016 bis Anfang Dezember 2016 starteten wir auf dem Instagram-Account dieser Firma den Hashtag-Erhebungsprozess (siehe Ausführungen zu den Rohdatenbanken) komplett neu und erweiterten die Abfragen u.a. auch um die Worte und Wortkombinationen aus den Bereichen des Projektes. Darüber hinaus schauten wir uns das Kommunikationsverhalten diverser KMU-bezogener Promis (aus verschiedenen Sparten) an und erweiterten die Scrapingprozedur um eine Erfassungs- und Gewichtungsfunktion, welche die Hashtags der beobachteten Influencer-Accounts auswerten kann.

Entwicklung des Instagram-Accounts Dezember 2016 bis Mai 2017 als Traffic-Lieferant für die Domain:
Im Zeitfenster Dezember 2016 bis Ende März 2017 fanden diverse Auswertungen zu den Häufungsentwicklungen der anvisierten Tags statt. Wir entwickelten die Theorie, dass bestimmte Hashtags einen Kanal zu den gewünschten (!) Zielgruppen abbilden können. Ausgehend von dieser Vermutung wurde der Kanal nach einigen Inhouse-Schulungen hinsichtlich Inhalt, Hashtags und Bildsprache weiterentwickelt. Hiermit lassen sich die sichtbaren „Zickzack“-Bewegungen erklären, da in dieser Phase schlichtweg ein Eichungsprozess stattfand. Im Rahmen der Kanaletablierung wurden weitere Ansätze und Strategien zur gezielten Vermarktung entwickelt. Im Zeitfenster April 2017 stabilisierten sich die Zahlen nun zu einem interessanten Traffic-Lieferanten.

Hier das anonymisierte Trafficdiagramm via Google-Analytics:

Vorläufiges Fazit:
Obwohl viele Kolleg_innen den Kanal „Instagram“ eher als Spielwiese für Hobbys, Ausflüge & vegane Gemüseteller betrachten, entdecken wir tagtäglich durch die konsequente Analyse der Tags, der Taghäufungen und der Postings zu den Tags, dass  durchaus auch erklärungsbedürftige Themen, Dienstleistungen und Produkte hier vorgestellt, diskutiert und vermarktet werden können. Die gezielte Bedienung dieser Kanäle mit konkreten Motiven und passenden Hashtags führt zu messbaren Rückklicks mit beachtlicher Aufenthaltsdauer auf der beworbenen Seite.