Influencermarketing und das Problem der mangelnden Transparenz

Inspiriert von der Unilever-Presse schaute ich noch einmal in das Archiv des Arbeitsblogs und entdeckte einen alten Artikel, welcher Recherche- und Prüfszenarien skizziert auf API-Endpointbasis unter dem Titel „Instagram – Influencersuche und Influencerbegutachtungen„.

Hinweis dazu: Durch die Einschränkungen der InstagramAPI funktioniert das 2016er-Script nicht mehr und man muss es auf den API-Bug umkonfigurieren. Ich schätze, dass der Aufwand max. 3-6h in Anspruch nehmen wird. Hier würde ich zwei Ansätze zur Datenerhebung tiefer prüfen: (a) API-Bug und zur Absicherung (b) eine geeignete HTML-Scraper-Technologie.

Ich glaube mich zu erinnern, dass 2015/2016 dieser unlogische Hype zum ersten Mal von mir gefunden und kritisiert wurde und beim Schreiben dieser Zeilen bekomme ich einen interessanten „Flashback“ zur neulich besuchten Verkaufsveranstaltung und diversen Nachgesprächen, deren Inhalte waren:

– Die Branche besitzt keine sauberen Monitoringansätze.
– Die Branche arbeitet auf Basis von Zwischenmenschlichkeiten und Erfahrungen.
– Die Branche kennt keinerlei Prüfmethoden auf Basis der Socialmediabezogenen API-Endpoints.
– Die Branche besitzt keinerlei Ressourcen zum Aufbau, zum Programmieren und zum Testen von Prüfscripten und entsprechenden Tools.
– Die Branche versteht keine technischen Dokumentationen und es existieren nirgends innerhalb dieser Branche Fachkräfte zur Umsetzung von Prüfscripten, Monitoringsoftwares.

Eigentlich sind diese Kritikinhalte absolut deckungsgleich zu den Gesprächen aus den Jahren 2015/2016 und ich sehe hier nun keinerlei Weiterentwicklung, Innovation oder sogar Logik. Vielleicht hat der Geschäftsfreund Georg Grohs Recht: Es wird definitiv Zeit, die versprochenen Zahlen, die Effekte und die Kooperationen einer kritischen Überprüfung zu unterziehen.

Instagram: Gibt es die perfekte Uhrzeit zum Posten von Beiträgen?

Björn Tantau betrieb heute Aufklärungsarbeit(en) für die interessierten Laien in Form eines Artikels. Dieser ist soweit okay, bezieht viele externe Erkenntnisse ein und er demonstriert einige Zahlen auf Basis seines Accounts. Leider lassen die schriftlichen Gedankengänge auch viele Fragen offen und ich bemängele da u.a. die primäre Einbindung von Studienergebniszusammenfassungen in Form der typischen Infografiken und die relativ kritiklose Wiedergabe der allgemeingültigen Erkenntnisse. Vielleicht bin ich auch zu kritisch, erkenne aber auch an, dass der Tantau-Artikel halt dessen Zielgruppe(n) nahezu perfekt abholt.

Genug der Textkritik und hin zur Tiefenanalyse.

Die Frage nach DEM perfekten Zeitpunkt einer Publikation kann natürlich Gegenstand extremster Grundsatzdiskussionen sein. Privat ist mir die Suche, die immerwährende und tiefergehende Suche nach DEM einen Zeitpunkt zwar wichtig, jedoch prägen entsprechende und extrem zeitraubende Aktivitäten nicht das tägliche Management der Accounts. Teilweise neige ich auch dazu, „bei Lust“ oder „bei Laune“ zu posten, weil eben abholbare Zielgruppen und deren Aktivitäten extrem schlecht kalkulierbar sind. Mal im Ernst: natürlich existieren Gedankenspiele zu Zeitfenster im Bereich der Mittagspause, der Frühstückspause, der sonstigen Pausen oder eben dem Feierabend. Das ist alles soweit logisch, nur sagt die Logik auch, dass man eben auch „nur“ im Nebel stochert, weil das Interaktionsverhalten auf Basis der „Erfahrungswerte“ oder „Beobachtungen“ schlichtweg unkalkulierbar bleibt.

Hausintern haben wir folgende Arbeitshypothesen aufgestellt bezüglich der Feststellbarkeit möglicher ‚idealer‘ Postzeitpunkte:

(a) Der ideale Postzeitraum ist ablesbar durch die Interaktionen NACH dem Posten.
(b) Der ideale Postzeitraum ist ablesbar durch aufkommende Trends und/oder Gesprächsthemen.
(c) Der ideale Postzeitraum ist ablesbar durch das Erfassen und Auswerten von Kommunikationen innerhalb von Filterblasen.

Die Rechercheansätze wurden hier
https://www.pontipix.de/instagram-tagsuche-tagbewertungen-und-tagbegutachtungen/
– Artikel zur Tagrecherche
– allgemeine Interpretationshinweise

und dort

https://www.pontipix.de/postzeitpunkte-bei-instagram/
– Grobskizzierung eines Auswertungsalgorithmus

beschrieben.

Fragen, Anregungen, Bemerkungen oder Anfragen? Gern per Kommentar, eMail oder Telefon.

Engagement-Gruppen für Instagram: Ein erstes Zwischenfazit

Vor einigen Tagen berichtete ich hier über das Hochfahren diverser Gruppenexperimente für die Reichweitenerhöhung von Instagram-Accounts und nun wird es Zeit für eine erste Bilanz.
Wie bereits angedeutet, hält sich der Arbeitsaufwand (Arbeit in und mit den Gruppen) stark in Grenzen: Ich schätze diesen auf ca. 30 Minuten pro Tag. Die Sichtung des Accounts ergab nun folgende Beobachtungen:

-> Starker Zulauf von Interaktionen aus Accounts mit folgenden Metriken:
(a) zwischen 10k und 280k Follower zu zwischen 1000 und 8000 Abos
(b) Interaktionen auf den zulaufenden Accounts bewegen sich im „gesunden“ Rahmen (also: ~600 bis z.T. ~2500, vmtl. auch in Teilen über die Gruppen organisiert)
(c) Followersprung des Testaccounts von ca. 7.000 auf ca. 9.000 Follower
(d) Sofortpositionierung von frischen Medien auf „Aktuelle“ und „Beliebteste“
(e) Enorme Reichweitensteigerung des Accounts (~4.000 auf ~80.000, je Woche)
(f) stärkeres Aufkommen von natürlichen Kommentaren
(g) Etablierung von Kontakten (KEINE Influencermarketingkooperationen!)
(h) starke Reputationsabfärbung, wenn der Account eine Empfehlung auf andere Accounts „ausspricht“
(i) Organische Interaktionen innerhalb der gruppen ohne eigenes Zutun

Mir fehlt im Moment die Zeit, den Account und den Gegenprobe-Account mit den dokumentierten API-Methoden final zu verifizieren. Agenturintern werden wir diese Strategieform diskutieren, um sie eventuell im Tagesgeschäft anzuwenden. Ich sehe schlichtweg keine unkalkulierbaren Risiken, sofern der berühmte Marketingmix passt, die Inhalte wertvoll sind & die Botschaften des Accounts samt der einhergehenden Firmenphilosophien stimmig sind.

Wie kann ich Trafficvolumina von völlig fremden Projekten analysieren? (Bit.ly-Variante)

Bei einem dieser szenetypischen Verkaufsvorträge aus dem Bereich „Influencer-Marketing“/“Social-Media-Marketing“ tauchte die Frage der Überprüfbarkeit(en) diverser Werthaltigkeitsprognosen auf. Während meiner Nachfragen und Gesprächsangebote wurde signalisiert, dass die Abgabe solcher Prognosen schwer sei und die Prognosen eher auf subjektiven Begriffen wie „zwischenmenschliche Kontakte zum Influencer“ und „Erfahrungen“ beruhen. Nun gebe ich mich mit Subjektivitäten nur ungern zufrieden und mache mich selbst auf die Suche nach Antworten.

Eine bei uns etablierte Prüfvariante basiert auf dem URL-Shortener „Bit.ly“ und dessen Analysevarianten, die offensichtlich vielen Dienstleister_innen / Analysebetreibenden gar nicht so bekannt sind.

Kurzer Zwischenabsatz: Was ist eigentlich ein URL-Shortener? Wikipedia schreibt dazu:

„Unter einem Kurz-URL-Dienst, engl. URL Shortener, versteht man einen Dienst, der für beliebige URLs existierender Webseiten eine zweite, alternative URL zur Verfügung stellt. Diese Alias-URL führt über eine HTTP-Weiterleitung zum Aufruf der ursprünglichen Webseite. Der auch short URL, URL alias oder Kurzlink genannte Alias besteht meist aus wenigen (ASCII-)Buchstaben oder Zahlen. Dies dient dazu, für unhandliche, große sowie problematische Sonderzeichen enthaltende URLs, kurze und unproblematische Aliase (besser zu merken, schneller einzugeben, …) bereitzustellen. Solche URLs finden sich vor allem bei Websites, die mit Datenbankvariablen operieren. Weit verbreitet ist die Nutzung von Kurz-URLs auch in Mikroblogging-Diensten und Status-Meldungen in sozialen Netzwerken, die beide nur eine begrenzte Anzahl von Zeichen pro Nachricht erlauben. Um die Weiterleitung von Kurzlinks anzuzeigen, ohne sie zu besuchen, können „Redirect Checker“ verwendet werden.“

(Quelle: https://de.wikipedia.org/wiki/Kurz-URL-Dienst)

Hier gibt es zwei Verfahren:

[Manuell]

Möchte man sich die Daten in einem schönen und logisch aufbereiteten Überblick anschauen, geht man so vor:
-> Schauen, ob ein Objekt mit einer Bit.ly-URL hinterlegt ist
-> Ergänzung der Bit.ly-URL mit einem „+“ und Übertrag in den Browser (Beispiel: https://bitly.com/2JJBUJC+)
Für erweiterte Daten (Ref, Land etc.) benötigt man einen Account auf Bit.ly, wo man nach Einloggen und Bestätigen an die gewünschten Informationen kommt.

[Technisch/Maschinell]

An der Stelle kommt der etwas kompliziertere Technikteil. Zur Erklärung: Nachfolgend zeige ich die interessanten Endpoints mit einer Durchnummerierung, welche wichtig für die Darstellung eines groben Algorithmuskonzeptes sein wird.

Um alle Funktionen nutzen zu können, benötigt die Anwenderin diesen Token. Den Code bekommt man, indem folgende Anleitung durchgeführt wird: „How do I find my OAuth access token?„. Nach der Tokenorganisation sollte man sich selbstverständlich mit den Abfragevolumina beschäftigen. Hier meine ich, dass 100 Abfragen je Minute ganz okay sind, jedoch definitiv nicht ausreichen, um bspw. gewaltige Systeme im Umfang von Zalando auch nur im Ansatz analysieren zu können. Das Problem löst man entspannt, indem man sich die gewünschte Menge an Accounts und Tokens besorgt. Die Tokens werden in einem solchen Fall in einer entsprechenden Liste gespeichert (Text, DB) und der Abfragealgorithmus „kann“ sich dort auch per Zufallsgenerator „bedienen“.

(1) [Basisfunktionen]
Ich nutze diese Endpoints gern für Gegenproben und allgemeine Recherchearbeiten.
https://api-ssl.bitly.com/v3/link/info?access_token=deintoken&link=bitlyurl
Die auslesbaren Informationen zeigen einen Fehlercode (bspw. Crawlingprobleme, „N/A“ usw.) und die Metriken „original_url“, „canonical_url“.

(2) [Auslesen der generierenden Accounts, „Encoders“]
https://api-ssl.bitly.com/v3/link/encoders?access_token=deintoken&link=bitlyurl
Die auslesbaren Informationen zeigen die Accounts, welche die analysierte URL bearbeitet/eingestellt hatten.

(3) [Auslesen der Querverweise inkl. Traffic]
Habe ich nun eine eindeutig identifizierbare URL vorliegen, interessiere ich mich selbstverständlich für die Beantwortung folgender Fragen:
(a) Wo befindet sich die aktive URL?
(b) Wieviel Traffic generiert die aktive URL über DEN identifizierten Linkspender?

Diese Informationen lassen sich über den folgenden „Endpoint“ Abrufen:
https://api-ssl.bitly.com/v3/link/referrers?access_token=deintoken&link=bitlyurl

Datenstruktur:
data->referrers[nr.]->referrer // -> Linkplatz
data->referrers[nr.]->click // -> Click über den Linkplatz

Eine alternative Variante ist über das Auslesen der verweisenden Domain machbar und logisch, sofern man sich nicht für den Deeplink innerhalb eines Projektes/einer Domain interessiert. Ich habe diesen Endpoint nie angebunden, weil primär die Unterseite der verweisenden Domain spannend ist
https://api-ssl.bitly.com/v3/link/referring_domains?access_token=deintoken&link=bitlyurl

(4)[Clickstatistiken, allgem.]
https://api-ssl.bitly.com/v3/link/clicks?access_token=deintoken&link=bitlyurl
Dieser Endpoint wirft nur die Clickanzahl zurück, die über den Link kommt.

(5)[Clickstatistiken, nach Ländern.]
https://api-ssl.bitly.com/v3/link/countries?access_token=deintoken&link=bitlyurl
Dieser Endpoint wirft nur die Clickanzahl zzgl. der Länder der Clickenden zurück. Hierbei handelt es sich um die Ländercodes. Diese müssten natürlich bei einer Softwareumsetzung in leicht verständliche Zeichenketten + Flaggen etc. umgewandelt werden.

Ein mögliches Umsetzungskonzept sieht so aus:
[1] Token besorgen
[2] Sitemap der Analyseprojekte besorgen UND zusammengefasste URLs extrahieren
[2.1] extrahierte URLs in geeignete Liste/Datenbank speichern
[2.2] Sitemapdownload/URLextract in eine Prozedure fassen
[3] Scraper
[3.1] Lade URL-Liste
[3.2]
for lfnr=0 to ende(URL_Liste) do
begin
//-> extrahiere Querverweise zzgl. Clicks
httpget+extract(3)
//-> extrahiere Clicks nach Ländern
httpget+extract(5)
end

Ich besprach u.a. dieses Konzept und eine konkrete Umsetzung 2015 beim Affiliatestammtisch (Leipzig) und ich bin mit der „hauseigenen“ Lösung soweit zufrieden.

Einige Performancedaten sind:

URL-Liste mit 100-5000 Einträgen
– Datenerfassungsdauer: ca. 1 Stunde

URL-Liste mit 5000-10.000 Einträgen
– Datenerfassungsdauer: ca. 1-2 Stunden

Die W&L-GbR-Lösung basiert derzeit (noch) auf die Datenspeicherung via CSV. Das liegt u.a. daran, dass ich erst sehr spät den Wert von „richtigen“ Datenbanken wie SQL & SQLite erkannt habe. Wie auch immer: Die Erfassung der o.g. Daten verlangt natürlich auch die Etablierung diverser Auswertungsansätze, weil man nicht aus purem „Selbstzweck“ diese Daten erfasst. Ich sehe folgende Szenarien, bei der die Bit.ly-Variante zum Einsatz kommen kann:

[Konkurrenzscreening]

Die typische „SEO-Denke“ geht (leider) immer davon aus, dass das Sichten via Datendienstleister (XOVI, Sistrix) und Backlinks/Backlinkstrukturen für die Marktbegutachtungsaktivitäten ausreicht. Das stimmt leider so nicht, denn diese Ansätze liefern keinerlei transparente Einblicke in mögliche Traffic- und Traffic-via-Zielgruppeninformationen. Hier rate ich schon seit 2011 zu einer projektbezogenen Einbindung einer „Nutzwertanalyse“. Die Analyse via Bit.ly-API kann bei dauerhaftem Monitoren komplexer Sitemaps eben genau aussagen, wann welche Trafficqualität über welche Social Media/Backlinks zum beobachteten Objekt kam und kommt.

[Influencermarketingbeurteilungen]
Bei dieser Variante kann man auf das umfangreiche Scrapen diverser Sitemaps verzichten und manuell die typischen Promotionslinks in den Scraper eintragen.
Ist die Erfassungsprozedure entsprechend konfiguriert, lassen sich VOR der Inanspruchname einer Influencermarketingagentur/Influenceraccounts Prognosen zu:
(a) Länderspezifische Trafficströme
(b) Clickstatistik/Zeiteinheit (Tag, Woche etc.)
(c) Weiterempfehlung des [Werbe]links, gezeigt durch „Streueffekt“
anstellen. Ich empfehle analog zu den allgemeinen Verkaufsargumenten der Sparte „Influencermarketing“ genau diese Gegenprüfvariante.

[Backlinkrecherchen und Backlinkaquise]

Diesen Ansatz hatte ich – zusammen mit Anne – bereits während den Arbeiten an den Projekten der Empora Fashion Group aufgestellt. Wenn man also bei schwierigen Projektlagen (damals: Mode, viele Produkte etc.) sich bewusst die Konkurrenz via Bit.ly-Analysen anschaut, lassen sich eben über den Ref-Endpoint plötzlich Linkspender identifizieren, welche durch die Zusammenführung mit den Clickzahlen Trafficvolumina versprechen können. Verlinkungen machen nur dann Sinn, wenn eben der gesetzte Link nicht primär im Sinne der „SEO-Denke“ wirkt, sondern Zielgruppen anspricht und via Gegenprobe auf Konkurrenzprojekte auch saubere Clickgestaltungen (Historie, Land etc.) quasi „verspricht“.

Weitere Gedanken, Ideen oder Austauschwunsch? Gerne via Kommentar, e-Mail oder Anfragen.

Wie kann ich interagierende Accounts mit Hilfe eines Instagrambugs auslesen?

In einer der letzten Vertriebs- und Verkaufsveranstaltung (Subthema: Erkennen und Bewerten von Accounts, Interaktionen usw.) wurde ich inspiriert, eine geeignete technische Lösung zu recherchieren, welche die Titelfrage beantwortet. Der Grund ist einfach: Durch die Beschneidung der Instagram-API ist die technische Erfassung o.g. Metriken schlichtweg nicht mehr möglich. Einen Ausweg bietet folgende Vorgehensweise:

[AbfrageURL]
https://www.instagram.com/[Accountname]/?__a=1

[Codekonzept]
lade_account_liste(datei,DB)
//-> Erfassen der Likenden
for l=0 to liste_ende do
begin
httpget(https://www.instagram.com/liste[l]/?__a=1
(1) extract(graphql->user->edge_owner_to_timeline_media->edges->[NrX]->node[X]->edge_media_preview_like->count)
(2) extract(graphql->user->edge_owner_to_timeline_media->edges->[NrX]->node[X]->edge_media_preview_like->edges->[NrY]->node[Y]->id)
(3) extract(graphql->user->edge_owner_to_timeline_media->edges->[NrX]->node[X]->edge_media_preview_like->edges->[NrY]->node[Y]->profile_pic_url)
(4) extract(graphql->user->edge_owner_to_timeline_media->edges->[NrX]->node[X]->edge_media_preview_like->edges->[NrY]->node[Y]->username)
end

[Erklärung]
„httpget“ = Ergebnis der Abfrage wird herunter geladen
„extract“ = Das Ergebnis der Abfrage wird nach der Variable durchsucht und die Inhalte werden im gewählten Format gespeichert.
„lade_account_liste“ = Die zu begutachtenden Accounts werden in Listenform (Textdatei, SQLTab etc.) in die Prozedur eingespielt.

Die Manuelle Sichtung der Ergebnisse kann man mit https://jsoneditoronline.org/ erledigen. Hier einfach die Abfrageurl https://www.instagram.com/[Accountname]/?__a=1 mit dem Accountnamen im Browser eintragen und das Resultat in den jsoneditor kopieren.

[Erklärung: Datensätze]
(1) Auslesen der aktuellen Likes als Zahl
(2) Auslesen des likenden Accounts in Form der InstagramID
(3) Auslesen der Profilbildurl des likenden Accounts
(4) Auslesen des likenden Accountnamens

[Fazit]
Ich bezeichne den begutachteten Erhebungsweg bewusst als „Bug“, da Instagram offziell das Erfassen dieser Datensätze im letzten API-Entwicklungsturnus geschlossen hatte. Nun mag man davon halten, was man möchte und ich sehe u.a. hier für mich den Beleg dafür, dass die geschlossenen Endpoints selbstverständlich nach wie vor aktiv sind. Vielleicht beschäftig sich Instagram mit der Bug-Bereinigung, vielleicht bleibt aber auch diese Abfragevariante „ewig“ offen. Die Sichtung des JSON-Codes zeigte mir, dass „leider“ nur eine begrenzte Anzahl an interagierenden Accounts auslesbar ist, aber auch dieses Problem lässt sich elegant über eine geeignete Timer-Variante lösen. Diese aktiviert im Prinzip im Sekundentakt den Scrapingvorgang und holt sich die gewünschten Datensätze ab, speichert und verarbeitet die Eintragungen. Hochfaszinierend ist in diesem Gedankenspiel die Metrik „Username“: Die Inhalte aus der Variable lassen sich in geeignete Listen übertragen und in das o.g. Grobkonzept einspielen. Über diesen Weg erfährt der wissensdurstige Dataminer alles aus dem Medienstream des Influenceraccounts / Accounts UND den Accounts, welche eben mit dem Hauptanalyseobjekt interagieren.

Hier setzt bei mir das kritische und hinterfragende Nachdenken an:
Welchen Wert haben umfangreiche Datenschutzerklärungen, wenn bspw. Social Media problemlos recherchierbare Lücken für die Datenerhebungen offen lassen?
Welchen Wert haben offzielle Ankündigungen und Umsetzungen zu API-Änderungen, gerade aus dem FB-Haus in Verbindung mit Cambridge Analytica?
Welchen Wert haben Äußerungen aus dem Hause Facebook bzgl. der Kontrolle der Datenzugriffe von Externen, wenn (a) dieser „Bug“ identifizierbar und (b) nutzbar ist?

Ich muss gestehen, dass ich einen gewaltigen Nutzen in diesen Datenerhebungsvarianten sehe. Natürlich habe ich über die Nutzbarmachung im Interesse der Wobus & Lehmann GbR nachgedacht, bin aber letztendlich davon abgekommen, weil mir derzeit kein sauberes Anonymisierungsverfahren bekannt ist. Ich finde es schade, dass die Influencer-Marketing-Agenturszene schweigt und keinerlei Analysen, Statements oder generell Worte zu dieser Datenproblematik veröffentlicht.

Influencermarketing, Instagram und das (lästige) Problem der suboptimalen Followerzahlen?

Ich glaube, dass die Leser_innen des Arbeitsblogs mit extrem hoher Wahrscheinlichkeit meine enorme Skepsis gegenüber der „offziellen“ Strategie des Influencermarketings verstanden haben und ich denke, dass ich etwas mehr Erklärung schuldig bin. Es ist eigentlich einfach und bei Sichtung der Kritiken (also … nicht nur meine) tauchen immer wieder Argumente rund um die einkaufbaren Follower auf und hier vertrete ich nun einmal den Ansatz, dass man die Strategie „Influencermarketing“ eben wegen der massiven Kritiken nicht auf Basis der Subjektivitäten „Erfahrung“ oder „Zwischenmenschlichkeit“ beurteilen muss, sondern man MUSS diesen Ansatz eben auch mit Hintergrundwissen zu den Einflussfaktoren / „alternativen“ Strategien jedes Mal neu bewerten (also: je Szenarium, je Projekt, je Kund_in usw.).

Nun ist eine spannende Problemquelle beim Instagrambasierten Influencermarketing eben die Frage, ob die einkaufbare Reichweite (hier: Follower) auch tatsächlich „real“ ist. Ich wundere mich immer wieder, wie selten eben diese unfassbar spannende Problematik so selten und so unbefriedigend diskutiert wird, obwohl gefühlt einige 1000 Anbieter mit entsprechenden Kaufangeboten auf dem Markt völlig problemlos recherchierbar sind. Es gehört für mich zum Tagesgeschäft dazu, die Konkurrenz zu beobachten, welche eben diese spezielle Marketingform anbietet und natürlich entdecke ich da viele Blogbeiträge und Erfahrungsberichte zu wahnsinnig emotional ausgeschmückten Worstcase-Szenarien und ich mache mir da immer einen Spaß und frage nach konkreten Erfahrungen. Sprich: man kann in der hochintellektuellen Sparte „Marketing“ ja schlichtweg nur zu Dingen Formulierungen tätigen, von denen man schlichtweg auch etwas versteht und hierzu gehört auch das Durchspielen von Experimenten und NICHT (!) das kritiklose Wiederholen von nicht nachprüfbaren Experimenten der Werbeszene. Man sollte schon im Interesse der Sichtung dieser einkaufbaren Follower sich um das Erwirtschaften eigener (!) Erfahrungen bemühen.

Eines davon erledigte ich vor geraumer Zeit mit einem extra aufgesetzten Instagramaccount und hier ging ich so vor:
[1] Recherche bei Google
https://www.google.de/search?q=buy+instagram+followers+cheap
(„cheap“ deswegen, weil ich kein Interesse am Verspielen von Geld hatte.)
Im Rahmen des ersten Grobchecks entdeckte ich, dass die vielen Anbieter sich „beweisen“ wollen und man bietet potentiellen Kund_innen eben auch Testpakete – natürlich – kostenfrei an.

[2] Recherche bei Google, nach kostenlosen Followertestpaketen
https://www.google.de/search?q=buy+instagram+followers+free+trial
https://www.google.de/search?q=10+free+instagram+followers+trial
https://www.google.de/search?q=50+free+instagram+followers+trial
https://www.google.de/search?q=20+free+instagram+likes

Ich sehe nun einen bunten und wunderschön ausgeschmückten Laden mit sehr vielen interessanten Angeboten und weil mir hier der moralische Zeigefinger (oder besser: der basislose moralische Zeigefinger) keine Freude bereitet, experimentierte ich mit den folgenden Angeboten ein wenig herum:

[Pro Forma – Hinweis]
Ich übernehme keine Verantwortung, wenn die Benutzung der nachfolgenden Angebote nicht die gewünschten Effekte produziert.

http://www.buzzdayz.com/free-instagram-follower-trial/
https://www.quickfansandlikes.com/
http://www.gramozo.com/free-trial/
https://www.getmassfollowers.co.uk/
http://buyhugefollowers.co.uk/
http://www.thebestfollowers.co.uk/
https://instalegendary.com/
https://soclikes.com/
https://getmoreinsta.com/index.php?page=addfreefollowers

Eine besonders interessanter Anbieter ist:
https://plusmein.com/index.php?page=addfreefollowers
Dieser erlaubt das Einbuchen von jeweils 20 Follower je 24 Stunden und damit kann der Experimentalaccount über einen schönen Zeitraum hinweg „wachsen“. Eine „Runde“ des Testaccounts durch diese Liste „erntete“ zwischen 250 und 300 relativ stabile Follower.

Ein paar Worte zur Bewertung der zusammengeschnorrten Follower.
Ich habe hier eher „gemischte“ Gefühle zur Qualität: ich sehe klischeehafte Fakeaccounts (also: junge Frau, extrem viele Abos, wenig Follows, keine|wenig Medien) und ich sehe natürlich auch sehr natürlich wirkende Accounts und das lässt mich fragen, woher diese Anbieter denn die vermittelbaren Accounts überhaupt nehmen und ein wenig Recherche ergab, dass die meisten Quellen sich auf das Interaktionen – gegen Coin – System beziehen. Interessant ist der Anbieter „plusmein.com“, denn hier entdeckte ich in den ersten Testläufen durchaus auch neue Follower, deren Daten und Medien dem typischen Bild des einkaufbaren Influencers entsprechen.
Ganz ehrlich: ich habe keine Ahnung, wie dieser Anbieter arbeitet und woher die Accounts stammen und im Moment theoretisiere ich in Richtung „Engagement Gruppe“, wobei das natürlich nicht final verifizierbar sein dürfte. Obwohl die Qualitäten wechselhafter Natur sein können, sehe ich auch, dass der Schwundfaktor im – sagen wir mal – „natürlichen“ Rahmen bleibt, wobei ich auch sehe, dass die Interaktionen da, wenn auch äußerst gering sind.
Komme ich nun zur moralischen Einordnung und hier vertrete ich – wie erwähnt – eine eher pragmatische Sichtweise, gerade deswegen, weil die Einordnung der Followerlisten in Fake / Non-Fake sehr schwierig ist. Natürlich existieren sehr viele Indikatoren für eben „schwierige“ Ansätze innerhalb einer Accountstruktur und diese sind Ungleichgewichte in den Zahlen, komische Kommentare, aber mal ganz ehrlich: es gibt durchaus Menschen, die wie die Irren unfassbar vielen anderen Menschen folgen, dann gibt es Accounts, die ohne Verantwortung oder „Zutun“ eben Ziel von Spamcommentattacken werden. Mir passiert sowas ständig, den Kund_innen ebenfalls und ich sehe da immer wieder automatisch generierte Comments aus eben auch der Feder deutscher Accounts aus der Berater_innenszene, der Socialmediaberater_innen und selbstverständlich auch völlig normale Firmen. Das hängt auch damit zusammen, dass viele eben diese Werkzeuge wie „Ninjagram“ verwenden und die Hoffnung hegen, dass abgesetzte Kommentare Aufmerksamkeit erzeugen.
Also: „Fakes“ sind definitiv nicht sauber und extrem eindeutig identifizierbar und das gilt auch für den Kauf oder das oben beschriebene Zusammenschnorren. Also quält mich eine Frage: Wieso existieren stark moralisierende Argumente rund um ein nicht nachprüfbares Thema? Ich erkenne keinerlei Logik in der eigenen Geschäfts- und Dienstleistungsaufwertung, wenn nicht überprüfbare Followerlisten als pauschal „sauber“ deklariert werden und das via Behauptung schlichtweg „nur“ in den Raum gestellt wird.

Ob nun diese Positionierungsvariante edel, gut, moralisch einwandfrei oder sogar „praktikabel“ ist, muss und soll jeder Mensch für sich selbst entscheiden. Mir steht das Erheben des moralischen Zeigefingers nicht zu, würde aber das eventuelle Einsatzszenarium immer wieder neu bewerten und während eines eventuellen Schnorrens / Einkaufens unbedingt auf folgende Dinge achten:

(1) Absolut saubere Contentqualität.
(2) Klare, deutliche und zielgruppengenaue Kommunikation.
(3) Natürliche Marketingmaßnahmen

Fragen, Gedanken, Hinweise? Gern über Kommentar oder via Telefonat. Ich suche übrigens tatsächlich händeringend nach einem sauberen Followerlistenauswertungsalgorithmus.

Wie kann ich Follower- und Abozahlen von beliebigen (offenen!) Accounts aus Instagram monitoren?

In einer der letzten Vertriebs- und Verkaufsveranstaltungen empfand ich Inspiration zur Recherche einer geeignenen technischen Lösung, welche die Titelfrage beantwortet. Der Grund ist einfach: durch die Beschneidung der Instagram-API ist die technische Erfassung o.g. Metriken schlichtweg nicht mehr möglich. Einen Ausweg bietet folgende Vorgehensweise:

[AbfrageURL]
https://www.instagram.com/[Accountname]/?__a=1

[Codekonzept]
lade_account_liste(datei,DB)
for l=0 to liste_ende do
begin
httpget(https://www.instagram.com/liste[l]/?__a=1
extract(graphql->user->edge_followed_by->count)
extract(graphql->user->edge_follow->count)
end

[Erklärung]
„httpget“ = Ergebnis der Abfrage wird herunter geladen
„extract“ = Das Ergebnis der Abfrage wird nach der Variable durchsucht und die Inhalte werden im gewählten Format gespeichert.
„lade_account_liste“ = Die, zu begutachtenden, Accounts werden in Listenform (Textdatei, SQLTab etc.) in die Prozedur eingespielt.

Die Umsetzung der technischen Lösung ist eigentlich relativ simpel via PHP, Delphi oder anderen Szenarien machbar. Ich würde, sofern ich Interesse hätte, hier einen zeitlichen Aufwand von maximal 1-2 Stunden inkl. Testen und Fehleranalyse einkalkulieren. Jedoch muss ich das Monitoren dieser Zahlen intern mit Anne ausdiskutieren, denn eigentlich berühren eventuelle Erfassungen natürlich auch aktuelle Datenschutzdiskussionen, denn: im Ergebnis der o.g. Abfrage befinden sich sämtliche Accountangaben aus dem Profil, die Historie der letzten Postings und auch (!) Auszüge der Likenden (also: ID, Username) auf den letzten Medien des analysierten Accounts. Hier stellt sich für mich auch die Frage, wie gut / praktikabel etc. der Einsatz der üblichen Instagramaccountbeobachtungswerkzeuge denn ist. Vielleicht werde ich das Thema etwas „entspannter“ betrachten, wenn ich eine saubere Codierungsfunktion gefunden oder erfunden habe.

Influencermarketing, Influenceraccounts und das (lästige) “Problem” der Youtubevideopromotion

Bei der neulich besuchten Akquise- und Vertriebsveranstaltung wurde auch das Medium Youtube im Sinne der Influencermarketingstrategien vorgestellt. Als Teaser zeigte man dem Publikum viele schöne Bewegtbilder mit spannend wirkenden Interaktionszahlen (Daumen hoch, Kommentare usw.). Im Rahmen der ersten Mediensichtung entdeckte ich da nicht erklärbare, jedoch schöne, Zahlen und da verlangte ich die Verifikation, weil aus meiner Perspektive eben im Influencermarketing das Zustandekommen von Interaktionen, Reichweiten und sonstigen Effekte so erklärt werden muss, dass externe Beobachter_innen hier eben den verkauften Mehrwert erkennen können. Leider wurde auch hier auf „Interna“ verwiesen und das bedeutet, dass eben NUR der Accountinhaber über die bekannten plattforminternen Analyseprozeduren verfügt.
Das hat zur Folge:

(1) Keinerlei Transparenz zu den verkauften Reichweitenzahlen.
(2) Keinerlei Transparenz oder sogar Logik zu den verkauften Reichweitenprognosen.
(3) Keinerlei Gegenprobeansätze zu den verkauften Zahlen und Prognosen.
(4) Fokussierung auf subjektive Elemente, wie „Erfahrung“ oder „Erfahrung mit den Influencern“.

Der Punkt 04 erscheint mir gerade im Zusammenspiel der Onlinemarketingstrategien als extrem wichtig und ich verstehe nicht das permanente Hinweisen auf Erfahrung. Vor einigen Tagen verfasste ich auch auf diesem Blog einen Artikel zu Autoritäten und hier führe ich den Gedanken weiter: bei der Verkaufsveranstaltung wurde dieses videobasierte Influencermarketing von einer anerkannten Autorität beworben und eine Autorität kann / darf selbstverständlich als Autorität positioniert werden, wenn eben auch die Verkaufsargumentation rund um „Erfahrung“ absolut klar, transparent und auch überprüfbar bewiesen wird. Dies ist nicht geschehen und offensichtlich auch nicht Ziel dieser – als Vortrag getarnten – Verkaufsveranstaltungen und die Beobachtung bewegte mich, hier einmal die Werkzeuge aufzulisten, welche ich im Rahmen dieser oder jener obligatorischen Rechercheaktivitäten gefunden und getestet hatte.

[Hinweis]
Pro Forma: Die vorgestellten Werkzeuge wurden im Rahmen von obligatorischen Recherchearbeiten und Experimenten eingesetzt und bewertet. Ich übernehme keine Verantwortung für das Tun der Leser_innen und ich rate nicht zu einem wahllosen Einsatz.

(1) http://addmefast.com/
Das System erlaubt das Anlegen von kostenlosen Accounts und basiert auf einer virtuellen Währung (Coins). Diese Coins lassen sich über zwei Optionen „auffüllen“: (a) Echtes Geld ausgeben und (b) Interaktionen. Interessant ist die Option (b) und Diese lässt sich völlig simpel realisieren und zwar so: man besorgt sich bspw. irgendeinen „Fake“-Account von Google, loggt sich mit den entsprechenden Daten auf Google ein und lässt sich im System Videos zeigen. Jedes Mal, wenn Fake-Account da ein Video mit „Daumen hoch“ belohnt, bekommt man eine frei definierte Summe „Coins“ auf das Konto gut geschrieben. Natürlich lässt sich diese Summe weiter erhöhen, indem man das Spiel mit den anderen Socials betreibt und addmefast bietet da an: Pinterest, Instagram, Twitter und Twitter. Interessant ist auch, dass das Werkzeug starke Interaktionsvolumina mit „Bonus“-Coins belohnt (500). Meine Tests beanspruchten ungefähr 1h Interaktionszeit für das Erwirtschaften von 3000 Coins. Diese Summe „investierte“ ich in „Daumen hoch“ bei irgendeinem meiner Testvideos und ich bekam über diesen Weg weit über 1000 Likes.

(2) https://www.followlike.net/
Dieses System hat genau dieselben Funktionsweisen, wie addmefast. Es basiert auch auf den Tausch von Interaktionen zu virtuelle Währung und ich entdeckte hier sogar einen spannenden Sonderfall: man kann hier sogar Coins erwirtschaften, wenn man für die aktiven Accounts Backlinks setzt, Webseiten besucht und diverse SEO-bezogene Metriken hierüber beeinflusst.

Zwischenfazit:
Beide Systeme verbrauchen relativ wenig Zeit und ich kann mir durchaus vorstellen, dass die Interaktionen->Coin-Prozedur relativ problemlos mit der Hilfskraft / dem Trainee abdeckbar ist. Ich schätze, dass die Plattformen zwischen 1-2h / Tag Zeit in Anspruch nehmen und dass dieses Volumen genug Puffer für die Dauerpromo von bspw. YT-Videos schaffen kann, da die Publishfrequenzen von diesen Medien nicht so hoch, wie bei bspw. bildlastigen Medien, sein dürfte. Während der Experimente habe ich Videos, Tweets, Bilder und auch Facebookbotschaften gesehen, die aus folgenden Quellen kommen:

(a) deutsche Firmen
(b) deutsche Influencer
– sehr professionelle Bildsprachen
– sehr professionelle Auftritte
(c) 50% Gamingszene

Persönlich pflege ich eine pragmatische Sichtweise auf diese Plattformen: diese erfüllen durchaus einen Zweck, werden offensichtlich benutzt und besprochen. Ich kann auch nichts erkennen, was hier eine moralisierende Bewertung verdient, denn im Umfeld der Socialmedia hängt das Ranking und die Sichtbarkeit der Accounts eben auch mit der schnellen und effektiven Organisation der gewünschten Interaktionen zusammen. Dies lässt sich mit Gegencheck auf die durchaus vorhandenen Beobachtungen, Dokus und Erfahrungsberichte zu den Algorithmen der Socialmedia durchaus gegenprüfen. Weiter noch: die Natur der Socialmedia und auch die ständigen Arbeiten an den Algorithmen zwingt eigentlich die Accounts zum „Nachhelfen“ und hier wundere ich mich immer wieder darüber, dass unsere Branche und unsere Marktteilnehmer_innen mit starken, emotionalen und moralisierenden Worten (natürlich gepaart mit „Erfahrung“) aktiv Gegenthesen kommunizieren und auch extrem klar aussagen, dass man sich von diesen Alternativwerbestrategien fernzuhalten hat. Warum eigentlich? Ich sehe keinerlei Logik darin, Strategien regelrecht und mit viel Emotion zu verteufeln, obwohl diese Strategien selbstverständlich von den vermittelbaren Influencern genutzt werden. Die Ansätze werden nicht nur benutzt, sondern auch vielfach in den Foren, in den Blogs und in den Gesprächen diskutiert und ausgewertet. Wenn allerdings die Vermittlerbranche das nicht kennt, nicht benutzt und auch nicht bewerten kann, frage ich mich, ob das Influencermarketing in der aktuellen Form und Angebotsbreite überhaupt den versprochenen wirtschaftlichen Mehrwert liefern kann. Nun pflege ich auch ein recht gutes und professionelles Verhältnis zu den Branchenvertreter_innen, die auch durchaus direkte Konkurrenten zur Wobus & Lehmann GbR sind. Ich diskutiere da viel über Alternativstrategien und erkläre auch, warum aus meiner / unserer Sicht die Sichtung, die Begutachtung und die Bewertung von diesen Ansätzen wichtig ist. Ich begründe das u.a. mit einer Art Vermittlerrolle, die wir hier einnehmen: in dem Moment, wo Projekt bei uns ausgelöst werden, sind wir in der Verantwortung der optimalen Strategiewahl inkl. der Prognosenabsicherung und da müssen in vielen Fällen auch Grauzonen mindestens analysiert werden. Ganz simpel gedacht: bei der Positionierungsarbeit an Instagramaccounts neigen wir dazu, aus Firmenaccounts eben Influenceraccounts zu generieren und hier muss die Agentur „Wobus & Lehmann GbR“ sämtliche Ansätze aus der professionell aufgestellten Influencerszene kennen, durchspielen und bewerten. Ich nenne das „Weiterbildung“, weil eben das Element „Weiterbildung“ prägend für die komplette Branche ist und selbstverständlich auch über die Honorare abgedeckt wird.

Nun sehe ich auch im Dienstleistungs- und Beratungsmarkt deutlich höhere Honorare und frage mich, warum dort folgende Argumente gegen diese „Weiterbildung“ ausformuliert werden:

(a) Ich habe keine Zeit für sowas.
(b) Ich verstehe das nicht.
(c) Ich habe keine Leute für sowas. (Klischeeargument aus größeren Agenturen …)
(d) Ich finde keine Leute für sowas. (Simple Google-Recherchen und „Lesen“ sind grundsätzliche Fähigkeiten, die per Allgemeinbildung abgesichert sein sollten.)
(e) Du repräsentierst eine Nische und machst unverständliches Nerd-Zeug.

Fragen? Ideen? Anfragen? Austausch gewünscht? Ich freue mich über Rückmeldungen via den üblichen Kanälen.

PS. Der nächste Artikel wird sich mit der Organisation von Followern beschäftigen.

Influencermarketing, Influenceraccounts und das (lästige) „Problem“ der LIKE-Zahlen

Vor einigen Tagen hatte ich das Vergnügen, Gast auf einer dieser Influencermarketingwerbeveranstaltungen sein zu dürfen. Hier wurden auch mir diverse und spannende Strategien zur Positionierung von Produkten, Dienstleistungen und auch virtuellen Existenzen in den Socialmedia vorgestellt. Ich rechnete selbstverständlich auch mit einer eindeutigen Ausrichtung auf eben das (!) Trendthema INFLUENCERMARKETING.
Soviel dazu: der Vortrag (oder besser: die Akquiseveranstaltung) lieferte viele Argumente in Richtung der simplen Skalierbarkeit von eben der Zusammenarbeit mit Influencern und da tauchten unfassbar viele Fragen in meinem Hirn auf, welche ich auch selbstverständlich vor Ort ausformulierte.
Beispiele sind:

(a) Wer garantiert mir, dass die Reichweitenzahlen und die erreichbaren Zielgruppen überhaupt „natürlich“ / „natürlich gewachsen“ sind?
(b) Welche Verifikationsmöglichkeiten existieren denn in der Begutachtung dieser absolut wichtigen Zahlen?
(c) Wie lassen sich Prognosen zur wirtschaftlichen Werthaltigkeit von Influencermarketing überhaupt anstellen?

Gerade der erste Punkt ist – zumindest aus meiner Sichtweise heraus – eines der wichtigsten Aspekte, die man schlichtweg in der Zusammenarbeit mit diesen Influencern zu beachten hat. Hierzu fand ich in den letzten Monaten und Jahren mehrfach Gelegenheit zur Durchspielung von „Pushansätzen“, die ich in diesem Beitrag einmal kurz beschreiben möchte. Vorab: sämtliche Punkte entstanden aus einem gigantischen Schwall an Inspirationen, den ich bekam, als ich einmal dieses „Influencermarketing“ inkl. entsprechender Accounts durchanalysierte und die Ansätze wurden mehrfach bei Testszenarien und klassischen Experimenten durchgespielt, wobei jeder einzelne Account stabil ist, nachwievor existiert und sich erstaunlich hoher Beliebtheitswerte erfreut.

[Erklärung]
Die nachfolgenden Punkte zeigen verwendete Ansätze und Werkzeuge und laden keinesfalls dazu ein, das ganze im eigenem Umfeld selbst durchzuspielen. Sprich: hier übernimmt keiner Verantwortung dafür, wenn die Leser_innen sich mit den vorgestellten Sachen die eigenen Accounts „verbrennen“ und / oder nicht die gewünschten Wachstumsraten erwirtschaften.

(1) Organisation von Likes – Organisch.

Mir fallen unfassbar viele panikmachende Blogbeiträge und Diskussionsbeiträge und Forenbeiträge ein, wo mit starken Worten vor dem Tool „Gramblr“ gewarnt wird und ich forschte hier 2016 einmal nach und hinterfragte die Erkenntnisse, denn: zu Negativmeinungen gehören eben auch Belege, oder quasi Beweise, welche eben auch die Gefährlichkeit von „Gramblr“ nachvollziehbar machen können. Teilweise fand ich da ausweichende Argumente + viel Emotion und teilweise wurde mir gestanden, dass man eben Gramblr noch nie gesehen und verwendet hat. DAS animierte mich, mir das Gramblr einmal anzuschauen und dieses Werkzeug befindet sich jetzt im täglichem Einsatz. Also: ich lade damit Fotos hoch und selbstverständlich werden dort bei bestimmten Szenarien die Coins in Likes verwandelt. Hier noch einmal: weder das Hochladen von Fotos, noch die gelegendlichen „Pushs“ in Form von Coins->Likes haben in den letzten Jahren bis heute irgendein negatives Erlebnis hier produziert.
Nutzt man Gramblr, sollte man sich sehr genau anschauen, welche Likes denn von welchen Accounts da eintrudeln (naja … sofern man die entsprechende Funktion nutzt) und hier fallen mir sehr viele dieser „Microinfluencer“ auf. Hierunter fällt auch ein – mehr oder weniger – bekannter Komiker aus dem Sender Tele5. Ach … wie effektiv ist das Ganze: nunja, je nach investierten Coins und (Fake)likewellen, lassen sich in mittelschweren Nischenhashtags Rankings realisieren und man bekommt über die (halb)automatischen Likes natürlich auch Zugriff auf die Reichweiten DER Likenden.
Ich rede recht häufig über dieses Werkzeug im Kreise der Influencermarketingbetreibenden und stelle immer wieder fest, dass trotz nicht vorhandenem Hintergrundwissen zu dem System „Gramblr“ man zwar eine Meinung dazu hat (Warum eigentlich?) und sich nicht vorstellen kann, dass dieses Tool nicht von Influencern benutzt wird. Seltsam, oder?

Eine weitere Likeorganisation kann über die Engagement Gruppen laufen. Ich bevorzuge sogar diesen Weg, weil sich dort – nach ersten Sichtungen – extrem professionell aufgestellte Influencer tummeln und hierüber ein Likemodus organisiert werden kann, welcher „sanft“ oder „natürlich“ ausschaut. (Vergleich: Gramblr produziert Likewellen)
Der Aufwand ist – im Vergleich zur Gramblrvariante – geradezu „niedlich“ (Siehe hierzu: Engagement Gruppen

Achja, dann existieren noch weitere automatische Likeorganisationsvarianten und diese drehen sich auch um den beliebten Bot „Ninjagram„. Die Lizenzkosten bewegen sich in einem niedlich geringem Rahmen und das Programm deckt alles ab, was das kleine Automatisiererherz sich so vorstellt. Auf die konkreten Funktionen und die Potentiale möchte ich an dieser Stelle nicht eingehen, da die Leser_innen mit hoher Wahrscheinlichkeit wissen werden, was ein automatische abgegebener Like bewirken KANN.

Weiterhin existiert in den Bereichen der Likeautomatisierungen auch ein spannender Service, der den faszinierenden Namen „addmefast“ trägt. Diese funktioniert auch auf Basis eines Coinsystem … man bekommt also eine virtuelle Währung gegen Aktivitäten gutgeschrieben und kann das „Geld“ in Likes, neue Fans, Daumen hoch u.v.m. reinvestieren. Erste Experimente zeigten mir da eine interessant hohe Dichte an Influencern.

(2) Organisation von Likes – Kauf.

Weil ich vom direkten Kauf dieser Likes nichts halte, beschränke ich meine Ausführung auf die Verlinkung zu entsprechenden Google-Anfragen:
https://www.google.com/search?q=buy+instagram+likes+cheap
https://www.google.com/search?q=buy+1000+instagram+likes+for+%241
https://www.google.com/search?q=likes+kaufen+instagram+paypal
usw. usw. usf. (Nur mal am Rande bemerkt: der Markt ist absolut gigantisch).

Zurück zur Socialmedia/Influencermarketingakquiseveranstaltung, welche als „Vortrag“ deklariert wurde:
Als Verifikation zu Fake / Non-Fake wurden mir zwei Optionen angeboten (Achtung: die oben dargestellten Pushorganisationsmöglichkeiten kannte man nicht und man möchte sich auch nicht damit beschäftigen): (a) Erfahrung und (b) alte Datensätze von Tools, welche vor den letzten Instagram-Änderungen noch funktionierten, wobei die Datensätze ausschliesslich Follow / Followerveränderungen zeigten.
Ich sehe nun folgende Probleme:
Erfahrungen und Erfahrungswerte sind rein subjektive Zustände, die keiner kritischen Gegenprüfung (erst recht nicht, wenn man die Automatismen nicht kennt …) standhalten dürfte und alte Datensätze sind schlichtweg unbrauchbar, weil diese eben _alt_ und wegen API-Änderungen schlichtweg für die Klient_innen des Influencermarketings nicht nachprüfbar sind. Ich frage mich auch, welche besondere Werthaltigkeit nun eine Strategie hat, die keinerlei saubere Monitoring der Kooperationsaccounts hat und in einer Welt aktiv ist, deren Schwerpunkte auch in der (halb)automatisierten Reichweitenproduktion liegen. Weiter noch: man darf niemals davon ausgehen, dass sämtliche einkaufbare Reichweiten auch wirklich sauber / moralisch organisiert sind und ich rate auch an dieser Stelle dazu, keinerlei Moralisierungen zu den o.g. Strategieauszug zu tätigen oder auch Dienstleister_innen mit Hang zur Moralisierung einzukaufen.

Komme ich nun zu meiner privaten Prüfliste bzgl. der Zusammenarbeit oder Gesprächen mit Influencermarketingdienstleister_innen / Influencermarketingagenturen in Form eines Fragenkataloges.

(1) Wie werden die Trafficprognosen via Influencermarketing berechnet und welche Datenquellen werden da benutzt?
(2) Wie werden die Kooperationspartnerschaften kontrolliert und welche Datenquellen werden für die Verifikationen der Reichweiten und Interaktionen benutzt?
(3) Welche konkreten Accounts hast Du selbst positioniert, wie sehen die Effekte aus und welche Erfahrungen hast Du mit den verschiedenen Strategien (organisch, nicht-organisch)?
(4) Welche Tools verwendest Du?
(5) Kennst Du die APIs der Socialmedia und wie nutzt Du Diese?
(6) Welche Accounts hast Du denn auch mit „bösen“ Strategien positioniert, oder beziehst Du Deine Warnungen nur auf Fremdberichte?

Wesentliche Punkte sind und bleiben die Datenquellen und die haben so organisiert zu sein, dass Diese für interessierte Laien einfach zu verstehende Ergebnisse produzieren. Weiter noch: ich verlange >1 Datenquelle, mit mind. einer Ressource aus dem Umfeld API. Der zweitwichtigste Punkt in meiner Privatliste ist die Sauberkeit der Prognosen zu Traffic und Umsatz und hier lese und höre ich immer wieder das Schema der nachgelagerten Landingpage. Also: man baut Landingpages zu Produkten auf und nimmt hierfür viel Geld und „hofft“ quasi auf Traffic und möglichst viel Umsatz. Unterhalte ich mich nun mit einem Branchenvertreter aus „Influencermarketing“, welcher u.a. mit „Erfahrung“ argumentiert, erwarte ich die Präsentation von bestehenden Accounts, welche u.a. mit Hilfe von Bit.ly-Urls arbeiten. Diese URL-Form erlaubt zwar nicht die externe Sichtung von Umsätzen, sie zeigt jedoch durchaus eine relativ saubere Auswertung von Trafficvolumina und hier gilt ja auch die Logik „mehr Traffic“ -> „mehr Umsatz“. Interessant ist die Rechercheform via Bit.ly-Urls-Prüfung auch, weil über die API eben auch die Zugriffe Herkunftsländern zugeordnet werden kann.
Der Punkt 06 fällt mir in den vielen Diskussionen immer wieder auf: man schreibt viele Dinge herunter, moralisiert stark und muss auf kritischen Nachfragen quasi zugeben, über keinerlei Erfahrungen zu den bspw. o.g. „bösen Strategien“ zu besitzen. Hier wundere ich mich immer wieder darüber, dass in einer logik- und zahlengetriebenen Szene / Branche eben völlig unlogisch argumentiert wird und ich frage da auch nach, interessiere mich für das Ausbleiben von Experimenten und Gegenchecks. Da wird mir immer wieder auch Folgendes kommuniziert:

(1) Agenturen haben keine Zeit für sowas.
(2) Wir haben keine Leute für sowas.
(3) Wir verstehen sowas nicht.
(4) Wir sind sauber / moralisch gut und fassen sowas gar nicht an.
(5) Wobus, bitte geh weg mit Deinem Nerd-Zeug.

Mich gehen selbstverständlich diese oder jene geschäftlichen Interna nichts an und der Markt regelt sich da schon eigenständig. Ich würde mich allerdings fragen – sofern ich den Einkauf entsprechender Dienstleistungen plane -, welchen Wert die angesprochenen Dienstleister_innen denn im Interesse MEINER Planungen, Prognosen und Wünsche haben, wenn sämtliche Argumente auf nicht greifbare Erfahrungen, offensichtliches Nicht-Wissen zu „alternativen Strategien“ und subjektiv geprägter Moralvorstellungen basieren. Mhhhh …

Fragen? Gedanken? Austausch gewünscht? Konkrete Projektanfrage? Ich freue mich über Rückmeldungen.

Privatsphäre und Datensicherheit – Instagram (Stand: 09.06.2018)

Instagram bietet den Accountinhaber_innen zum Zwecke des Gegenchecks auf die eigenen Daten den Download eines entsprechenden Archivs an. Dieses findet man – nach dem Login (WEB) – unter folgender URL: https://www.instagram.com/download/request/ (Alternativ: Login via Web -> Klick „Profil bearbeiten“ -> Klick „Privatsphäre und Sicherheit“ -> Klick „Daten Download“ -> Download anfordern). Die nachfolgende Prozedur sollte auch für den Laien selbsterklärend sein und wird unter diesem Artikel ganz gut erläutert.

Ich musste ca. 10h auf meine Daten warten und das Paket hat folgende Struktur.

Dateiname:
[nickname]_[zeitstempel]_[laufende_nummer].zip

Pakete:
Das erste Paket umfasst folgende Unterdateien mit diesen Strukturen.
(a) likes.json (Spalten: Zeitstempel+Account-beherztes-medium) -> Medium fehlt,
(b) comments (Spalten: Zeitstempel+comment+Account-beherztes-medium) -> Medium fehlt,
(c) connections.json (Spalten: Zeitstempel+username)->follower, follows, blockierte,
(d) contacts.json (Spalten: Vorname+Nachname+emailadresse+Instagram-account-id)->faszinierende Deckungsgleichheit mit den Smartphone-Kontaktlisten UND keinerlei Unterscheidung zwischen nicht gefolgt / gefolgt,
(e) searches.json (Spalten: Zeitstempel+Suchkw+Type) -> type=tag, username.

[Erläuterungen und Einschätzungen]
Bei den Daten (a) und (b) fällt das fehlende Medium (Bild, Video etc.) auf und damit ist der Anspruch einer lückenlosen Nachvollziehbarkeit der eigenen Aktivitäten schlichtweg nicht gegeben. Ich vermisse in den entsprechenden Dateien also folgende Informationen, im Bezug auf die Medien:
-> bei (a): Medienurl+Mediencode
-> bei (b): konkretes Comment zzgl. Medienurl+Mediencode

Die weiteren Dateien umfassen – je nach Accountumfang (bei mir über 9.000 Bilder) – folgende Inhalte:
(a) Unterordner „photos“
(b) media.json (Spalten: Beschreibung+Zeitstempel+Bildpfad)

[Erläuterungen]
Die Pfadangabe konnte ich verifizieren, sehe jedoch da maximal einen praktischen Wert im Sinne der persönlichen Archivierung. Dieser Wert minimiert sich dadurch, dass die Bilddaten in physischer Form ohnehin durch die Dateien ausgeliefert werden. Die Beschreibung wirkt – auf dem ersten Blick – relativ lückenhaft / ungenau, da hier keine Unterscheidung zwischen „Textbeschreibung“ und „Tagcloud“ zu finden ist.

Ebenfalls fehlen in der media.json:
(1) Like und Comment in „Zahl“
(2) Comments als „String“

Vorläufiges Fazit nach der ersten Sichtung.
Aus praktischer Sicht ist diese Funktion recht interessant, wenn man sich das Fotoarchiv noch einmal sichern möchte. Ist man aber – sensibilisiert durch die aktuellen Datenskandalproblematik – primär an den Daten zu den getätigten Interaktionen interessiert, sieht die Situation anders aus. Durch das Fehlen der Media-URLs / Media-Codes ist bspw. das Nachvollziehbarmachen von den gespeicherten Interaktionsvorgängen völlig unmöglich und die Beschränkung auf Accountname (->Like, Comment) halte ich für völlig unbrauchbar. Eine weitere – nicht zu unterschätzende – Hürde ist das gewählte Datenformat „JSON“. Im Hintergrund meiner persönlichen und beruflichen Praxis / Erfahrung, bereitet mir das Lesen und das Verstehen solcher Datenformate relativ wenig Sorgen und im Einzelfall könnte auch ich über das schnelle Programmieren eines entsprechenden Tools nachdenken, aber es gibt ja auch Laien und technisch Uninteressierte. Wie nun diese Zielgruppen die lückenlosen Json-Dateien (a) einlesen und (b) auch verstehen können, kann ich persönlich leider nicht nachvollziehen oder sogar beantworten: immerhin fallen mir ad hoc durchaus Expert_innen aus „Internetmarketing“ ein, die keinerlei Bezug zu „JSON“ haben. Im Bereich der Spekulation liegt bei mir folgende Vermutung: Interaktionsdatensätze, wie gespeicherte Likes und Comments geben Aufschluss über Interessenslagen der Einzelaccounts und diese Theorie wäre verifizierbar, sofern die Datensätze in geeigneter Form vorliegen würden.

Fragen? Antworten? Gedanken?