Engagementgruppen für Instagramaccountpromo nutzen? Ja vs. Nein

Vor einigen Wochen fand ich etwas Zeit, um mich mit alternativen Accountaufstellungsmethoden auseinander zu setzen und im Rahmen der – obligatorischen (!) – Recherchearbeiten entdeckte ich das magische Reizphrase „Engagement Gruppen“. Hier erinnerte ich mich an äußerst hitzige Diskussionen, geführt von mir, in irgendeiner dieser Facebook-Instagram-Gruppen und ich muss gestehen, dass ich das Thema „Gruppen nutzen JA vs. NEIN“ sehr lange auch sehr emotional gesehen habe. Warum sich das änderte, kann ich nicht genau spezifizieren.

Also … im Laufe meiner Suche nach Inspiration entdeckte ich natürlich diverse Hürden, da die wenigen (!) professionellen deutschen Berichte zu diesen Gruppen den Zugang zu dieser Strategie als wahnsinnig kompliziert darstellten und parallel dazu die ersten Berichte auftauchten, welche diverse Gegenmaßnahmen seitens Facebook und Instagram (Instagram ist ja eine FB-Tochter …) sehr logisch darstellten. Ich begriff schnell, dass diese Gruppen zwar existieren, gepflegt und genutzt werden, aber dass man sich natürlich von Organisationen innerhalb des Facebookuniversums fernhalten sollte (also: alles meiden, wo diese Geschichten in Facebook, Whatsapp UND Instagram laufen).

Ich entdeckte durch den obligatorischen Quercheck auf die Blackhatszenenforen einen weiteren „magischen“ Hinweis auf „Telegram“ und fand folgendes Dokument „Instagram Engagement Pods – FREE List of 124 Groups„. Ausgestattet mit wenig unerklärbaren Ängsten und einem gewaltigen Schub an Experimentierfreude organisierte ich mir auf Basis der Liste einen Telegramaccount und fing an, meinen Spieltrieb da auszuleben.

Hier sind meine Beobachtungen:
Es gibt gewaltige Gruppenunterschiede: zum einen befinden sich in dieser Sammlung botgesteuerte Gruppen, die sehr genau das gegenseitige „Beliken“ erfassen und schnell inaktive Accounts „bannen“, zum anderen existieren da Gruppen mit starkem Autolikebotbezug und wiederum fand ich da Gruppen, die völlig ohne Kontrolle und Disziplinarmaßnahmen funktionieren. Die eigentlich faszinierende Beobachtung, die ich da tätigte ist Folgende: selbstverständlich reihte ich meine Testaccounts da ein und ich entdeckte einen gewaltigen Zulauf an Interagierenden, welche aus Deutschland kommen, einkaufbare Influencer sind, extrem gute Bildsprachen zeigen, sehr professionelle Bildbeschreibungen und Tagwolken produzieren und mir gelang es, dass ein sehr bekannter Account aus „Radio“ (Kunst und Kultur) meine Medien beherzte und teilweise auch kommentierte.
Im Ergebnis wurde die Reichweite(n) von 5 Accounts massiv gesteigert, ich konnte über das Medium „Engagement Pods“ sehen, dass eine sehr große Menge an Influenceraccounts genau dort einen Teil der Positionierungsarbeiten betreiben. Einer der Testaccounts erlebte eine Reichweitensteigerung von Startwoche i.H.v. ~1800 zu letzte Woche i.H.v. ~40.000 mit entsprechend hohen Interaktionen und der Pflegeaufwand ist hier erstaunlich gering. Entgegen der panikmachenden „Fachartikel“ (naja … eher Meinungen, Thesen etc.) beschränkte sich die Arbeit am Experiment auf ca. 8h Lernen, Testen, Gruppen anschauen und genau 7 Aktivitäten (hier: Liken der dargebotenen Medien und Eintragen der Medien, welche ich gern beliken lassen möchte). Das Experiment lief genau 3 Wochen bis letzten Sonntag.

Mein Fazit ist:
man kann und sollte diese Strategieform genauer prüfen und mit den internen Richtlinien / Gedanken zu „Moral“ und „macht man nicht“ abgleichen, denn man muss sich definitiv bewusst sein, dass hier ein Werkzeug vorliegt, welches große Influenceraccount in einen Art Likezwang versetzt UND hierüber die Fanbase / Reichweite besagter Accounts benutzt. Diese schnelle Art der Verknüpfung ist auf anderem Weg nicht möglich und auch nicht über den Content-is-King-Weg lösbar. Ich meine aber auch erkannt zu haben, dass trotz „Gruppenzwang“ eine ordentliche Qualität geliefert werden muss, denn die teilnehmenden Accounts agieren da nicht immer streng maschinell / botgesteuert und entscheiden durchaus bewusst pro oder contra „Herzchen“. Interessant waren für mich auch wunderbare und inspirierende Diskussionen via DM über meine Bilder (AUSGEHEND VON DEN GRUPPEN! ;-) ), Kritik an meinen Bildern und das Ausformulieren von ganz konkreten Kooperationswünschen auf Basis meiner Bilder. Im Hintergrund dieser Erfahrungen und den einhergehenden Analysen frage ich mich nun einmal wieder, warum unfassbar viele der Marktteilnehmer_innen aus „Socialmediaberatungen“ mit Hilfe von hochemotionalen Texten, Aussagen und Thesen und Behauptungen (natürlich ohne jeglichen Beweis!) gegen diese Strategieform argumentieren und auf meine Rückfragen hin teilweise auch offen zugeben, noch nie im Leben diese Gruppen gesehen oder genutzt zu haben. Man kann davon halten, was immer man möchte. Ich sehe es so: in dem Moment, wo ich und die Wobus & Lehmann GbR Dienste aus den vielen Bereichen von bspw. „Instagramaccountpromotionen“ anbiete, muss ich mich zwangsweise auch im Interesse der Accounts, der Projekte und der vielen Ratsuchenden eben auch mit diesen Dingen beschäftigen, diese Dinge sauber bewerten und – je nach Szenarium – auch selbstverständlich einsetzen. Dann weiter: ich bewege mit mit der Wobus & Lehmann GbR in einem logiklastigen Umfeld und hier haben moralisierende Bewertungen von diesen oder jenen pushenden Strategien keinerlei Platz und eigentlich müssen sich die Branchenteilnehmer_innen folgende Fragen gefallen lassen und auch sich selbst stellen:

(a) Warum sollten die eigenen Klient_innen zwangsweise viel Geld in Instagram-ADs investieren? Weil das moralisch einwandfrei ist?
(b) Warum sollten die eigenen Klient_innen zwangsweise Kooperationen mit Influencern einkaufen, wenn völlig problemlos diese Gruppen identifizier- und beobachtbar sind und die pot. Influenceraccounts ganz sicher die vielfach kritisierten „Mittel“ selbst einsetzen?

Ich finde – für mich mich – es eleganter, die zu bewerbenden Accounts direkt in den Status „Influencer“ zu bringen (Strategiewahl je nach Typ, Branche, Medien etc.) und hierüber schwer kalkulierbare Posten (a) und (b) zu umschiffen.

Interesse an Gesprächen? Ich freue mich über Kommentare, eMails, Anrufe und konkrete Anfragen.

Hashtagprojekt: Datenbankupdate und erste Erkenntnisse aus dem Komplex „Marktleser“

Gestern veranlasste ich den Upload der W2-05-2018er Hashtagdatenbank. Diese liegt nun im bekannten Google-Drive-Ordner und die W1-05er Datenbank wurde gelöscht.

Parallel zu den Hashtagreichweiten-Dataminingaktivitäten fand ich endlich Gelegenheit und Inspiration zur Lösung eines alten Problems. Dieses beschreibt – im Wesentlichen – das Erfassen von Inhalten aus (Fach)foren, welches die Basis für die Beantwortung folgender Fragen dienen soll:

– Wo werden Bedarfsäußerungen zu speziellen B2B-bezogenen Thematiken abgegeben?
– Wie sehen diese Bedarfsäußerungen aus und welche Indikatoren versprechen welche Werthaltigkeiten?

Im ersten Schritt fokussierte ich XING als Medium, um den Algorithmus zu stabilisieren. Die Technologie ist hier recht simpel via Delphi / Lazarus umsetzbar: ich analysiere mit Hilfe des TWebbrowser die öffentlich und Loginlose Version von bspw. Gruppenseiten und extrahiere im nächsten Schritt die „Innertext“ der jeweiligen HTML-Objekte (Titel, Inhalte der Statements), wobei mich persönliche Angaben zu den jeweiligen Autor_innen (Name, Firma etc.) schlichtweg nicht interessieren (also: keinerlei Erfassung!).

Die befüllte und lokale Datenbank wird nun im zweiten Schritt durchanalysiert. Hierbei interessiert mich das Vorkommen spezieller Phrasen / Strings, die auf „Anfrage“ oder „Bedarf“ hindeuten („Suche!“, „Hilfe“ etc.) und die Ergebnisse aus einer Spontananalyse von 140 Gruppen zu 5-8 Postings sind:

(a) Keinerlei Bedarfsmeldungen erfassbar.
(b) Doppelter Content über teilweise ~10 Gruppen hinweg erfassbar.
(c) ~70% der erfassten Postings zeigen ausgehende Links
(d) Extrem niedrige Interaktionsraten (Comments, Likes)

Diese Beobachtungen sind aus meiner Perspektive nicht besonders erstaunlich, zeigen jedoch, dass eine vollautomatisierte Monitoringprozedur bezogen auf XING schlichtweg keinen Sinn macht und dass die vielfach propagierten Werthaltigkeitsargumente zu XING als „Leadgenerierung“ doch eher pures Wunschdenken ist.

[Update] Instafinal (Promowerkzeug für Instagramaccounts)

Anne informierte mich soeben, dass die Software „Instafinal“ nicht mehr die Account-IDs der hinterlegten Usernames via API extrahieren kann.

Eine Sichtung der (neuen) Endpointspezifikationen ergab auch, dass
https://api.instagram.com/v1/users/search?q=[username]&access_token=[token] inaktiv ist und die Konsquenzen sind:

-> Ein komplettes Screenen der Accountstreams ist nicht mehr via API möglich.
-> Das Analysieren von Interaktionsdaten, Likenden auf den Accountstreams ist via API nicht mehr möglich.

Ich lasse das Datenbankfeld „Account-ID“ vorerst in den Codes bestehen.

Hashtagdatenbanken: Änderungen an den Freigaben (Stand. 01.05.2018)

Im Zuge der API-Änderungen musste ich leider feststellen, dass das Datenbankpaket für 05-2018 fehlerhaft ist. Das hängt u.a. auch damit zusammen, dass besagte Änderungen eine längere API-Abfragefrequenz erforderte (spez. 20 Milisek. auf 100-150 Milisek.) und hierdurch enstanden Lücken in den Datensätzen, die eine Interpretation für 05-2018 massiv erschwert. Der 05-er Upload wird daher übersprungen und ich ändere die zukünftige Freigabe wiefolgt:

-> Upload im Wochenturnus (1. Upload 01.05 – 06.05, letzter Upload 28.05 – 31.05)
-> Vorgängerdatenbank wird mit Upload gelöscht.

Der Vorteil in dem Moduswechsel liegt darin, dass die stark verkleinerten Scraperdatenbanken schlichtweg einen schnelleren Datenerfassungsdurchlauf und deutlich mehr Abfragen erlauben. Die Recherche nach weiteren Themen, Queries / Tagwelten etc. läuft und die Ergebnisse werden kommenden Sonntag in die Prozedur eingepflegt.

Facebook und die Weiterentwicklung der Instagram-API

Vor einigen Tagen diskutierte ich mit kompetenten Kolleg_innen und Geschäftsfreund_innen über die Facebook-Datenskandalproblematik und irgendwer präsentierte mir einen interessanten Beitrag zu der Beschneidung der Instagram-API.

Die Kernaussagen des Artikels sind:

– Instagram reduziert die Abfragevolumina je Zeiteinheit (5.000 auf 200 je Stunde)
– Die Toolanbieter sind irgendwie „böse“ auf Instagram, weil das Ganze nicht mehr so schön fluffig funktioniert.
– Die Toolanbieter „glauben“ nun, dass die Influencer aus Instagram abwandern werden.

Verifiziere ich nun diese Problematik via Sichtung der Platform Changelog, sehe ich folgende Änderungen:


The following endpoints are deprecated immediately:
Follows and Relationships
GET /users/self/follows
GET /users/self/followed-by
GET /users/self/requested-by
GET /users/{user-id}/relationship
POST /users/{user-id}/relationship
Commenting on Public Content
GET /media/{media-id}/comments (Deprecation not relevant when fetching comments for self media)
POST /media/{media-id}/comments
DEL /media/{media-id}/comments/comment-id
Media
GET /media/{media-id}
GET /media/shortcode/{shortcode}
Likes
GET /media/{media-id}/likes
POST /media/{media-id}/likes
DEL /media/{media-id}/likes
User Search
GET /users/{user-id}
GET /users/{user-id}/media/recent
GET /users/self/media/liked
GET /users/search
Subscriptions - to receive notifications when media is posted
Some information on Public Content returned through hashtag and location search will be removed - Name, Bio, Comments, Commenters, Follower Count, Following Count, Post Count, and Profile Picture

und das eröffnet einen sehr umfangreichen Katalog an Fragen:

– Warum ist die Influencermarketingagenturszene so still?
– Was erfassen eigentlich diese Monitoringtools und worin besteht der Unterschied zwischen diesen Tools und der Firma Cambridge Analytica?
– Wo genau kann man sich anschauen, was diese Tools eigentlich erfassen und existieren Dokumentationen?
– Wie weit lassen diese Tools Profilbildungen zu den Influencern und den Followern der Influencer eigentlich zu?
– Warum basiert die Influencerbegutachtungsszene auf Tools, welche offensichtlich sich primär auf eine (!) Datenquelle stützen (hier: die API und die API-Endpoints) und wie nachhaltig ist das Ganze eigentlich?
– …

Ich bin gespannt auf zukünftige Diskussionen und natürlich interessiert mich die Positionierung der vielen Dienstleister_innen rund um dieses Influencermarketing. Vielleicht professionalisiert sich hier diese Szene?

Woher kommt der Traffic? (Socialmedia-Analyse(n))

Vor ein paar Tagen nahm ich mir etwas Weiterbildungszeit und sichtete diverse WWW-Marketing-Wochenabschlussbeiträge. Zur Info: diese besondere Art der Blogbeiträge beschreibt meistens eine Wochenzusammenfassung an besonders faszinierenden Links und externen Beiträgen. Aus logischen Gründen stand aktuell meistens Facebook und / oder die generelle Arbeit mit den Socialmedia im Fokus und ich wurde aufmerksam / munter, als ich das Dokument „Pinterest, Google, & Instagram big winners as Facebook share of visits falls 8% in 2017“ von Shareaholic da gesehen hatte und hier ist eine Klischeesituation aufgefallen:

[1] Eine Autorität veröffentlicht Beobachtungen
[2] Eine Subautorität nimmt die Beobachtungen daher, ergänzt diese um einige Anmerkungen
[3] Unfassbar viele Dienstleister_innen nehmen die Inhalte aus [2], um diverse Existenzberechtigungen herbei zu argumentieren und sog. „hochwertigen Content“ zu produzieren.

Der gemeinsame Nenner zwischen [2] und [3] ist hier – ganz im Sinne der Klischees – das bewusste Nicht-Hinterfragen der Thesen aus [1], da man es ja mit einer wahnsinnig anerkannten Autorität zu tun hat. Ich erkenne jedenfalls keinerlei Logik in dieser faszinierenden Gangart und Branchenautoritäten müssen sich jedezeit hinterfragen und fachlich kritisieren lassen. Aus meiner Perspektive generiert sich genau aus diesem Merkmal die Berechtigung des Labels „Autorität“ und es ist mir schleierhaft, warum gefühlt sämtliche Autoritäten der Marketingbranchen den fachlichen Konflikt meiden.

Wie auch immer und zurück zum Shareaholic-Artikel kommend.
Ich unterstelle Shareaholic aus sehr guten Gründen eine gewisse Grundkompetenz bzgl. der Aus- und Bewertung von Socialsignals, nur befinden sich im Beitrag diverse Lücken:

[1] Keine Offenlegung der analysierten Seiten.
[2] Keine Offenlegung der Länder und Zielgruppen zu den analysierten Seiten.
[3] Keinerlei Offenlegung der zeitlichen Entwicklung der Signals / Socialbewegungen über den kompletten Zeitraum von 2017.
[4] Keinerlei Offenlegung der Datenerhebungsmethoden.

Gerade der 4. Punkt wirkt auf mich – vorsichtig formuliert (!) – mehr als verwirrend und ich frage mich, warum den DACH-Kolleg_innen nicht aufgefallen ist, dass Instagram schlichtweg keinerlei Möglichkeiten zur Analyse von Traffic von externen (also: nicht selbst betreuten!!!) Seiten und Projekten liefert: es existiert keine einzige Möglichkeit, mit Schnittstellen / API-Endpoints den Traffic von völlig unbetreuten Accounts zu deren Webseiten zu erfassen. Da frage ich mich: Wie hat das Shareaholic geschafft und wo genau befindet sich da die Dokumentation? Diese sehe ich nicht und Querchecks via Google und diverse „Nerd“-foren ergab keinesfalls eine Problemlösung.

Es bleibt also folgende Frage offen: Warum bewirbt man mit völlig intransparenten Datenerhebungen ein Socialmedium zum Zwecke der Trafficgenerierungsansätze? Ich sehe hier keinerlei Logik oder sogar Gesprächsgrundlage für diese oder jene Projekte.

Genau diese Problematik beschäftigte mich die letzten 2 Tage und das Ergebnis entsprechender Gedankengänge ist:

[1] Instagram
Der Traffic via Instagram lässt sich definitiv nicht sauber monitoren, wenn keinerlei Zugriff auf eine hinreichend große Accountmasse (Hier: alle Themen, Länder, Branchen etc.) besteht. Man kann also nur mit Hilfe der Indikatoren hier Analysen anstellen und ich wage die Formulierung folgender Thesen:

(a) Der Traffic ist hoch, wenn möglichst viele Interaktionen auf den Postings der jeweiligen Accounts identifizierbar sind, wobei hier zwischen Botgesteuert und „Organisch“ zu unterscheiden ist.

Quellen:
Beiträge aus „Interaktionenprojekt
InstagramAPI (Endpoint -> Likes)
InstagramAPI (Endpoint -> Comment -> Get)

(b) Der Traffic kann hoch werden / sich gut entwickeln / ist hoch, wenn die Postings der jeweiligen Accounts entsprechend „mächtige“ Hashtags verwerten.

Quellen:
Beiträge aus „Hashtagprojekt
Datenbanken zu „Hashtagprojekt“
InstagramAPI (Endpoint -> GetTag)

Werden über die bekannten und dokumentierten API-Endpoints bspw. zu Instagram die notwendigen Daten erhoben, stellt man sehr schnell etwas „Lustiges“ fest:
Die Datenmassen können zwar extrem umfangreich sein, jedoch bilden Diese immer einen recht kleinen Moment aus dem Universum von Instagram ab. Sie lassen sich maximal im Rahmen der Datenbankinhalte verwerten und können keinesfalls Aufschluss über unbekannte Themen und Untersuchungsobjekte liefern. Dann weiter: die Verwertung dieser technischen Schnittstellen zeigt ab einem gewissen Punkt die Begrenztheit, weil eben diese Endpoints nur eine begrenzte Menge an Abfragen zulassen. Instagram ist hier recht liberal oder „großzügig“, andere Socialmedia jedoch nicht (siehe: Twitter und die Retweet / Tweetzählproblematik).

Fazit zu Instgram:
Absolute Aussagen zu „Traffic“ im Vergleich zu den anderen Socialmedia lassen sich nicht sauber generieren, man arbeitet da mit „Vermutungen“ und die Sauberkeit eben dieser Vermutungen / Prognosen hängt ab von:
– Offenlegung der Erhebungsverfahren
– Gegenprobe via API-Endpoints
– Menge der erhobenen Daten aus „API-Endpoints“ inkl. deren inhaltlichen Breite
Diese Sachen sehe ich weder im o.g. Report, noch in den Szenecontentmarketingaktivitäten.

[Andere Socialmedia außerhalb von Instagram]
Am 6.12.2013 fand ich Gelegenheit, ein Projekt fertig zu stellen. Dieses ist auch Bestandteil unserer Monitoringaktivitäten und begutachtet die Socialsignalentwicklungen aus Facebook, Twitter und Pinterest. Früher empfand ich noch die Notwendigkeit, Google-Plus zu beobachten und die entsprechende Funktion wurde im Laufe der Jahre eingestellt, da besagtes Medium eine extrem untergeordnete Rolle spielt. Die Kernidee hinter dem Projekt entstand eigentlich bereits in den Jahren 2010-2011, als wir – aus einem Zufall heraus – die Socialmedia (damals primär Twitter und Friendfeed) als spannendes Promomittel entdeckten und hierüber geradezu euphorisierende Rankingeffekte (einhergehend mit Traffic und Umsatz) produzieren konnten. Es war damals für alle Beteiligten absolut sichtbar und klar, dass selbstverständlich Traffic über die verwerteten Socials organisierbar IST und aus dieser Beobachtung leitete ich damals (!) folgende These ab:

Der Traffic via Twitter, Facebook u. anderen ist von der Sichtbarkeit abhängig und die Sichtbarkeit der der Postings ist abhängig von den Interaktionen auf dem Posting.

Die Thesenverifikation lässt sich via Quercheck auf die Interaktionszähltools und entsprechende APIs realisieren, wobei man hier selbstverständlich in regelmäßigen Abständen Prüfungen durchzuziehen hat.

Twitter: https://opensharecount.com/
Pinterest: https://api.pinterest.com/v1/urls/count.json?callback%20&url=deineurl.org
Facebook: https://www.kickstartcommerce.com/use-facebook-graph-api-get-count-url-likes-shares-comments.html

Obwohl ich dazu neige, bspw. aus den Socialsignalszahlen generelle Trafficprognosen abzuleiten, neigt die liebe Anne Lehmann hier zu einer gewissen „Erbsenzählerei“ und sie zwang mich irgendwann dazu, eine weitere Gegenprobe funktion zu suchen. Diese fand ich in dem Ansatz über die Bit.ly-API und unser Monitoringwerkzeug erfasst diese Zahlen parallel zu den Daten aus den genannten Interaktions/Signalszähler. Hierbei muss natürlich beachtet werden, dass ein (relativ) sauberes Trafficmonitoring nur dann funktioniert oder „aufgeht“, wenn die begutachteten Projekte eben auch mit Bit.ly-URLs arbeiten.

Fazit aus meiner „Arie“.
-> Manche oder viele Autoritäten verdienen zwar einen gewissen Vorschuss an Vertrauen, jedoch muss die Autorität hinterfragbar sein und diese Vorraussetzung ist nicht gegeben, wenn Datenerhebungswege oder Grundlagen dieser oder jener Thesen nicht offen gelegt werden.
-> Der kritiklose Umgang mit „Studien“ und / oder Autoritäten birgt die Gefahr von falschen und gefährlichen Strategien im Onlinemarketing.

Fragen? Anmerkungen?

Update: Datenvisualisierungsfunktion(en) – Hashtagclient

Im Zuge der Datenvisualisierungsfunktionsentwicklungen wurde die Darstellung umgestellt. Diese erlaubt nun den direkten Vergleich von mind. 2 Hashtagentwicklungsdatensätzen und liefert den Zugang zu weiteren / tiefergehenden Interpretationen bzgl. dieser Fragestellungen:

– Existieren Schnittmengen zwischen den Kommunikationshäufungen innerhalb von Tag- / Themenwelten?
– An welchen Tagen „lohnt“ sich ein Engagement zu den analysierbaren Tag- / Themenwelten?
– Welche Zielgruppenbewegungen werden in welchen Zeiträumen zu den Tag- / Themenwelten sichtbar?

Darstellungen der absoluten Reichweitenveränderungen (Rohdaten)


Darstellungen der absoluten Reichweitenveränderungen im Verhältnis zum ersten Datensatz.

Darstellungen der Reichweitenveränderungen im Verhältnis zum vorhergehenden Datensatz. (Datum [z] zu Datum [y]).

Das gezeigte Schema findet bereits jetzt Eingang in die tägliche Promopraxis und ein aktueller Account erfreut sich folgendem Wachstum:

l6.03.2018 -> (Re)start -> 0 Follower
21.03.2018 -> ~30 Follower
22.03.2018 -> ~100 Follower mit durchschn. Interaktion zu 20 – 30 „Likes“ inkl. guter Durchklickrate auf die verlinkte Webseite.

Die Prognose läuft darauf hinaus, dass besagter Account zum Monatsende sich zwischen 150 – 200 Follower einpendeln wird. Bereits jetzt sind Wechselwirkungen zwischen dem Auftritt, Trafficströme UND (!) positiver Rankingeffekte sichtbar. Eine finale Verifikation steht aus und wird via Gegenprobe realisiert werden.

Fragen? Anregungen?
Ich freue mich auf Kommentare, Telefonate und eMails unter office[at]pontipix.de

Cambridge Analytica und das Problem der Datenverwertungen

Derzeit ist ja die Geschichte rund um Cambridge Analytica und deren „speziellen“ Art der Datenverwertung im Gespräch und das animierte mich zu tiefergehenden Gesprächen mit dem „Netzwerk“. Überall wird ja geschrieben, dass das Unternehmen Daten aus dem FB-Universum abgegriffen und natürlich werden hier auch stark moralisierende Bewertungen gesprochen und geschrieben.
So einfach, wie das Ganze dargestellt ist, ist das (leider) nicht.
Facebook öffnet über spezielle und auch sehr gut dokumentierte API-Endpoints Möglichkeiten, die gesammelten Daten zu sichten, zu speichern, zu verarbeiten und zu bewerten.
Nicht nur Facebook liefert diese Zugangswege: Ähnliches findet man für Twitter, Tumblr, teilweise G+, Pinterest und einem deutschen „Spezialmedium“. Nun bleibt für mich nun auch die Frage offen, wer in diesem Spielchen nun der „Buhmann“ ist. Ist das Facebook und sind das weitere Socialmedia?
Ich denke: nein. Sicherlich müssen sich die etablierten Socialmedia Kritiken bzgl. der Intransparenz zu den gesammelten Daten gefallen lassen und natürlich fühlt es sich – menschlich betrachtet – nicht gut an, zu „ahnen“, dass große virtuelle Räume Daten sammeln und auswerten. Aber ich beobachte seit ca. 2010, dass sämtliche Socialmedia inkl. der geschlossenen (Posterous, Friendfeed) selbstverständlich etwas anbieten, was völlig problemlos über Recherchen nach „API“, „API-Endpoint“ oder sogar „Developer Center“ analysierbar ist und der aktuelle Skandal sagt nahezu überdeutlich aus, dass einzelne Marktteilnehmer_innen selbstverständlich die gegebenen Möglichkeiten nutzen und hieraus sogar Kapital schlagen. Nun frage ich mich, warum gesellschaftlich Facebook – trotz aller (legitimer) Kritik – der Bösewicht ist und nicht die Akteure, welche eben die unfassbar gut (nahezu exzellent) dokumentierten Endpoints nutzen. Wieso ist dieses offene Problem überhaupt entstanden?

Nunja: ich habe hierzu folgende Thesen:

(a) Das Beschäftigen mit den APIs und den Datensätzen ist ein komplett neues Betätigungsfeld.
(b) Der Markt verlangt bewusst nicht die Auseinandersetzung mit den abholbaren Datensätzen.
(c) Die Komplexität des Managements und der Interpretation von extrem großen Datensätzen bindet zuviele Ressourcen

Gerade eben telefonierte ich mit einem langen Kunden / Geschäftsfreund und er warf ein interessantes Argument in die Diskussion: er hat moralische Bedenken bzgl. der Tatsache, dass Facebook (und andere Socials) eben auch ihn selbst / seine Person und seine Daten ja schlichtweg weiter verarbeitet. Ich bin ähnlicher Ansicht, meine aber auch, dass die kritikfähige Weiterverarbeitung MEINER Daten etwas ist, was ich per Logik oder Studium der AGB oder simplen Beobachtungen verifizieren kann. Ich kann mich quasi jederzeit nahezu problemlos mit eben diesen Sachen auseinander setzen und entsprechend damit umgehen. Ein anderes Problem habe ich (und auch er) mit der Interpretation von Datenpaketen, die auch meine Angaben / Inhalte betreffen und da frage ich mich:

(a) Wo befinden sich szeneinterne Analysen?
(b) Wo befinden sich szeneinterne Studien inkl. deren Kritik aus der Öffentlichkeit inkl. Rohdatenfreigaben?
(c) Warum argumentiert die Szene auf basis von Infografiken und warum „glaubt“ die Szene Angaben aus dem Hause „Facebook“?
(d) Warum finden keine oder nur extrem wenige Experimente zum Zwecke der Erforschung des FB-Universums statt?

Hier sehe ich unsere Branche in der Pflicht und käme man hier mal in die Gänge, liessen sich unfassbar viele Probleme effektiv lösen und diese bewegen sich eben auch in eingeschränkten organischen Reichweiten, die sich offensichtlich nicht logisch erklären lassen. Diese bewegen sich auch in dem Dilemma, dass gefühlt Reichweite aufbaubar ist / wäre, wenn man an Facebook Geld gibt, um erscheinen zu dürfen … nur macht man sich da „gefühlt“ moralisch angreifbar, weil man eben mit intransparent erhobenen und verwerteten Datensätzen arbeitet?

Dann weiter: die Wobus & Lehmann GbR besteht aus zwei Hauptakteure und wir erheben mit einem relativ überschaubaren Aufwand Daten aus den APIs, arbeiten mit diesen und leiten aus den Erkenntnissen selbstverständlich Beobachtungen und Strategien ab. Gerade deswegen wirkt die aktuelle Diskussion auf mich mehr als befremdlich, denn: wenn wir mit den problemlos und relativ schrankenlos abgreifbaren Datensätzen arbeiten, machen das selbstverständlich auch andere. Also: warum die Aufregung? Warum die öffentliche Verwunderung dazu, dass offensichtlich diese oder jene Firmen Daten erheben und damit arbeiten?

Die zukünftigen Diskussionen werden sicherlich spannend. ;-)


Weitere Artikel.

https://www.web-3-null.de/index.php/facebook-datenschutz-cambridge-analytica/
https://t3n.de/news/video-cambridge-analytica-tricks-992121/?utm_content=buffer3cfce&utm_medium=social&utm_source=facebook.com&utm_campaign=buffer
http://www.spiegel.de/netzwelt/web/cambridge-analytica-der-eigentliche-skandal-liegt-im-system-facebook-kolumne-a-1199122.html
https://www.internetworld.de/onlinemarketing/facebook/schwere-krise-facebook-zuckerberg-schweigt-1524753.html

Instagram – Livevideos (für weitere Verarbeitung und Vermarktung) downloaden

Im Zuge der Etablierung diverser „Pseudohobby“-Projekte mit Schwerpunkt auf „Fotos“ und „Analogfotos“ suchte ich nach einer Lösung, welche einmal abgedrehte Livevideos für die Verteilung in bspw. Youtube-Konstellationen überhaupt erlaubt. Instagram liefert mit den Boardmitteln / via App die Downloadoption – als Feature – direkt nach der Videobeendigung, allerdings ohne Kommentare der jeweiligen Zuschauer_innen.
Eine interessante Kompensationslösung liefert das Chrome-Plugin „Chrome IG Story„. Die Bedienungsanleitung ist laiengerecht gestaltet und formuliert. Das Download hat das Format „mp4“ und die Qualität der Datei entspricht den üblichen Standards.

Aktueller Stand zum Twitterexperiment mit Schwerpunkt auf Fotogafie (auch analog)

Im Rahmen diverser Contentmarketingaktivitäten entschied ich mich für eine stärkere Beschäftigung mit der sog. „analogen Farbvergrößerung“ und ich war sehr erstaunt darüber, wie gut die Motive u.a. auf den beigeordneten Instagramaccounts angenommen werden (verifiziert via Likes, Comments und Followerentwicklungen).

Hier prüfte ich über die hausinternen Hashtagmonitoringalgorithmen tiefer und analysierte:
– Welche Tags werden (derzeit) massiv in Verbindung mit dem Thema (Farbanalog) bei Instagram verwendet?
– Welche Tags existieren rund um die Metaebene „Lomografie“ und lassen sich diese mit „Farbanalogvergrößerung“ / „Farbanalogfotografie“ in Verbindung setzen?

Ausgehend von den Erkenntnissen aus entsprechenden Datenbankabfragen wurden u.a. folgende Bilder veröffentlicht:

Odenwald 09 (final)“ mit den Tags: „#zenit + #helios
#colour #colourprint #handabzug #dunkelkammer #selbstentwickelt #analogue #istillshootfilm #farbanalog #analogphotography #diewocheaufinstagram #selfdeveloped #kodakgold #odenwald #odenwaldliebe #wald #forrest #green #nature #myfujifilm #lomografie“

und

Odenwald 06 (final) mit den Tags: „#zenit + #helios
#colour #colourprint #handabzug #dunkelkammer #selbstentwickelt #analogue #istillshootfilm #farbanalog #analogphotography #diewocheaufinstagram #selfdeveloped #kodakgold #odenwald #odenwaldliebe #wald #forrest #green #nature #myfujifilm #lomografie“

und

Odenwald 02 (final) mit den Tags: „#zenit + #helios
#colour #colourprint #handabzug #dunkelkammer #selbstentwickelt #analogue #istillshootfilm #farbanalog #analogphotography #diewocheaufinstagram #selfdeveloped #kodakgold #odenwald #odenwaldliebe #wald #forrest #green #nature #myfujifilm“

Der „Testaccount“ ist via IFTTT mit Twitter verbunden und leitet die Medien 1-zu-1 auch auf den Twitteraccount um. Der kurzfristig sichtbare Effekt war eine ca. Verdoppelung der Impressionen (aus Mittelwert) und ich sehe eine Thesenverstärkung von: Instagramtags werden bei Twitter aktiv verwendet UND / ODER es existieren – zumindest im beobachteten Umfeld – Schnittmengen in der Reichweitenentwicklung / Benutzung der Tags zwischen Twitter und Instagram.