Sammlung: Dokumentationen – Themenschwerpunkt „SocialMedia-Kritik“

Der Artikel dient mir als virtueller Schmierzettel, wo ich Videos / Dokumentationen / Radiobeiträge zu Facebook, Socialmedia u. den Plattformkritiken abspeichern werde.

(A) Videobeiträge / Filme

https://www.youtube.com/watch?v=GOnpVQnv5Cw

„Facebook Whistleblower Frances Haugen testifies before Senate Commerce Committee“ (Lange Version, 3 1/2h)

https://www.youtube.com/watch?v=2IdII_n28e0

„BBC News Arabic’s undercover investigation exposes the people in Kuwait breaking local and international laws on modern slavery, including a woman offering a child for sale.
At the centre of this powerful investigative film is Fatou, a 16 year old in Kuwait City who has been there for nine months. We follow her rescue and journey back home to Guinea, West Africa and ask: what’s being done to control the apps promoted on Google, Apple and Facebook-owned Instagram?“

https://www.bpb.de/mediathek/254194/democracy-im-rausch-der-daten

„Regisseur David Bernet begleitet den Europaabgeordneten und Berichterstatter des Europäischen Parlaments Jan Philipp Albrecht (Grüne) und die damalige EU-Kommissarin Viviane Reding (EVP) beim Entstehungsprozess der Europäischen Datenschutz-Grundverordnung. Das Film-Team kann sich während der Ratssitzungen frei bewegen und erstmalig auch sogenannte Hinterzimmer-Verhandlungen zwischen Rat und Kommission drehen. Der Film zeigt auf tiefgehende wie umsichtige Art, dass die EU mehr ist als ein aufgeblähter Verwaltungsapparat in Brüssel.“

https://www.arte.tv/de/videos/098157-000-A/propagandamaschine-social-media/

„Der investigative Dokumentarfilm blickt hinter die Kulissen der globalen populistischen Bewegungen, analysiert ihre Online-Strategien und spürt die „Ingenieure des Chaos“ auf: Informatiker, Meinungsforscher und Big-Data-Experten, die im Verborgenen Schlachtpläne für Politiker erstellen. Sie kennen keine Skrupel, wenn es darum geht, ihren Kandidaten zum Sieg zu verhelfen … “

https://www.arte.tv/de/videos/069881-000-A/im-schatten-der-netzwelt-the-cleaners/

„Soziale Medien beeinflussen das Weltgeschehen. Pro Minute entstehen 500 Stunden Videomaterial auf YouTube, 450.000 neue Tweets auf Twitter, 2,5 Millionen Posts auf Facebook. Doch wer entscheidet, was die Welt zu sehen bekommt? Auf den Philippinen arbeiten Zehntausende Content-Moderatoren, die Unmengen an Bildern sichten. Ihre Arbeit wirft Fragen von Zensur auf.“

https://www.youtube.com/watch?app=desktop&v=TybiW5qdY9E

„Cyber-Manipulationen im Wahlkampf : Wie werden Wählerinnen und Wähler vor der Bundestagswahl digital manipuliert und wer steckt dahinter? Die Doku geht der Frage nach, wer hinter der meist digital verbreiteten Desinformation steckt und wer von ihr profitiert. Das Ergebnis ergibt ein beunruhigendes Bild vom verdeckten Kampf um die Meinungshoheit in Deutschland. “

https://www.madetomeasure.online/de/

„Verschiedene Studien renommierter Universitäten haben in den letzten Jahren gezeigt, dass wenige Online-Daten eines Menschen ausreichen, um dessen Interessen, Neigungen und selbst intimste Dinge wie Ängste, Schwächen oder Süchte zu ermitteln und das Verhalten eines Menschen vorhersagen zu können. Oft wird das mit der Macht der Algorithmen begründet. Wir wollten zeigen, dass selbst ohne vermeintliche Wunder-Kräfte einer Künstlichen Intelligenz verblüffend intime Ableitungen gezogen werden können aus den digitalen Spuren, die jede und jeder von uns im Netz hinterlässt. Wir wollten wissen: Werden wir es schaffen, den Doppelgänger eines Menschen zu erschaffen, der mehr über sich weiß als das Original?“

https://www.ardmediathek.de/video/wdr-dok/made-to-measure-eine-digitale-spurensuche/wdr-fernsehen/Y3JpZDovL3dkci5kZS9CZWl0cmFnLWYwZGQwNTgwLWMyNDUtNGIwZC1iNjE5LTljY2YwNDM5NmVhMQ/

„Ein crossmediales Datenexperiment macht auf eindrucksvolle Weise erlebbar, welche Einblicke Google, Facebook & Co. in unsere intimsten Geheimnisse haben.“

https://www.netflix.com/title/81254224 (The Social Dilemma)

„Experten aus dem Silicon Valley erklären, welche negativen Einflüsse Soziale Medien auf die moderne Gesellschaft haben können, da viele große Tech Unternehmen, diese Plattformen nutzen, um die Nutzer zu manipulieren und zu beeinflussen.“ (Ergänzung: https://www.youtube.com/watch?v=7mqR_e2seeM)

https://www.youtube.com/watch?v=O_tB6sVWwfU

„Die Nervosität bei den Behörden wächst. Es drohe die Gefahr, dass die kommende Bundestagswahl aus dem In- oder Ausland beeinflusst werden könnte, warnte der Bundesinnenminister kürzlich.“

https://www.daserste.de/information/reportage-dokumentation/dokus/sendung/wahlkampf-undercover-100.html

„Die Autor:innen Gesine Enwaldt und Peter Kreysler wagen in der „Story im Ersten“ ein höchst ungewöhnliches Experiment: Unter falscher Flagge und mit gefakter Identität schleust sich der Investigativjournalist Peter Kreysler in das Innere international agierender PR-Agenturen.“

https://www.netflix.com/title/80117542

„Das Datenanalyse-Unternehmen Cambridge Analytica wurde nach der US-Präsidentschaftswahl 2016 zum Symbol für die Schattenseite der sozialen Medien.“

https://www.youtube.com/watch?v=FXdYSQ6nu-M

Interview mit dem CA-Skandal-Whistleblower („Christopher Wylie, who worked for data firm Cambridge Analytica, reveals how personal information was taken without authorisation in early 2014 to build a system that could profile individual US voters in order to target them with personalised political advertisements. At the time the company was owned by the hedge fund billionaire Robert Mercer, and headed at the time by Donald Trump’s key adviser, Steve Bannon. Its CEO is Alexander Nix“)

https://www.youtube.com/watch?v=n8Dd5aVXLCc

In a presentation at the 2016 Concordia Annual Summit in New York, Mr. Alexander Nix discusses the power of big data in global elections. Cambridge Analytica’s revolutionary approach to audience targeting, data modeling, and psychographic profiling has made them a leader in behavioral microtargeting for election processes around the world.

https://www.youtube.com/watch?v=OQSMr-3GGvQ

In an unmissable talk, journalist Carole Cadwalladr digs into one of the most perplexing events in recent times: the UK’s super-close 2016 vote to leave the European Union. Tracking the result to a barrage of misleading Facebook ads targeted at vulnerable Brexit swing voters — and linking the same players and tactics to the 2016 US presidential election — Cadwalladr calls out the „gods of Silicon Valley“ for being on the wrong side of history and asks: Are free and fair elections a thing of the past?

(B) Radiobeiträge / Podcasts

https://www.ardaudiothek.de/episode/das-ard-radiofeature/virtuelle-propaganda-oder-doku-ueber-digitale-stimmungsmache-im-wahlkampf/ard-de/92281938

„Im Superwahljahr 2021 rüsten alle Parteien digital auf und investieren große Summen in den virtuellen Wahlkampf. Zunehmend mischen auch internationale PR-Profis mit. Ihr Versprechen: über digitale Stimmungsmache Wahlsiege zu generieren. // Von Peter Kreysler / NDR 2021“

https://www.ardaudiothek.de/episode/radiofeature/virtuelle-propaganda-ein-feature-ueber-digitale-stimmungsmache/bayern-2/92526282

„Im Superwahljahr 2021 rüsten Parteien digital auf und investieren große Summen in den virtuellen Wahlkampf. Zunehmend mischen internationale PR-Profis mit. Ihr Versprechen: über digitale Stimmungsmache Wahlsiege zu generieren.“

https://www.ardaudiothek.de/episode/ndr-feature-box/das-ard-radiofeature-virtuelle-propaganda/ndr-kultur/92462372

„Ein Feature über digitale Stimmungsmache im Wahlkampf. Im Superwahljahr 2021 rüsten alle Parteien digital auf und investieren große Summen in den virtuellen Wahlkampf. Bisher gelang es nur der AfD, damit Stimmenzuwachs zu erreichen, obwohl auch andere Parteien große Werbesumme für politische Werbung in den sozialen Medien verwendeten“

https://www.hr2.de/podcasts/der-tag/nieder-mit-der-datenkrake—facebook-zerschlagen,podcast-episode-92982.html

„Facebook war krisenfest. Bislang. Doch jetzt jagt eine schlechte Nachrichten die andere. Erst kamen die Enthüllungen der „Facebook Files“ über die psychischen Belastungen von Instagram auf Jugendliche und den Einfluss auf Verbrechen in Entwicklungsländern, dann die Vorwürfe von Whistleblowerin Frances Haugen über Algorithmen, die Wut und Hass säen und die Demokratie gefährden und schließlich ein sehr großer und ein kleinerer technischer Totalausfall. Nun diskutiert man die weltweite Abhängigkeit in Sachen Kommunikation via Facebook, Whatsapp und Instagram. Und damit die Frage, ob Facebook zerschlagen werden muss. Und während TikTok als Konkurrenz schneller wächst als jedes Facebook-Produkt, könnten neue Produkte hinzukommen. Würden sie den Markt verändern? Was würde sich ändern, wenn Facebook seine Macht verlöre? Was braucht es, um den Markt und die Sozialen Medien politisch besser zu regulieren?“

https://www.nzz.ch/podcast/facebook-wer-ist-die-whistleblowerin-frances-haugen-nzz-akzent-ld.1650196

„Frances Haugen wollte als Managerin Facebook von innen heraus verändern, wurde aber rasch enttäuscht. Als Whistleblowerin wirft sie nun öffentlichkeitswirksam dem Konzern Falschinformation vor. Was ist passiert?“

Socialmedia und das Spiel mit den Reichweiten

Mittlerweile gehört es zum Standard, dass ich mir den (Online)Markt anschaue und den via Gegenlesen der vielen Theorien und Texte seitens der Marktbespielenden auf Linkedin prüfe.

Irgendwie läuft derzeit eine interessante Eigenmarketingwelle mit Fokus der Organisation von Reichweiten auf den Plattformen. Hier fällt mir eine Theorie auf:

Follower haben nichts mit Reichweite zu tun und alle Kolleg:innen, die Gegenteiliges behaupten, sind wahlweise dumm, inkompetent und sollten definitiv niemals gebucht werden!

Selbstverständlich wurde diese Theorie im Stil eines Fachartikels präsentiert und dazu gehörten auch entsprechende Stilelemente, wie bunte Bilder und eine Gliederung, welche mich an eine Semesterarbeit erinnert.

Das Problem bei der Geschichte ist nur, dass konkrete Analyse fehlen. Man muss sich bei der Begutachtung der Follower vs. Reichweiten vs. Monitarisierungsdiskussion nämlich durchaus folgende Fragen stellen (lassen):

  • Wie kann man von Extern die Interna eines Accounts sichten (also ohne Zugriffe auf Logindaten)?
  • Wie genau kann man von Extern die Kommunikation aus PM/DM der Accounts sichten?
  • Wie genau kann man prüfen, ob ein Follower ein tatsächlicher Kunde ist, war oder werden wird?
  • Welche konkreten Studien / Analysen / Whatever hat man selbst inkl. Datenerhebung durchgeführt, welche gefühlt „gerichtsfest“ zur Beweisführung dienen können?
  • Wie genau wurde nachgeprüft, welche Follower zu welchem Zeitpunkt da interagierten (Likes + Comments)?

Mir fallen noch einige weitere Fragestellungen ein und ich finde den Streit mit dem Markt amüsant. Ich finde das sehr gut, ich mag das und ich sehe darin auch eine Möglichkeit der persönlichen und geschäftlichen Weiterentwicklung. Gehe ich allerdings in diesen Streit hinein, muss ich zwingend notwendig genauestens wissen, was ich da mache, was ich da argumentiere und welche Fallstricke meine (!) Argumentation zeigen.

Sprich: ich muss mit Gegenrede rechnen u. ich muss damit rechnen, dass ein Angriff auf Theorie XYZ eben immer bedeutet, dass ich diesen Angriff belegen können MUSS.

Was bin ich, wenn ich das nicht kann? Was bin ich, wenn ich bspw. den Wettbewerb basislos angreife?

  • Unfassbar kompetent.
  • Ein Genie, ein Influencer.
  • Eine Autorität.
  • Ein inkompetenter Wichtigtuer.

Sucht es Euch aus u. – nein – das ist kein Werbetext.

Seltsame Beobachtungen bei dem Handling der InstaLOC 2.0 Datenbanken (Speicher)

Die Zusammenführungen der Rohdaten via Location-IDs (Facebookcodierung/Instagram) mit den Geodaten aus Openstreetmap entdeckte ich folgendes Problem:

Die Abarbeitungen der Queries müllt mir meine C-Partition zu und verbraucht unlogischen Speicher, obwohl die Arbeiten bspw. auf den Partitionen D, E und F laufen.

Diese Baustelle wurde über den Befehl:

PRAGMA temp_store_directory = ‚f:\‘

gelöst. Interessant ist auch, dass diese Anweisung (via SQLitestudio) die Schreib- und Lesegeschwindigkeiten extrem beschleunigt, sofern der Hauptteil der Arbeiten auf der internen SSD-Platte läuft (ca. 3000MB/Sek.).

Wieder einmal bin ich darüber erstaunt, wieviel man im BIGDATA-Bereich lernen kann. :-)

Etablierung der Zielgruppenforschung im Instagramumfeld und erste Zahlen aus der praktischen Anwendung

Mit Etablierung der InstaLOC-Datenbanken und den angedockten Zielgruppen- und Marktanalysen wurden zeitgleich diverse Tests mit bestehenden Accounts durchgeführt.
Diese Szenarien sollten klären:

(a) Followerwachstum
(b) Interaktionen auf den Medien, Videos, Stories
(c) Interaktionsqualitäten und Nachhaltigkeiten

Vor ca. 4 Wochen wurden 2 Testaccounts ausgewählt, Gespräche geführt und an das System angedockt.

Die beobachteten Effekte sind:
(a) Followerwachstum (gerundet)

Account: (A)
Thema: Kunst, Art, Fotografie
13.000 Follower -> 26.000 Follower -> 40.000 Follower

Account: (B)
Thema: Coaching/Consulting
1.500 Follower -> 17.000 Follower -> 20.000 Follower

(b) Interaktionen auf die Medien

Account: (A)
Thema: Kunst, Art, Fotografie
Interaktionsspannbreite, Bilder – Likes: 130 bis ~3.000

Interaktionsspannbreite, Videos – Likes + Views

Account: (B)
Thema: Coaching/Consulting
Interaktionsspannbreite, Bilder – Likes: ~350 – ~800

Account (A) entwickelt sich erstaunlich gut und es sind ca. 200-260 dauerhafte Besucher_innen auf die verlinkte Seite identifizierbar. Ebenfalls beobachte ich starke Kommunikation via „DM“, eMail und auch Telefon aus den Spektren der angesprochenen Zielgruppen (hier: Galerien, Fotograf_innen, Kunst allgem.).
Account (B) zeigt eine starke Etablierung der zielgruppenorientierten Kommentare und eine Einpendelung der Interaktionen auf ~800 / Medium. Erste Anfragen via DM und eMails sind ebenfalls nachvollziehbar.

Nach Zahlensichtung, Ergebnisanalysen und diverse Brainstormings wurden letzte Woche weitere Accounts aus dem Bereich „Handel“ und „Home & Living“ in die Strategie überführt. Hier sind Effekte analog zu Account (A) und Account (B) sichtbar.

Interesse an einer Partnerschaft? Fragen?
Gerne unter office(at)pontipix.de
Weitere Informationen unter: https://www.pontimania.de/

InstaLOC – Sichtung und Abfragen bzgl. der „Themenweltdatenbank“

Für die Prüfung und auch „Eichung“ der erweiterten Datenquelle (hier: Tagsearch mit Ergänzung zu den Locations) wurde eine Themenweltdatenbank angelegt, welche auch durch aktuelles Zeitgeschehen inspiriert ist.

Der Scraper benötigte 20 Stunden für die Erfassung der Daten, wobei diese Zeit auf 2 Tage verteilt und eine Liste mit ca. 6000 „Spezialterms“ abgearbeitet wurde.

Datenbankstatistik:
Anz. Einträge: 1238290
Anz. Filter: 45
Anz. Tagsclouds: 1011505
Anz. Locations: 110648
Anz. Accounts: 553799
Anz. Posting/Zeitstempel: 806680
Dateigröße (Byte): 689319936

Beispielabfragen:
(1) select location, erstellzeit from locations where (tag like ‚%22aXX%22‘) and (tag like ‚%22mXXXXXXXXXXXX%22′) and (location <> ’null‘);

Übersetzung:
Hole alle Locations und Erstellzeitpunkte (Zeitstempel) aus der Datenbank, wo die „tag like“ Bedingungen zutreffen und eine Location hinterlegt ist.
Ergebnisse:
771 Einträge

(2) select count(distinct(location)) from locations where (tag like ‚%22aXX%22‘) and (tag like ‚%22mXXXXXXXXXXXX%22′) and (location <> ’null‘);
Übersetzung:
Hole Locations aus der Datenbank, wo die „tag like“ Bedingungen zutreffen und eine Location hinterlegt ist.
Ergebnisse:
99 Einträge (für count(distinct(location)),
Liste (PDF, Locations, für „select location“)
Liste (PDF, Erstellzeit + Location, für „select location, erstellzeit“)

(3) select count(username) from locations where (tag like ‚%22aXX%22‘) and (tag like ‚%22mXXXXXXXXXXX%22‘);
Übersetzung:
Zähle die Accounts zusammen, wo in den Tagwolken die 2 abgefragten Terms vorkommen.
Ergebnisse:
3077 Einträge

Projekt „InstaLoc“ – Wechsel der Datenscrapertechnologie

Nach diversen Gesprächen, Socialmediabeobachtungen usw. entschied ich mich zur festen Einbindung eines weiteren Datenscraperansatzes.
Dieser interpretiert nun die Stadt nicht als Konstruktion mit einer Grenze, sondern als „Gegend“ mit der Stadt als Mittelpunkt.

Konkrete Beispiele können sein:

Datenbank „Mainz“ -> Mainz + Wiesbaden
Datenbank „Apolda“ -> Apolda + Weimar + Jena + div. Dörfer (falls auslesbar)
Datenbank „Leipzig“ -> Leipzig + Halle + Merseburg

Der Testlauf zum Raum „Mainz“ ergab ca. 25.700 auslesbare Locations zu max. 2000 Beiträge und ein Datenerfassungsdurchlauf beansprucht etwas um die 24 Stunden.

Im Zuge der nächsten Updates werden weitere Erhebungsmethoden getestet und ggf. in die Prozeduren eingebaut.

Die massive Datenausweitung und das feinmaschig erfasste Locationnetz erlaubt nun (auch nach Rückmeldung der Kolleg_innen) die Beantwortung folgender Fragen:

(1) Wo befinden sich ansprechbare (!) Zielgruppen?
(2) Was machen die ansprechbaren Zielgruppen an welchen Orten (gez. durch die Tagwolken, Fotofilter, Emotionsäußerungen etc.)=
(3) Wie sind die Bewegungsstrecken von ansprechbaren Zielgruppen gestaltet? (Hotel->Bar, Hotel->Museum, FashionStore->Bar->Club usw.)
(4) …

Anwendungsszenarien der interpretierbaren Rohdaten / Analysedaten können auch sein:
(1) Genauere Auswahl von Plakatplätzen in Städten
(2) Genauere Auswahl und Briefings von Promotiontrupps (Flyerverteilungen, Werbegeschenkeverteilungen)
(3) div. politische Analysen, pol. Trendanalysen
(4) Trendanalysen in Bezug auf Orte und Ortsverbindungen für Auf- und Abbau v. lokalen Geschäften
(5) Konkurrenzanalysen auf Locationbasis (hier: Sprache und Interaktionen)
(6) Möglichkeiten: Verkauftrigger / Lead- und Saleunterstützungen
(7) Kundengruppen: Interessensschwerpunktanalyse- und reportings (Freizeitverhalten u.a.)

An der Stelle bedanke ich mich bei Georg Grohs, Dr. Klaus Holthausen / Andrea Fetzer (Roland Berger), Lars Heinemann, Mitossi und Dirk Schumann für die treibende und kreative Beurteilung des Projektes.

Datenexporte: Instagram-Locationprojekt, Teil (1)

(1) Locationrecherche nach Auflistung der aktiven Accounts

SELECT location, Anz_user from(
Select location, count(username) as Anz_user from locations GROUP BY location ) as my_table
WHERE (Anz_user >= 2) order by Anz_user DESC

Diese Abfrage listet alle Locations auf, wo mind. 2 Accounts Postings abgesetzt hatten.
Datei (Paris): loc_2

(2) Locationrecherche nach Auflistung der aktiven Accounts, Anpassung nach Locationtyp

SELECT location as Ort, Anz_user from(
Select location, count(username) as Anz_user from locations GROUP BY location ) as my_table
WHERE (Anz_user >= 2) AND (location like '%museum%') order by Anz_user DESC

Diese Abfrage listet alle Locations auf, wo mind. 2 Accounts Postings abgesetzt hatten und erlaubt die Feinprüfung auf Locationtyp.
Datei (Paris), Hotel: loc_2_hotel
Datei (Paris), Museum: loc_2_museum

(3) Location- und Accountauflistung nach Suchwort (Tagsubstring)
select location, tag, username from locations where tag like '%fashion%' group by username;

Diese Abfrage listet alle Locations und Accounts auf, welche etwas zu „Fashion“ gepostet hatten
Datei (Paris), „fashion“: paris_fashion

(4) Userauflistung nach Suchwort UND Mindestaufkommen in Bezug auf die Locationaufsummierung

SELECT username, numb from(
Select username, tag, count(location) as numb from locations GROUP BY username ) as my_table
WHERE (numb >= 2) and (tag like '%fashion%') order by numb DESC;

Diese Abfrage listet alle erfassten Accounts auf, welche an mind. 2 Locations aktiv etwas zu „Fashion“ schrieben.
Datei (Paris), Loc=2, „fashion“: user_tag_fashion_2

Wie kann ich interagierende Accounts mit Hilfe eines Instagrambugs auslesen?

In einer der letzten Vertriebs- und Verkaufsveranstaltung (Subthema: Erkennen und Bewerten von Accounts, Interaktionen usw.) wurde ich inspiriert, eine geeignete technische Lösung zu recherchieren, welche die Titelfrage beantwortet. Der Grund ist einfach: Durch die Beschneidung der Instagram-API ist die technische Erfassung o.g. Metriken schlichtweg nicht mehr möglich. Einen Ausweg bietet folgende Vorgehensweise:

[AbfrageURL]
https://www.instagram.com/[Accountname]/?__a=1

[Codekonzept]
lade_account_liste(datei,DB)
//-> Erfassen der Likenden
for l=0 to liste_ende do
begin
httpget(https://www.instagram.com/liste[l]/?__a=1
(1) extract(graphql->user->edge_owner_to_timeline_media->edges->[NrX]->node[X]->edge_media_preview_like->count)
(2) extract(graphql->user->edge_owner_to_timeline_media->edges->[NrX]->node[X]->edge_media_preview_like->edges->[NrY]->node[Y]->id)
(3) extract(graphql->user->edge_owner_to_timeline_media->edges->[NrX]->node[X]->edge_media_preview_like->edges->[NrY]->node[Y]->profile_pic_url)
(4) extract(graphql->user->edge_owner_to_timeline_media->edges->[NrX]->node[X]->edge_media_preview_like->edges->[NrY]->node[Y]->username)
end

[Erklärung]
„httpget“ = Ergebnis der Abfrage wird herunter geladen
„extract“ = Das Ergebnis der Abfrage wird nach der Variable durchsucht und die Inhalte werden im gewählten Format gespeichert.
„lade_account_liste“ = Die zu begutachtenden Accounts werden in Listenform (Textdatei, SQLTab etc.) in die Prozedur eingespielt.

Die Manuelle Sichtung der Ergebnisse kann man mit https://jsoneditoronline.org/ erledigen. Hier einfach die Abfrageurl https://www.instagram.com/[Accountname]/?__a=1 mit dem Accountnamen im Browser eintragen und das Resultat in den jsoneditor kopieren.

[Erklärung: Datensätze]
(1) Auslesen der aktuellen Likes als Zahl
(2) Auslesen des likenden Accounts in Form der InstagramID
(3) Auslesen der Profilbildurl des likenden Accounts
(4) Auslesen des likenden Accountnamens

[Fazit]
Ich bezeichne den begutachteten Erhebungsweg bewusst als „Bug“, da Instagram offziell das Erfassen dieser Datensätze im letzten API-Entwicklungsturnus geschlossen hatte. Nun mag man davon halten, was man möchte und ich sehe u.a. hier für mich den Beleg dafür, dass die geschlossenen Endpoints selbstverständlich nach wie vor aktiv sind. Vielleicht beschäftig sich Instagram mit der Bug-Bereinigung, vielleicht bleibt aber auch diese Abfragevariante „ewig“ offen. Die Sichtung des JSON-Codes zeigte mir, dass „leider“ nur eine begrenzte Anzahl an interagierenden Accounts auslesbar ist, aber auch dieses Problem lässt sich elegant über eine geeignete Timer-Variante lösen. Diese aktiviert im Prinzip im Sekundentakt den Scrapingvorgang und holt sich die gewünschten Datensätze ab, speichert und verarbeitet die Eintragungen. Hochfaszinierend ist in diesem Gedankenspiel die Metrik „Username“: Die Inhalte aus der Variable lassen sich in geeignete Listen übertragen und in das o.g. Grobkonzept einspielen. Über diesen Weg erfährt der wissensdurstige Dataminer alles aus dem Medienstream des Influenceraccounts / Accounts UND den Accounts, welche eben mit dem Hauptanalyseobjekt interagieren.

Hier setzt bei mir das kritische und hinterfragende Nachdenken an:
Welchen Wert haben umfangreiche Datenschutzerklärungen, wenn bspw. Social Media problemlos recherchierbare Lücken für die Datenerhebungen offen lassen?
Welchen Wert haben offzielle Ankündigungen und Umsetzungen zu API-Änderungen, gerade aus dem FB-Haus in Verbindung mit Cambridge Analytica?
Welchen Wert haben Äußerungen aus dem Hause Facebook bzgl. der Kontrolle der Datenzugriffe von Externen, wenn (a) dieser „Bug“ identifizierbar und (b) nutzbar ist?

Ich muss gestehen, dass ich einen gewaltigen Nutzen in diesen Datenerhebungsvarianten sehe. Natürlich habe ich über die Nutzbarmachung im Interesse der Wobus & Lehmann GbR nachgedacht, bin aber letztendlich davon abgekommen, weil mir derzeit kein sauberes Anonymisierungsverfahren bekannt ist. Ich finde es schade, dass die Influencer-Marketing-Agenturszene schweigt und keinerlei Analysen, Statements oder generell Worte zu dieser Datenproblematik veröffentlicht.

Influencermarketing, Instagram und das (lästige) Problem der suboptimalen Followerzahlen?

Ich glaube, dass die Leser_innen des Arbeitsblogs mit extrem hoher Wahrscheinlichkeit meine enorme Skepsis gegenüber der „offziellen“ Strategie des Influencermarketings verstanden haben und ich denke, dass ich etwas mehr Erklärung schuldig bin. Es ist eigentlich einfach und bei Sichtung der Kritiken (also … nicht nur meine) tauchen immer wieder Argumente rund um die einkaufbaren Follower auf und hier vertrete ich nun einmal den Ansatz, dass man die Strategie „Influencermarketing“ eben wegen der massiven Kritiken nicht auf Basis der Subjektivitäten „Erfahrung“ oder „Zwischenmenschlichkeit“ beurteilen muss, sondern man MUSS diesen Ansatz eben auch mit Hintergrundwissen zu den Einflussfaktoren / „alternativen“ Strategien jedes Mal neu bewerten (also: je Szenarium, je Projekt, je Kund_in usw.).

Nun ist eine spannende Problemquelle beim Instagrambasierten Influencermarketing eben die Frage, ob die einkaufbare Reichweite (hier: Follower) auch tatsächlich „real“ ist. Ich wundere mich immer wieder, wie selten eben diese unfassbar spannende Problematik so selten und so unbefriedigend diskutiert wird, obwohl gefühlt einige 1000 Anbieter mit entsprechenden Kaufangeboten auf dem Markt völlig problemlos recherchierbar sind. Es gehört für mich zum Tagesgeschäft dazu, die Konkurrenz zu beobachten, welche eben diese spezielle Marketingform anbietet und natürlich entdecke ich da viele Blogbeiträge und Erfahrungsberichte zu wahnsinnig emotional ausgeschmückten Worstcase-Szenarien und ich mache mir da immer einen Spaß und frage nach konkreten Erfahrungen. Sprich: man kann in der hochintellektuellen Sparte „Marketing“ ja schlichtweg nur zu Dingen Formulierungen tätigen, von denen man schlichtweg auch etwas versteht und hierzu gehört auch das Durchspielen von Experimenten und NICHT (!) das kritiklose Wiederholen von nicht nachprüfbaren Experimenten der Werbeszene. Man sollte schon im Interesse der Sichtung dieser einkaufbaren Follower sich um das Erwirtschaften eigener (!) Erfahrungen bemühen.

Eines davon erledigte ich vor geraumer Zeit mit einem extra aufgesetzten Instagramaccount und hier ging ich so vor:
[1] Recherche bei Google
https://www.google.de/search?q=buy+instagram+followers+cheap
(„cheap“ deswegen, weil ich kein Interesse am Verspielen von Geld hatte.)
Im Rahmen des ersten Grobchecks entdeckte ich, dass die vielen Anbieter sich „beweisen“ wollen und man bietet potentiellen Kund_innen eben auch Testpakete – natürlich – kostenfrei an.

[2] Recherche bei Google, nach kostenlosen Followertestpaketen
https://www.google.de/search?q=buy+instagram+followers+free+trial
https://www.google.de/search?q=10+free+instagram+followers+trial
https://www.google.de/search?q=50+free+instagram+followers+trial
https://www.google.de/search?q=20+free+instagram+likes

Ich sehe nun einen bunten und wunderschön ausgeschmückten Laden mit sehr vielen interessanten Angeboten und weil mir hier der moralische Zeigefinger (oder besser: der basislose moralische Zeigefinger) keine Freude bereitet, experimentierte ich mit den folgenden Angeboten ein wenig herum:

[Pro Forma – Hinweis]
Ich übernehme keine Verantwortung, wenn die Benutzung der nachfolgenden Angebote nicht die gewünschten Effekte produziert.

http://www.buzzdayz.com/free-instagram-follower-trial/
https://www.quickfansandlikes.com/
http://www.gramozo.com/free-trial/
https://www.getmassfollowers.co.uk/
http://buyhugefollowers.co.uk/
http://www.thebestfollowers.co.uk/
https://instalegendary.com/
https://soclikes.com/
https://getmoreinsta.com/index.php?page=addfreefollowers

Eine besonders interessanter Anbieter ist:
https://plusmein.com/index.php?page=addfreefollowers
Dieser erlaubt das Einbuchen von jeweils 20 Follower je 24 Stunden und damit kann der Experimentalaccount über einen schönen Zeitraum hinweg „wachsen“. Eine „Runde“ des Testaccounts durch diese Liste „erntete“ zwischen 250 und 300 relativ stabile Follower.

Ein paar Worte zur Bewertung der zusammengeschnorrten Follower.
Ich habe hier eher „gemischte“ Gefühle zur Qualität: ich sehe klischeehafte Fakeaccounts (also: junge Frau, extrem viele Abos, wenig Follows, keine|wenig Medien) und ich sehe natürlich auch sehr natürlich wirkende Accounts und das lässt mich fragen, woher diese Anbieter denn die vermittelbaren Accounts überhaupt nehmen und ein wenig Recherche ergab, dass die meisten Quellen sich auf das Interaktionen – gegen Coin – System beziehen. Interessant ist der Anbieter „plusmein.com“, denn hier entdeckte ich in den ersten Testläufen durchaus auch neue Follower, deren Daten und Medien dem typischen Bild des einkaufbaren Influencers entsprechen.
Ganz ehrlich: ich habe keine Ahnung, wie dieser Anbieter arbeitet und woher die Accounts stammen und im Moment theoretisiere ich in Richtung „Engagement Gruppe“, wobei das natürlich nicht final verifizierbar sein dürfte. Obwohl die Qualitäten wechselhafter Natur sein können, sehe ich auch, dass der Schwundfaktor im – sagen wir mal – „natürlichen“ Rahmen bleibt, wobei ich auch sehe, dass die Interaktionen da, wenn auch äußerst gering sind.
Komme ich nun zur moralischen Einordnung und hier vertrete ich – wie erwähnt – eine eher pragmatische Sichtweise, gerade deswegen, weil die Einordnung der Followerlisten in Fake / Non-Fake sehr schwierig ist. Natürlich existieren sehr viele Indikatoren für eben „schwierige“ Ansätze innerhalb einer Accountstruktur und diese sind Ungleichgewichte in den Zahlen, komische Kommentare, aber mal ganz ehrlich: es gibt durchaus Menschen, die wie die Irren unfassbar vielen anderen Menschen folgen, dann gibt es Accounts, die ohne Verantwortung oder „Zutun“ eben Ziel von Spamcommentattacken werden. Mir passiert sowas ständig, den Kund_innen ebenfalls und ich sehe da immer wieder automatisch generierte Comments aus eben auch der Feder deutscher Accounts aus der Berater_innenszene, der Socialmediaberater_innen und selbstverständlich auch völlig normale Firmen. Das hängt auch damit zusammen, dass viele eben diese Werkzeuge wie „Ninjagram“ verwenden und die Hoffnung hegen, dass abgesetzte Kommentare Aufmerksamkeit erzeugen.
Also: „Fakes“ sind definitiv nicht sauber und extrem eindeutig identifizierbar und das gilt auch für den Kauf oder das oben beschriebene Zusammenschnorren. Also quält mich eine Frage: Wieso existieren stark moralisierende Argumente rund um ein nicht nachprüfbares Thema? Ich erkenne keinerlei Logik in der eigenen Geschäfts- und Dienstleistungsaufwertung, wenn nicht überprüfbare Followerlisten als pauschal „sauber“ deklariert werden und das via Behauptung schlichtweg „nur“ in den Raum gestellt wird.

Ob nun diese Positionierungsvariante edel, gut, moralisch einwandfrei oder sogar „praktikabel“ ist, muss und soll jeder Mensch für sich selbst entscheiden. Mir steht das Erheben des moralischen Zeigefingers nicht zu, würde aber das eventuelle Einsatzszenarium immer wieder neu bewerten und während eines eventuellen Schnorrens / Einkaufens unbedingt auf folgende Dinge achten:

(1) Absolut saubere Contentqualität.
(2) Klare, deutliche und zielgruppengenaue Kommunikation.
(3) Natürliche Marketingmaßnahmen

Fragen, Gedanken, Hinweise? Gern über Kommentar oder via Telefonat. Ich suche übrigens tatsächlich händeringend nach einem sauberen Followerlistenauswertungsalgorithmus.

Woher kommt der Traffic? (Socialmedia-Analyse(n))

Vor ein paar Tagen nahm ich mir etwas Weiterbildungszeit und sichtete diverse WWW-Marketing-Wochenabschlussbeiträge. Zur Info: diese besondere Art der Blogbeiträge beschreibt meistens eine Wochenzusammenfassung an besonders faszinierenden Links und externen Beiträgen. Aus logischen Gründen stand aktuell meistens Facebook und / oder die generelle Arbeit mit den Socialmedia im Fokus und ich wurde aufmerksam / munter, als ich das Dokument „Pinterest, Google, & Instagram big winners as Facebook share of visits falls 8% in 2017“ von Shareaholic da gesehen hatte und hier ist eine Klischeesituation aufgefallen:

[1] Eine Autorität veröffentlicht Beobachtungen
[2] Eine Subautorität nimmt die Beobachtungen daher, ergänzt diese um einige Anmerkungen
[3] Unfassbar viele Dienstleister_innen nehmen die Inhalte aus [2], um diverse Existenzberechtigungen herbei zu argumentieren und sog. „hochwertigen Content“ zu produzieren.

Der gemeinsame Nenner zwischen [2] und [3] ist hier – ganz im Sinne der Klischees – das bewusste Nicht-Hinterfragen der Thesen aus [1], da man es ja mit einer wahnsinnig anerkannten Autorität zu tun hat. Ich erkenne jedenfalls keinerlei Logik in dieser faszinierenden Gangart und Branchenautoritäten müssen sich jedezeit hinterfragen und fachlich kritisieren lassen. Aus meiner Perspektive generiert sich genau aus diesem Merkmal die Berechtigung des Labels „Autorität“ und es ist mir schleierhaft, warum gefühlt sämtliche Autoritäten der Marketingbranchen den fachlichen Konflikt meiden.

Wie auch immer und zurück zum Shareaholic-Artikel kommend.
Ich unterstelle Shareaholic aus sehr guten Gründen eine gewisse Grundkompetenz bzgl. der Aus- und Bewertung von Socialsignals, nur befinden sich im Beitrag diverse Lücken:

[1] Keine Offenlegung der analysierten Seiten.
[2] Keine Offenlegung der Länder und Zielgruppen zu den analysierten Seiten.
[3] Keinerlei Offenlegung der zeitlichen Entwicklung der Signals / Socialbewegungen über den kompletten Zeitraum von 2017.
[4] Keinerlei Offenlegung der Datenerhebungsmethoden.

Gerade der 4. Punkt wirkt auf mich – vorsichtig formuliert (!) – mehr als verwirrend und ich frage mich, warum den DACH-Kolleg_innen nicht aufgefallen ist, dass Instagram schlichtweg keinerlei Möglichkeiten zur Analyse von Traffic von externen (also: nicht selbst betreuten!!!) Seiten und Projekten liefert: es existiert keine einzige Möglichkeit, mit Schnittstellen / API-Endpoints den Traffic von völlig unbetreuten Accounts zu deren Webseiten zu erfassen. Da frage ich mich: Wie hat das Shareaholic geschafft und wo genau befindet sich da die Dokumentation? Diese sehe ich nicht und Querchecks via Google und diverse „Nerd“-foren ergab keinesfalls eine Problemlösung.

Es bleibt also folgende Frage offen: Warum bewirbt man mit völlig intransparenten Datenerhebungen ein Socialmedium zum Zwecke der Trafficgenerierungsansätze? Ich sehe hier keinerlei Logik oder sogar Gesprächsgrundlage für diese oder jene Projekte.

Genau diese Problematik beschäftigte mich die letzten 2 Tage und das Ergebnis entsprechender Gedankengänge ist:

[1] Instagram
Der Traffic via Instagram lässt sich definitiv nicht sauber monitoren, wenn keinerlei Zugriff auf eine hinreichend große Accountmasse (Hier: alle Themen, Länder, Branchen etc.) besteht. Man kann also nur mit Hilfe der Indikatoren hier Analysen anstellen und ich wage die Formulierung folgender Thesen:

(a) Der Traffic ist hoch, wenn möglichst viele Interaktionen auf den Postings der jeweiligen Accounts identifizierbar sind, wobei hier zwischen Botgesteuert und „Organisch“ zu unterscheiden ist.

Quellen:
Beiträge aus „Interaktionenprojekt
InstagramAPI (Endpoint -> Likes)
InstagramAPI (Endpoint -> Comment -> Get)

(b) Der Traffic kann hoch werden / sich gut entwickeln / ist hoch, wenn die Postings der jeweiligen Accounts entsprechend „mächtige“ Hashtags verwerten.

Quellen:
Beiträge aus „Hashtagprojekt
Datenbanken zu „Hashtagprojekt“
InstagramAPI (Endpoint -> GetTag)

Werden über die bekannten und dokumentierten API-Endpoints bspw. zu Instagram die notwendigen Daten erhoben, stellt man sehr schnell etwas „Lustiges“ fest:
Die Datenmassen können zwar extrem umfangreich sein, jedoch bilden Diese immer einen recht kleinen Moment aus dem Universum von Instagram ab. Sie lassen sich maximal im Rahmen der Datenbankinhalte verwerten und können keinesfalls Aufschluss über unbekannte Themen und Untersuchungsobjekte liefern. Dann weiter: die Verwertung dieser technischen Schnittstellen zeigt ab einem gewissen Punkt die Begrenztheit, weil eben diese Endpoints nur eine begrenzte Menge an Abfragen zulassen. Instagram ist hier recht liberal oder „großzügig“, andere Socialmedia jedoch nicht (siehe: Twitter und die Retweet / Tweetzählproblematik).

Fazit zu Instgram:
Absolute Aussagen zu „Traffic“ im Vergleich zu den anderen Socialmedia lassen sich nicht sauber generieren, man arbeitet da mit „Vermutungen“ und die Sauberkeit eben dieser Vermutungen / Prognosen hängt ab von:
– Offenlegung der Erhebungsverfahren
– Gegenprobe via API-Endpoints
– Menge der erhobenen Daten aus „API-Endpoints“ inkl. deren inhaltlichen Breite
Diese Sachen sehe ich weder im o.g. Report, noch in den Szenecontentmarketingaktivitäten.

[Andere Socialmedia außerhalb von Instagram]
Am 6.12.2013 fand ich Gelegenheit, ein Projekt fertig zu stellen. Dieses ist auch Bestandteil unserer Monitoringaktivitäten und begutachtet die Socialsignalentwicklungen aus Facebook, Twitter und Pinterest. Früher empfand ich noch die Notwendigkeit, Google-Plus zu beobachten und die entsprechende Funktion wurde im Laufe der Jahre eingestellt, da besagtes Medium eine extrem untergeordnete Rolle spielt. Die Kernidee hinter dem Projekt entstand eigentlich bereits in den Jahren 2010-2011, als wir – aus einem Zufall heraus – die Socialmedia (damals primär Twitter und Friendfeed) als spannendes Promomittel entdeckten und hierüber geradezu euphorisierende Rankingeffekte (einhergehend mit Traffic und Umsatz) produzieren konnten. Es war damals für alle Beteiligten absolut sichtbar und klar, dass selbstverständlich Traffic über die verwerteten Socials organisierbar IST und aus dieser Beobachtung leitete ich damals (!) folgende These ab:

Der Traffic via Twitter, Facebook u. anderen ist von der Sichtbarkeit abhängig und die Sichtbarkeit der der Postings ist abhängig von den Interaktionen auf dem Posting.

Die Thesenverifikation lässt sich via Quercheck auf die Interaktionszähltools und entsprechende APIs realisieren, wobei man hier selbstverständlich in regelmäßigen Abständen Prüfungen durchzuziehen hat.

Twitter: https://opensharecount.com/
Pinterest: https://api.pinterest.com/v1/urls/count.json?callback%20&url=deineurl.org
Facebook: https://www.kickstartcommerce.com/use-facebook-graph-api-get-count-url-likes-shares-comments.html

Obwohl ich dazu neige, bspw. aus den Socialsignalszahlen generelle Trafficprognosen abzuleiten, neigt die liebe Anne Lehmann hier zu einer gewissen „Erbsenzählerei“ und sie zwang mich irgendwann dazu, eine weitere Gegenprobe funktion zu suchen. Diese fand ich in dem Ansatz über die Bit.ly-API und unser Monitoringwerkzeug erfasst diese Zahlen parallel zu den Daten aus den genannten Interaktions/Signalszähler. Hierbei muss natürlich beachtet werden, dass ein (relativ) sauberes Trafficmonitoring nur dann funktioniert oder „aufgeht“, wenn die begutachteten Projekte eben auch mit Bit.ly-URLs arbeiten.

Fazit aus meiner „Arie“.
-> Manche oder viele Autoritäten verdienen zwar einen gewissen Vorschuss an Vertrauen, jedoch muss die Autorität hinterfragbar sein und diese Vorraussetzung ist nicht gegeben, wenn Datenerhebungswege oder Grundlagen dieser oder jener Thesen nicht offen gelegt werden.
-> Der kritiklose Umgang mit „Studien“ und / oder Autoritäten birgt die Gefahr von falschen und gefährlichen Strategien im Onlinemarketing.

Fragen? Anmerkungen?