Cambridge Analytica und das Problem der Datenverwertungen

Derzeit ist ja die Geschichte rund um Cambridge Analytica und deren „speziellen“ Art der Datenverwertung im Gespräch und das animierte mich zu tiefergehenden Gesprächen mit dem „Netzwerk“. Überall wird ja geschrieben, dass das Unternehmen Daten aus dem FB-Universum abgegriffen und natürlich werden hier auch stark moralisierende Bewertungen gesprochen und geschrieben.
So einfach, wie das Ganze dargestellt ist, ist das (leider) nicht.
Facebook öffnet über spezielle und auch sehr gut dokumentierte API-Endpoints Möglichkeiten, die gesammelten Daten zu sichten, zu speichern, zu verarbeiten und zu bewerten.
Nicht nur Facebook liefert diese Zugangswege: Ähnliches findet man für Twitter, Tumblr, teilweise G+, Pinterest und einem deutschen „Spezialmedium“. Nun bleibt für mich nun auch die Frage offen, wer in diesem Spielchen nun der „Buhmann“ ist. Ist das Facebook und sind das weitere Socialmedia?
Ich denke: nein. Sicherlich müssen sich die etablierten Socialmedia Kritiken bzgl. der Intransparenz zu den gesammelten Daten gefallen lassen und natürlich fühlt es sich – menschlich betrachtet – nicht gut an, zu „ahnen“, dass große virtuelle Räume Daten sammeln und auswerten. Aber ich beobachte seit ca. 2010, dass sämtliche Socialmedia inkl. der geschlossenen (Posterous, Friendfeed) selbstverständlich etwas anbieten, was völlig problemlos über Recherchen nach „API“, „API-Endpoint“ oder sogar „Developer Center“ analysierbar ist und der aktuelle Skandal sagt nahezu überdeutlich aus, dass einzelne Marktteilnehmer_innen selbstverständlich die gegebenen Möglichkeiten nutzen und hieraus sogar Kapital schlagen. Nun frage ich mich, warum gesellschaftlich Facebook – trotz aller (legitimer) Kritik – der Bösewicht ist und nicht die Akteure, welche eben die unfassbar gut (nahezu exzellent) dokumentierten Endpoints nutzen. Wieso ist dieses offene Problem überhaupt entstanden?

Nunja: ich habe hierzu folgende Thesen:

(a) Das Beschäftigen mit den APIs und den Datensätzen ist ein komplett neues Betätigungsfeld.
(b) Der Markt verlangt bewusst nicht die Auseinandersetzung mit den abholbaren Datensätzen.
(c) Die Komplexität des Managements und der Interpretation von extrem großen Datensätzen bindet zuviele Ressourcen

Gerade eben telefonierte ich mit einem langen Kunden / Geschäftsfreund und er warf ein interessantes Argument in die Diskussion: er hat moralische Bedenken bzgl. der Tatsache, dass Facebook (und andere Socials) eben auch ihn selbst / seine Person und seine Daten ja schlichtweg weiter verarbeitet. Ich bin ähnlicher Ansicht, meine aber auch, dass die kritikfähige Weiterverarbeitung MEINER Daten etwas ist, was ich per Logik oder Studium der AGB oder simplen Beobachtungen verifizieren kann. Ich kann mich quasi jederzeit nahezu problemlos mit eben diesen Sachen auseinander setzen und entsprechend damit umgehen. Ein anderes Problem habe ich (und auch er) mit der Interpretation von Datenpaketen, die auch meine Angaben / Inhalte betreffen und da frage ich mich:

(a) Wo befinden sich szeneinterne Analysen?
(b) Wo befinden sich szeneinterne Studien inkl. deren Kritik aus der Öffentlichkeit inkl. Rohdatenfreigaben?
(c) Warum argumentiert die Szene auf basis von Infografiken und warum „glaubt“ die Szene Angaben aus dem Hause „Facebook“?
(d) Warum finden keine oder nur extrem wenige Experimente zum Zwecke der Erforschung des FB-Universums statt?

Hier sehe ich unsere Branche in der Pflicht und käme man hier mal in die Gänge, liessen sich unfassbar viele Probleme effektiv lösen und diese bewegen sich eben auch in eingeschränkten organischen Reichweiten, die sich offensichtlich nicht logisch erklären lassen. Diese bewegen sich auch in dem Dilemma, dass gefühlt Reichweite aufbaubar ist / wäre, wenn man an Facebook Geld gibt, um erscheinen zu dürfen … nur macht man sich da „gefühlt“ moralisch angreifbar, weil man eben mit intransparent erhobenen und verwerteten Datensätzen arbeitet?

Dann weiter: die Wobus & Lehmann GbR besteht aus zwei Hauptakteure und wir erheben mit einem relativ überschaubaren Aufwand Daten aus den APIs, arbeiten mit diesen und leiten aus den Erkenntnissen selbstverständlich Beobachtungen und Strategien ab. Gerade deswegen wirkt die aktuelle Diskussion auf mich mehr als befremdlich, denn: wenn wir mit den problemlos und relativ schrankenlos abgreifbaren Datensätzen arbeiten, machen das selbstverständlich auch andere. Also: warum die Aufregung? Warum die öffentliche Verwunderung dazu, dass offensichtlich diese oder jene Firmen Daten erheben und damit arbeiten?

Die zukünftigen Diskussionen werden sicherlich spannend. ;-)


Weitere Artikel.

https://www.web-3-null.de/index.php/facebook-datenschutz-cambridge-analytica/
https://t3n.de/news/video-cambridge-analytica-tricks-992121/?utm_content=buffer3cfce&utm_medium=social&utm_source=facebook.com&utm_campaign=buffer
http://www.spiegel.de/netzwelt/web/cambridge-analytica-der-eigentliche-skandal-liegt-im-system-facebook-kolumne-a-1199122.html
https://www.internetworld.de/onlinemarketing/facebook/schwere-krise-facebook-zuckerberg-schweigt-1524753.html