Instagram-API, Zugriffe und Prozeduren

Hashtaganalyse
https://api.instagram.com/v1/tags/search?q=[tag]&access_token=[token]
– gibt den gesuchten Tag und sämtliche Vorschläge zzgl. der Häufung aus
– Achtung: die ausgegebenen Zahlen können je abfragende IP verschieden sein

Weitere Funktionen und Dokumentation gibts direkt bei Instagram / API-Console.

Die Datensätze und die Häufungen der Tags werden in den Komplex „Marktrecherche / Interessensmatrix“ aufgenommen und ein Update des Algorithmus wird für den 29.03.2015 anvisiert.

Pinterest: Interne Recherche & Trends auslesen (Update)

Pinterest bietet mehrere Möglichkeiten der Analyse und Trendrecherche.

✔ https://de.pinterest.com/explore/[suchwort]/

Die „Explore“-Funktion beschreibt im Wesentlichen die interne Suche auf dem Medium „Pinterest“. Zwecks Trend- und Interessensprüfung analysiert man die Begriffe, welche unterhalb des Suchschlitzes stehen. Diese zeigen die Querverbindungen zwischen den „Interessen“ und „Themen“.

✔ https://de.pinterest.com/source/[domain]/

Die „Source“-Funktion zeigt alle Pins, welche aus einer Domain stammen. Hier lässt sich nachprüfen, wie stark oder wie gut abgefragt bestimmte Angebote (=> Produkte, Dienstleistungen) eines Projektes im Bereich von Pinterest sind. Hierbei ist natürlich zu analysieren, welche weitere Indikatoren für eine besondere „Werthaltigkeit“ sprechen, Diese sind:
– Repins (https://de.pinterest.com/pin/[pinnummer]/repins/)
– Likes (https://de.pinterest.com/pin/[pinnummer]/likes/)

Eine weitere interessante Möglichkeit der Recherche nach Trends oder „Interessensgebiete“ liefern die Suchvorschläge. Automatisiert abgefragt ergeben sich die folgenden Ergebnisse:

[Metaebene „Urlaub“] Download urlaub.xlsx
[Metaebene „Schlafzimmer“] Download schlafzimmer.xlsx
[Metaebene „Badezimmer“] Download badezimmer.xlsx

Der technische Vorgang der Datenrecherche geht von dem hauptsächlichen zu optimierenden / zu vermarktenden Gebiet (Kategorie, Branche etc.) aus und prüft per Suchabfrage die „unten stehenden“ Vorschläge gegen. Diese findet man in den Tabellen jeweils in der zweiten Spalte (B). Die entsprechenden Ergebnisse lassen sich nun in Beziehung zur „Metaebene“ stellen (siehe erste Zeile) und mit Hilfe der Suchfunktion weiter analysieren (Spalte 3 bis X).

Erweiterung: Markt- und Zielgruppenanalyse (Anwendung)

Die KW-Rechercheanwendung wird zeitnah um die Anbindung an Gplus und Twitter in Form einer „Gegenprobe“ erweitert. Hierbei wird analysiert:
– Werden die extrahierten Wortkombinationen in den Social Media verwendet? Falls ja, von wievielen unterschiedlichen Accounts in welchem Zeitfenster?
– Werden die extrahierten Frageformulierungen in den Social Media verwenden? Falls ja, von welchen Accounts mit Direktlink auf die gestellte Frage.

Die Datenquelle „Gplus“ lässt sich wiefolgt ansprechen:
https://content.googleapis.com/plus/v1/activities?query=[deinefrage]&key=[deinapikey].

Diese Funktionen werden Bestandteile der „Premiumversion“ und sind demzufolge aus der Freeware ausgeklammert.

Planungen: Recherche von Fragen und Antworten

An dieser Stelle möchte ich mich herzlich (!) bei den vielen Betatestern bedanken, die das Tool „Suchvorschläge“ herunter geladen haben und benutzen. Die eingetroffenen Rückmeldungen sind zum Teil sehr beeindruckend. Aus diesem Anlass heraus habe ich mich zu einer Erweiterung der Software mit diesen Features entschlossen:

  1. Fragenrecherche bei G+, Facebook und Twitter über deren APIs
  2. Erfassung der „Frageentwicklung“ (Zeitpunkt)
  3. Erfassung der Antworten bei spez. „gutefrage.net“

Recherchen über SocialMedia – Facebook

In der letzten Zeit tauchten bei uns immer häufiger Fragen nach der Werthaltigkeit von Facebook als Kommunikations- und Werbekanal auf. Zentrale Punkte bei den Gesprächen ist immer die Suche nach den Antworten folgender Fragen:

1.) Wie finde ich auf Facebook eine interessante Zielgruppe?
Die Zielgruppenrecherche ist bei diesem Medium relativ einfach. Wenn man sich am „richtigen Leben“ orientieren möchte, schaut man sich natürlich an, in welchem Umfeld die zu bewerbenden Produkte und Dienstleistungen verwendet und eingesetzt werden. Es erscheint als logisch, dass man in Wohneinrichtungsseiten Menschen findet, welche gern Einrichtungsgegenstände wie Möbel, Wandschmuck oder allgemeine Kleingeräte aus dem Bereich Wohnen & Leben einkaufen. Man muss hier prüfen, wie aktiv die nun identifizierte Zielgruppe ist, wie kommunikationsstark sie ist und welche Themen besprochen werden. Aus diesen Überlegungen ergeben sich diverse Merkmale, welche ich gern als „Qualitätsindikatoren“ bezeichne.

a) Themengewichtung
Die gefundenen und zu beobachtenden FB-Seiten zeigen ja – das ist ihre Natur – diverse Inhalte aus dem Bereich, wo man Werbung betreiben möchte. Die Frage nach der Unterscheidung „wichtiges“ oder „unwichtiges“ Thema lässt sich einfacher beantworten, wenn man sich die Reaktionen auf die Themenpräsenz anschaut und hier kommt die Zielgruppe in den Fokus. Die Zielgruppe … die aktiven Accounts haben drei interessante Interaktionsmöglichkeiten: Like, Share und Comment. Hier lassen sich nun diverse Gewichtungen anstellen und ich rate nicht zu einer subjektiv geprägten Auf- und Abgewichtung dieser Interaktionsvarianten, da diese verschiedene Signale – in einem eventuell nicht kalkulierbaren Mix – eine völlig verschiedene Wirkung zeigen können. Nach einigen Experimenten und gut – bei den Suchmaschinen – positionierten Facebookseiten haben wir die Erfahrung gemacht, dass der Schlüssel zum Erfolg in der dauerhaften Kommunikation zu suchen ist. Kommunikationsstarke oder aufwändigere Interaktionen sind die Shares und Comments, also müssen im Rahmen der „Themengewichtung“ Gründe für gut kommunizierte Posts gefunden werden.

b) Kommunikationsgewichtung
Bei der Gewichtung der einzelnen Kommunikationsprozesse lege ich viel Wert auf die konkreten Inhalte. Also hier ist für mich interessant, ob, welche und wie viele Fragen, Anforderungen oder allgemeine Sätze zu den einzelnen Themen seitens der „Fanbase“ geäußert werden. Analytisch betrachten bedeutet bspw. viele Fragen das Vorhandensein vieler Probleme rund um die gezeigten Themen, Produktvorstellungen und ggf. vorhandene Unternehmensneuigkeiten. Dasselbe gilt natürlich auch für eine Häufung diverser Vulgärausdrücke.

Die Zusammenfassung aus den Punkten a) und b) kann (natürlich abhängig vom individuellen Fall) folgende Todos ergeben:
I) Beantworte alle offenen Fragen der beobachteten Facebook-Seiten.
II) Begebe Dich auf dasselbe sprachliche Niveau, auf dieselbe sprachliche Ebene der gefundenen Zielgruppe.
III) Spiele mit Strategien, welche Kommunikation in Form von „Comments“ anregen. (Was meint Ihr dazu? Wie ist Eure Meinung hierzu?) Interessant kann hier auch das geschickte Verwerten von Klischees sein.
IV) Bettele niemals um Likes, Shares und Comments auf Deiner eigenen Seite, wenn diese Strategie in Deinem Bereich unüblich ist und / oder diese Form im Vergleich zur Qualität Deiner Produkte und Dienstleistungen eher unangemessen ist und beziehe bei einer eventuellen Verwendung der Bettel-Strategie die Zielgruppenbeobachtung mit ein: die Zielgruppe kann sich hierzu in anderen Situationen und auf den Seiten des Wettbewerbs deutlich dazu äußern.

2.) Wie erhöhe ich kostenlos die Reichweite meiner eigenen Seite?
Ich hatte einmal eine interessante Situation erlebt: ausgehend von unserem Lostplaces & Urbexfotografie – Experiment teilte ich einen externen Beitrag (nicht Facebook-extern, sondern außerhalb der eigenen Seite innerhalb von Facebook) auf die Lostplaces-Page. Die Sharemotivation entstand aufgrund einer sehr hohen vorhandenen und sichtbarer Teilfrequenz (siehe die fortlaufende Zahl „Shares“ …). Was war passiert? Die Reichweite hatte vervierfacht, es wurden weitere – externe – Personen als Fans akquiriert und es entstand neue Kommunikation. Dieser Effekt konnte einige Male im Klientengeschäft reproduziert werden und ich empfehle an dieser Stelle einen Blick auf die – sich unter den typischen FB-Posts befindlichen – Icons: ein Klick auf die „Share-Aufzählung“ zeigt nämlich dem interessierten Publikum, WER den Beitrag denn geteilt hat. So etwas produziert Aufmerksamkeit. Aber Achtung: es gibt hier natürlich keine Garantie für eine dauerhafte Reichweitenetablierung und der Fanaquise – die eigenen Zahlen dürften optimierbar sein, sofern die Basis (siehe Ausführungen zu a) und b)) passt.

3.) Wie bekomme ich eine Facebook-Seite in das Google-Ranking?
Wenn die Basis funktioniert, die Kommunikationsprozesse etabliert sind und sonstige „Hausaufgaben“ erledigt sind, taucht immer die Frage nach der Traffic & Fanaquise über den Kanal „Google“ oder „Extern“ auf. Die Positionierung lässt sich immer lösen, indem man die bekannten SEO-Offpage-Strategieansätze anwendet, also:
a) Die Fanpage muss verlinkt werden.
b) Die Galerien, die Kategorien etc. der Fanpage können im Rahmen des Linkaufbaus verarbeitet werden.
c) Die Fanpage „freut“ sich über externe „Social-Signals“.

Weiter lesen:

Facebook-Search-API, Datenrecherche

piXologisch Socialtracker 0.10b freigegeben

Die aktuelle Version wurde um die folgenden Funktionen erweitert:

[Wizard]

Der Wizard soll die Tag/Hashtagrecherche ausgehend von einer Metaebene erleichtern. Das Feature wird entweder via [Strg]+[W] oder über das Hauptmenü Programm=>Wizard aufgerufen. Hier ist das Projekt auszuwählen und das Metaebenen-Keyword einzutragen. Nach der Aktivierung der – dort hinterlegten – Datenquellen (aktuell: Twitter und GPlus) und der Wahl der auszuführenden Funktionen wird der Analyseprozess via „Analyse“ gestartet.

Zu den hinterlegten Funktionen:

„Tag-Filter / Häufung“ beschreibt die Aktivierung der Filterfunktion aus den jeweiligen Tag-Tabellen. Hierbei werden die dort ausgelesenen Tags/Schlagworte zusammen gezählt. Die „Minimalhäufung“ bietet hier eine Ausfilterungsfunktion und sagt aus „Filtere Tags mit einer Häufigkeit von XYZ“.

„gen Zusammenfassung“ verlangt eine vorherige Ausfilterung der Gplus- und Twittertags und realisiert den socialmediaübergreifenden (hier: Twitter und Gplus) Abgleich – es wird hier geprüft, welche Tags auf allen hinterlegten SocialMedia identifizierbar sind.

„gen. G-Suggest aus Filter“ verlangt ebenso eine Ausfilterung der Tags und gleicht die Ergebnisse mit der Google-Suchvorschlagsapi ab.

„Ergebnisse speichern“ speichert sämtliche Ergebnisse in den Ordner /export/projektname mit jeweils dem aktuellen Datum.

[Report]

Neben dem Abspeichern der jeweiligen Rechercheergebnisse in Standard – CSV erlaubt die Anwendung die Generierung von Reports in Form HTML-Dokumente. Die entsprechenden Funktionen befinden sich im Reiter „Report“ und die Reports werden im Stammordner der Anwendung abgelegt. Reportbeispiele für die Metaebene „Suchmaschinenoptimierung“: report (html), report (pdf). Einige Hinweise auf eine mögliche (!) Interpretation der gefilterten Hashtags gab ich im Beitrag „Analyseprozeduren und Interpretationsansätze„.

[Gplaces]

Diese Funktion bedient die Google-Places-Schnittstelle und steht (derzeit) unter einem starken „Beta-Status“. Sie ist aktuell in der Lage, nur (!) Einträge aus besagtem Service anhand der einzugebenden Branche und geographischen Umkreis zu extrahieren. Sie ist in der aktuellen Version des „Socialtracker“ als „experimentel“ zu begreifen und ab der Version 0.11b werden Bewertungen aus Gplaces in einen geeigneten Marktrecherchealgorithmus integriert. Einen ersten Einblick in mögliche Anwendungsszenarien gab ich im Beitrag: „Gplaces-auslesen„.

[Allgemeines]

Die (Hash)tagrecherche ist abhängig von einer Zugriffslimitierung und kann fehlerhaft sein, wenn eben die „Konten“ aufgebraucht sind. Ebenso können Abbrüche oder Fehler auftauchen, wenn mehrere Installationen sich ein und dieselben API-Accounts teilen. Selbstverständlich kann eine lückenlose Erreichbarkeit der API-Services und Scripte nicht garantiert werden.

[Todos / Ausblick auf die Version 0.11b]

  1. Stapelverarbeitung auf Gplaces zzgl. Bewertungsauslesemechanismus
  2. Diagramm / bildliche Darstellung: (Hash)tag-verlauf, G-Suchvorschlagsentwicklung etc.
  3. Einbindung weiterer Socialmedia (hashtagbasierend). In der aktuellen Überlegung: Tumblr, Youtube und Friendfeed
  4. bei Twitter: Filterfunktion nach Accounttyp (Analyse: manuelles Twittern, Twittern mit Software, Influencerrecherche)
  5. bei Twitter und Gplus: Accountbeobachtungen
  6. Weiterführung der Textanalyseexperimente (Reiter „Texte“).

[Hinweise]

Der „Socialtracker“ wird derzeit nicht als Freeware, Testversion oder Sonstiges herausgegeben. Nachfragen oder Supportanfragen oder Anfragen über z.B. die Interpretation der o.g. Reports werden nicht beantwortet. Ausnahmen bilden persönlich bekannte Kollegen, professionelle Anwender und Kunden der Wobus & Lehmann GbR.

Socialtracker v.0.8b fertig gestellt …

Die aktuelle Version beinhaltet neben allgemeinen kosmetischen Veränderungen die folgenden frischen Funktionen:

[Konfiguration]
Angaben zur Konfiguration wie API-Keys, Datenbanken und Verweise auf Datenquellen etc. werden Schritt für Schritt auf den Reiter „//=>Konfiguration“ ausgelagert. Aktuell ist hier die Beschreibung der Stopword-Datei und die Definition der Mindestzeichenanzahl für G-Suggest, Gplus-Hashtaganalyse und Textanalyse aktiv.

[Zusammenzählung der „Social Signals]

Diese Funktion verlangt das Anlegen eines Projektes (keine Sonderzeichen, Leerzeichen etc.) via Funktionsleiste => „Projektmanagement“.

Das Programm erwartet hier den Import von kompletten Linklisten. Diese werden entweder über das Hauptmenü „Import“ (Linkliste) abgeholt oder über die Optionsleiste (Datenquellen). Bei den Datenquellen lassen sich drei Optionen auswählen:

a) Sitemap-URL
– Konstruktionen mit Sitemapverschachtelungen sind aktuell nicht (!) erfassbar, es gilt: eine Sitemap => eine URL-Liste
b) XOVI
– für diese Quelle ist die Hinterlegung eines gültigen XOVI-API-Codes zwingend erforderlich.
– Auslesen sämtlicher bei Xovi erfassten Links zu einer URL
– bitte die korrekte URL-Schreibweise beachten: manchmal funktioniert ohne www, manchmal ist www erforderlich
– Ausgabelimit ist (fest verbaut) 1500 URLs
– Scrapeprozess kann, je nach Umfang, relativ lange dauern
c) Sitemap-Datei
– funktioniert wie a) und erfordert eine lokal abgespeicherte XML-Sitemap

Nach der Datenquellendefinition und dem Scrapeprozess hat man die Möglichkeit, die verschiedenen Socialmedia via deren Statistikservices oder API-Lösungen auszulesen. Dies geschieht über die Funktionsleiste:

a) Facebook
– Auslesen von Like, Click, Share, Comment plus Zusammenzählung
– direkte Anbindung an Facebook

b) Twitter
– Auslesen der Tweets zu den URLs
– direkte Anbindung an Facebook

c) Gplus, Pinterest, Delicious
– Auslesen besagter Services über die API eines kostenfreien Drittanbieters
– BETA-Status und kein abschließender Entschluss bzgl. der Weiterverwertung des Anbieters
– je nach Auslastung wird „N/A“ ausgegeben

d) „Alles“
– Auslesen sämtlicher SocialSignals über API des Drittanbieters
– BETA-Status

Nach Auswahl der Analysefunktionen und Bestätigung mit Hilfe des Buttons „Check“ wird die Zählprozedur gestartet. Hier gilt, dass der Berechnungsaufwand entsprechend des Listenumfangs hoch oder niedrig sein kann. Die Analyseergebnisse befinden sich im Reiter SocialSignals => Daten / Auswertung in tabellarischer Form. Der Übertrag in ein Diagramm findet über Hauptmenü => Auswertung => Social-Signals statt.

[Textanalysen]
Die Textanalyse befindet sich im Reiter „Texte“. Sie verlangt die Eingabe eines Textes und erledigt die üblichen Analyseprozeduren wie Keyworddichte und WDF. Sie befindet sich teilweise im Beta-Status.
Eine besondere „Datenquelle“ für diese Funktion ist der Facebook-Scraper (Button FB-Scraper). Nach Betätigung erscheint ein untergeordnetes Fenster, welches die Eingabe einer Facebookseite (nur Name, erkennbar in der URL einer FB-Seite) verlangt. Hier werden die Statusmeldungen gescraped und in die Hauptfunktion übertragen.
Die Datenbasis der „Textanalyse“ lässt sich über die Angabe „Ignoriere Keys mit < XX Häufung“ anpassen. Ergebnisse aus dieser Analysefunktion lassen sich mit Hilfe der bekannten Hashtaganalyse und G-Suggest gegenprüfen – man möchte schließlich erfahren, welche Worte auch tatsächlich verwendet werden. Die Verbindung zwischen den beiden Features findet man im „Popup-Menü“ (Rechtsklick auf die Ergebnistabelle).

a) Analyse => Hashtaganalyse
– Übergabe der ersten Spalte (also: gefilterte Keys) an die Hashtagfunktion
– Ergebnisse lassen sich über den Button „+Hashtag“ zusammenführen
b) Analyse => G-Suggest
– Übergabe der ersten Spalte an die G-Suggestfunktion
– (aktuell) keine Zusammenführung der Ergebnisse

Download: socialtracker_08b.zip

[Dateisystem]
Die angelegten Projekte befinden sich im Unterordner „projekte/[projektname]“. Hier werden Sitemap-Url und URL-Listen abgelegt. Die Ergebnisse aus dem Komplex „SocialSignals“ befinden sich im Ordner „reporting/[typ]/[projektname]“ in jeweils html oder csv-Format mit beigefügtem Datum. Im Ordner „config“ befindet sich die „Stopword“-Datei, welche entweder hier oder im Programm unter „Konfiguration“ bearbeitet werden kann.

[Bekannte Fehler]

  1. keine Durchgehende Ausfilterung leerer Zeilen beim SocialSignal-Tracking (Bitte mehrmals bedienen)
  2. Datenübertragungsfehler bei SocialSignals zu Diagramm

[Todo]

  1. Anbindung der Datenquellen Twitter und Gplus an den Komplex „Textanalyse“ und geeigneter Abgleich der Ergebnisse
  2. Hashtaganalyse auf Twitter und Abgleich Gplus <> Twitter
  3. saubere Reports auf PDF-Basis zzgl. Layoutfunktion
  4. fortlaufende Beobachtung der Trends aus den Socialmedia

Es gilt auch hier, dass Support und Einweisungen ausschließlich den Kunden der Wobus & Lehmann GbR gewährt wird. Ausnahmen sind nur bei interessanten Beta-Testern möglich, wobei wir hier uns die Akteure genauer anschauen werden.

Kommunikations- und Marktanalysen: neue Software in Planung

Nach den letzten Google-Updates, Erkenntnisgewinnungsprozessen und vielen Gesprächen entschloss ich mich dazu, die üblichen Beobachtungsprozeduren in Form eines geeigneten Algorithmus durchzuprogrammieren.

Ich gehe hierbei von den folgenden Grundvorraussetzungen aus:
1. Die Suchmaschinenoptimierung ist nur zum Teil kalkulierbar.
2. Die Suchmaschinenoptimierung verfügt über Techniken, welche Informationen schnell und effektiv in das Blickfeld potentieller Käuferschichten „trägt“.
3. Die Suchmaschinenoptimierung ist in seltenen Fällen mit einem konkreten Vermarktungskonzept verbunden oder folgt transparenten / berechenbaren Arbeitsabläufen.
4. Die Effektivität der Suchmaschinenoptimierung ist abhängig vom Verhalten der anvisierten Zielgruppen.

Die Zielsetzung eines Recherchealgorithmus soll also sein:

1. Zielgruppenidentifikation
Hierbei wird auf der Metaebene (also Kategorieebene bei eCommerceanwendungen) nachgeforscht, auf welchen Medien (also: global – Blogs, News, Foren etc.) in welchem Zeitraum über ein Produkt oder eine Produktgruppe kommuniziert wird. Die Kommunikationsformen wird hierbei in neutrale Kommunikation und in konkreten Fragestellungen unterteilt. Hierbei unterstelle ich, dass:
a) eine hohe Kommunikationsfrequenz eine hohe Werthaltigkeit eines Angebotes, eines Produktes etc. abbildet
b) eine hohe Frequenz an Fragestellungen eine potentielle Käuferschicht abbildet

2. Bedarfsidentifikation
Wenn die Anwendung gebrauchsfähig ist und sich im Einsatz befindet, findet im Rahmen diverser Beratungsgespräche eine grobe Vorauswahl der wesentlichen Keywordsets statt. Hierbei werden die folgenden Variablen erfasst:
a) Produkt oder Dienstleistung?
b) schwach / mittelschwach / stark / extrem stark erklärungsbedürftiges Produkt
c) grobe Vorauswahl der FAQ

3. Werbeflächenidentifikation
Ich betrachte den SEO-typischen Link- und Netzwerkaufbau als einen Prozess, welcher i.d.R. auf die Organisation von Werbeflächen und Kommunikationspartnern hinausläuft. Hier wird der Algorithmus konkrete Entscheidungshilfen produzieren, welche sich am Kommunikationsverhalten der anvisierten Zielgruppen orientiert. Die Theorie sieht im groben so aus:
a) die Orte, wo am meisten kommuniziert wird, sind potente Linkspender
b) die Orte, wo am meisten über die zu verkaufenden Produkte und Dienstleistungen kommuniziert wird, sind potente Link- und Trafficspender

4. Trendidentifikation
Durch eine fortlaufende Analyse bzgl. einzelner Keysets lässt sich also nachvollziehen, auf welchen Medien Kommunikation entsteht und – ganz besonders – auf welchen Medien eine Kommunikation startet und wie diese sich entwickelt. Hieraus lassen sich Trends ablesen, welche Aufschluss über weitere Marketingmaßnahmen oder SEO-Kanäle geben.

Zusammengefasst wird das Produkt eine bedarfsabhängige Nutzwertanalyse (ggf. gewichtete) ausgeben können, welche Aufschluss über weitere Handlungsschritte geben kann. Es erscheint bspw. als logisch, dass in bestimmten Anwendungsgebieten eine News-Recherche oder auch Socialmedia-Recherche gegenüber einer Forenrecherche abgewichtet werden kann: die Entscheidung hierüber wird üblicherweise in den Beratungsgesprächen zwischen Auftraggeber und Auftragnehmer gefällt.

Ich halte das Produkt bewusst modular, so dass später bei Bedarf Erkenntnisse aus den bekannten „Social-Media“ via API-Zugriffe gewonnen werden können.

Betatester und kollegialer Austausch ist natürlich immer herzlich willkommen! Ich bitte allerdings darum, dass die Kommunikation btr. Betatestmöglichkeiten und Einblick in die Datenstudien generell über Anne Lehmann => anne(at)pontipix.de geregelt wird. Ausnahmen bilden unsere Klienten.

Werthaltigkeitsanalysen – wie bekommt man heraus, welches Keyword „profitabel“ ist?

Eines der größten Probleme der SEO ist die Identifikation von wirtschaftlich werthaltigen Phrasen und Keys. Unterstellt man eine optimale Ausgangssituation des zu bewerbenden Objektes in Form von technischer Sauberkeit und „ordentlich“ aufbereiteten Inhalten, wäre eine mögliche Analysestrategie die Folgende:

A) „Real Life“

1.) Wie groß ist der Wettbewerb zu Produkt XYZ?

Nachforschen kann man hier über die Plattformen eBay, Amazon oder Google-Shopping.

2.) Wieviele Produkte vom gleichen Typ oder ähnlichem Typ werden verkauft und wie hoch ist die Neueinstellungsfrequenz?

Hier gilt:

– je mehr artverwandte Produkte angeboten werden, desto mehr „Markt“ kann man unterstellen

– je höher die Einstell- und Änderungsfrequenz je Produkt ist, desto „lebendiger“ ist der Markt

3.) Wie hoch ist die Preisspanne?

Hier gilt:

– je höher die Preisspanne von preiswerten Produkt zu teuersten Produkt, desto „lebendiger“ ist der Markt

4.) Tagespresse

Es hilft natürlich immer in der Bewertung von Produkten, die aktuelle Presse zu beobachten. Wenn bspw. Elektronikgeräte in großen Zeitschriften beworben werden, kann von einer potenten Zielgruppe ausgegangen werden. Wenn Negativberichte publiziert werden, lassen sich hier auch Abstriche an der Werthaltigkeit der zu bewerbenden Produkten erkennen …

B) Internet, Wettbewerbssituation im WWW

Hier gilt:

– Positionsentwicklungen: eigenes Projekt vs. Wettbewerb

– „globale“ Indexierungsentwicklungen: eigenes Projekt vs. Wettbewerb (je nach Bedarf auch je Tag / Woche / Monat)

– Analyse von Indexierungsfrequenzen des Wettbewerbes via „site:domainname.de intitle:produkt“ usw.

– Beobachtung von Social Media (Blogs, Facebook etc.) => je häufiger ein Produkt besprochen wird, desto höher ist die unterstellbare „Werthaltigkeit“.

Besondere Recherchefälle wären hier:

1) SEM-Aktivitäten

Wir schauen uns hierbei an, wer zu welchem Zeitpunkt – gemessen an einer Woche / einem Monat – zu den jeweiligen Keys auf welchen Werbeplätzen steht. Hieraus kann man vor allem die wirtschaftliche Gewichtung von Keys und konkrete Käuferverhalten ablesen. Es gilt hierbei: je häufiger ein Key auf Pos.1 beworben wird, desto mehr Käufer der beworbenen Produkte im Beobachtungszeitraum (Mittags, Nachmittags, etc.). Je mehr Anbieter sich um die Top-Positionen „bewerben“, desto höher ist die Werthaltigkeit, die den Produkten unterstellt wird.

2) Produkt- und Firmenbewertungen

Interessante Contentlieferanten sind neben der üblichen Bewertungsportale natürlich auch die Rezensionen aus Amazon, Google-Sellerpages oder eBay-Händlerbewertungen. Hier gelten für uns die folgenden Zusammenhänge:

– je höher die Bewertungspublishfrequenzen, desto werthaltiger das Produkt

– je gemischter die Bewertungen (schlecht bis gut), desto „interessanter“ das Produkt, wobei man hier von „echten“ Bewertungen ausgehen „darf“

– je „natürlicher“ die Konsumenten / Händlerkommunikation, desto „werthaltiger“ das Produkt

– je weniger Problemfälle in den Bewertungen, desto „werthaltiger“ und „hochwertiger“ das Produkt

3) Kleinanzeigenmärkte

Hin und wieder nutzen wir große und bekannte Kleinanzeigenmärkte zu einer groben Recherche. Angebotene Produkte mit stark fallenden Preisen gegenüber der marktüblichen Preise können auf Probleme hindeuten, viele Gesuche nach Produkten und Dienstleistungen deuten immer auf eine große Nachfrage hin.

Was macht man nun mit den zu gewinnenden Zahlen und Erkenntnissen? Im Prinzip entwirft man eine projektbezogene Nutzwertanalyse und realisiert so einen fortlaufenden Beobachtungs- und Bewertungsmechanismus.

Die o.g. Liste lässt sich je nach Entwicklungen und Tendenzen weiterführen. Ganz bewusst habe ich hier die Benutzung diverser Trafficdatenbanken und Google-Tools ausgeklammert. Das bedeutet nicht, dass diese Applikationen unwichtig oder gar ignorierbar sind: ich nutze diese allerdings nur zum Gegencheck gewonnener Erkenntnisse.

Die piXologisch Easypromo in der Premiumversion analysiert aktuell nur die üblichen SEO-Variablen (Positionen- global und lokal, SEM-Aktivitäten, Alexa, Pagerank, SI, usw.). Eine Weiterführung der Monitoringmodule ist hier in Planung.

Du hast Fragen zu den Werthaltigkeitsanalysen? Du suchst allgemeinen Erfahrungsaustausch? Kontakt: info(at)pixologisch.de / 0176-67472781.

über Sinn und Unsinn diverser Contentdiskussionen

Die obligatorische Forenlektüre förderte einmal wieder diverse virtuelle Diskussionen rund um das Thema „Contentqualität“ zu Tage. Hier ist auffallend, dass zu häufig wie folgt argumentiert wird:

  1. Guter Content ist ein Garant für eine optimale Position, Traffic und Umsatz.
  2. Guter Content ist unique-Content.
  3. Guter Content automatisiert den Linkaufbau auf „natürliche“ Weise.

Im Rahmen meiner SEO-Aktivitäten frage ich mich immer wieder, wie man „guten“ Content eigentlich im Detail erkennt und definiert. Wirklich interessanter und werthaltiger Inhalt ist ein auf die Befriedigung diverser Bedürfnisse zugeschnittener. Um die Bedürfnisse der zu bedienenden Zielgruppe überhaupt zu erkennen, bedarf es einiger Recherchearbeiten:

  1. Trendidentifikationen via Keywordtool, Google-Trend
  2. Langzeitbeobachtungen: entstehen Produktrezensionen, Produktbewertungen, Firmenbewertungen auf Bewertungsportalen und Shoppingplattformen wie eBay und Amazon?
  3. Medienanalyse außerhalb des WWW, also TV, Radio und Zeitschriften
  4. Kommunikationsanalyse- und beobachtung der Fanpages diverser Mitbewerber

Man kann also die folgenden Schlüsse ziehen:

  1. je mehr Kommunikation in Form von Bewertungen zu Produkt XYZ existieren, desto werthaltiger ist ein Produkt
  2. je werthaltiger ein Produkt ist, desto umfangreicher sind Bewertungstexte
  3. je farbiger die Wortwahl der Bewertungstexte ist, desto umfangreicher ist die Liste der zu optimierenden Keywords
  4. ausformulierte Bewertungstexte zeigen ein Sprach- und Suchverhalten und der kleinste gemeinsame Nenner zeigt die zu optimierende Phrasen
  5. hohe Publikationsfrequenzen von Rezensionen, Bewertungen und allgemeine Meinungsäußerungen etc. zeigen eine (mögliche) hohe „Werthaltigkeit“ diverser Keywords welche sich in den Produkten und Produktbeschreibungen wieder finden

Inhaltsdiskussionen und Publishaktivitäten sind in Verbindung mit einem Blick auf das „reale Leben“ also relativ einfach. Ich beobachte und teste hin und wieder diverse Social-Media-Analyse-Services wobei ich hin und wieder feststelle, dass eine vollumfängliche softwarebasierte Beobachtungslösung nicht existiert und der vorhandene Markt meine / unsere Bedürfnisse nicht abdecken kann. Es wäre also denkbar, dass ich die piXologisch EasxyPromo hier um einige Monitoringfeatures erweitere …