Google-Trends, Auslesen: Update

https://trends.google.com/trends/api/widgetdata/multiline/csv?req={"time":"2019-01-27 2020-01-27","resolution":"WEEK","locale":"de","comparisonItem":[{"geo":{"country":"DE"},"complexKeywordsRestriction":{"keyword":[{"type":"BROAD","value":"hannes"}]}}],"requestOptions":{"property":"","backend":"IZG","category":0}}&token=[DeinToken]&tz=-60

Die URL lässt sich bei GTrends nach entsprechender Analyse des Downloads via G-Chrome -> Netzwerk nachvollziehen. Eine quasi-dynamische Generierung entsprechender URL-Listen via Quelle „Keywords“ ist möglich und ich denke heute über eine Integration in das InstaLOC-Reportingsystem nach.

Hinweis(e):

csv? -> json? entspricht dem Exportformatwechsel.

Google-Shortner API mit PHP

Im Laufe der Arbeiten an der Midrub-API entschied ich mich zur folgenden Lösung zwecks Kürzen der Links (Produktlinks, Affiliatelinks).

$api_key = 'deinapikey';
$request_data = array(
'longUrl' => 'deeplink'
);
$curl_obj = curl_init(sprintf('%s/url?key=%s', 'https://www.googleapis.com/urlshortener/v1', $api_key));
curl_setopt($curl_obj, CURLOPT_RETURNTRANSFER, true);
curl_setopt($curl_obj, CURLOPT_POST, true);
curl_setopt($curl_obj, CURLOPT_HTTPHEADER, array('Content-type: application/json'));
curl_setopt($curl_obj, CURLOPT_POSTFIELDS, json_encode($request_data));
curl_setopt($curl_obj, CURLOPT_SSL_VERIFYPEER, false);
curl_setopt($curl_obj, CURLOPT_SSL_VERIFYHOST, false);
$response = curl_exec($curl_obj);
$json = json_decode($response);
curl_close($curl_obj);
$shortLink = get_object_vars($json);
echo "Shortened URL is: ".$shortLink['id'];
die();

Interessant: Google, die Influencer und ein (neues) Patent

Heute entdeckte ich einen seltenen Nutzen von Xing: Meine bereinigte Filterblase informierte mich über einen interessanten Artikel auf dem Online-Angebot von SEO-Südwest.
Hier geht es um ein Patent von Google, das einzelne Menschen, Institutionen oder auch Firmen mit einer konkreten Metrik verbindet, welche bspw. den Influencergrad abbildet oder abbilden kann. Die Idee einer solchen Berechnung ist nicht unbedingt neu: Alle unsere Analysefunktionen und Algorithmen aus dem Pinterest-, Instagram- und Social-Signals-Komplex beruhen auf dieser gedanklichen Grundlage.

Originalquelle und Patentbeschreibung

Google-Suchvorschläge auslesen (API, Script)

Neulich hatte ich Gelegenheit, das Auslesen von Suchvorschlägen auf eine Webanwendung auszulagern. Das Ergebnis ist:
$wort = $_GET["abfr"];
function getKeywordSuggestionsFromGoogle($keyword) {
$keywords = array();
$data = file_get_contents('http://suggestqueries.google.com/complete/search?output=firefox&client=firefox&q='.urlencode($keyword));
if (($data = json_decode($data, true)) !== null) {
$keywords = $data[1];
}
return $keywords;
}
echo implode("
",getKeywordSuggestionsFromGoogle($wort));

Bei der Benutzung dieser API fällt folgendes auf:
– der Vorschlagsalgorithmus reagiert (derzeit) extrem spät (bis zu 5 Tage!) auf aktuelle Themen und Trends
– die konkrete Berechnung oder die Basis der Ergebnisse ist nicht geklärt und das „Warum wird etwas gezeigt?“ lässt sich nicht beantworten.
– die Ergebnisse von Abfragen aus verschiedenen IP-Adressen (auch Orte, Bundesländer etc.) „wirken“ bei nicht-lokalen Abfragen relativ deckungsgleich

Ausgehend von diesen Beobachtungen kann ich derzeit nicht empfehlen, diese API als primäre Recherchequelle für Trends oder die Werthaltigkeit von Inhalten zu nutzen. Unterstellt man hinter dieser „Werthaltigkeit“ oder „Content-is-King-Phrase“ die Befriedigung des „User Intent„, hilft letztendlich nur die Tiefenanalyse der Kommunikationsinhalte in den Socialmedia, da eben hier Trends und wichtige Themen / Fragen quasi in Echtzeit oder stark zeitnah analysierbar sind.

Google-Services: API-Keys, Nutzung der Daten …

[Anleitung]

Nach der Anmeldung bei Google muss ein individuelle „Projekt“ registriert werden, was über die „Entwicklerkonsole“ erledigt wird.

  1. Klick auf „Create Project“
  2. Eingabe des Projektnamens und Bestätigung der „TOS“
  3. => Projekt wird „angelegt“ => bitte auf Fertigstellung warten
  4. Klick im Menü (links) auf „APIs & auth“ => „APIs“
  5. Aktivierung des gewünschten Services

Für die konkrete Nutzung der APIs muss natürlich der „API-Key“ generiert werden, welchen man via Klick auf „APIs & auth“ => „Credentials“ anlegen kann. Hierfür klickt man „Public API Access“ => „Create new Key“.

Für die Nutzung des „socialtracker“ ist der „Browser Key“ anzulegen („Key for browser applications“ => „API-Key“).

[Zu aktivierende Services für „socialtracker“ v.0.10b]

  1. „Places API“
  2. „Google+ API“

Die „Places API“ bedient die Funktion „Gplaces“ und ist für die Extrahierung der Datensätze und die Auswertungen von Bewertungen etc. zuständig. Die „Google+ API“ umfasst sämtliche Funktionen rund um die Hashtagauswertung und Hashtagrecherche aus dem Medium „Google+“.

Google-Places via API auslesen

In den letzten Tagen erreichte mich eine Anfrage, ob es denn möglich ist, GPlaces auszulesen. Nun ja, die Nachfrage bezog sich hier auf ein SEO-fremdes Projekt, wobei ich allerdings hier eine gewisse Notwendigkeit einer Implementierung in den „Socialtracker“ sehe.

Um das Auslesen hinzubekommen, benötigt man eine Freischaltung und den API-Key: diese Informationen bekommt man unter https://code.google.com/apis/console/. Unter dem Punkt „Services“ findet man „Places API“, was man zu aktivieren hat.

[Mögliche Abfragen]
1.) Globaler Überblick
https://maps.googleapis.com/maps/api/place/textsearch/xml?query=[geschaeft]+in+[ort]&key=[deinkey]
2.) Detailabfrage
https://maps.googleapis.com/maps/api/place/details/xml?reference=[referenz-id]&key=[deinkey]

Was kann man hiermit anfangen? Also: im ersten Schritt holt man sich über die Abfrage (1) die Inhalte bzgl. eines Ortes, einer Branche etc. ab und extrahiert die Variable „“. Diese Ergebnisse werden an die Detailabfrage (2) übergeben und hier lassen sich neben den „üblichen“ Inhalten auch die Bewertungen der jeweiligen Einträge auslesen. Die Variable hierfür ist „“. Aus den Reviews lassen sich mit Hilfe der üblichen Textanalysealgorithmen Ergebnisse generieren, welche bspw. in den „socialtracker“ einfließen werden.

Google, Updates, Netzwerkabstrafungen und allgemeine „Ratlosigkeit“

In den letzten Tagen ist es wieder einmal passiert – was?! – na: die Algorithmen von Google hatten zwei sehr wichtige Netzwerke bzw. Provider für Linkkauf „entwertet“ und demzufolge konnte man sehr zügig diverse Formen allgemeiner „Ratlosigkeit“ beobachten.

Betrachtet man nun die Historie der letzten Updates und offiziellen Meldungen seitens entsprechender Google-Mitarbeiter, stellt man sehr schnell fest, dass es sich hier um eine „Abstrafung mit Ansage“ ist. Warum? Ganz einfach: zum Einen wurden in der Vergangenheit äußerst prominente Vertreter der „Netzwerke“ abgestraft bis deindexiert und zum Anderen ist der Hinweis auf Google-mag-keine-Netzwerke äußerst prominent publiziert.

Und genau an diesem Punkt setzt meine persönliche Ratlosigkeit ein: ich frage mich derzeit, warum man trotz o.g. Effekte, Maßnahmen etc. Strategiansätze wählt, welche auf eine (offensichtliche) Algorithmusmanipulation in Form von Linkkauf und Linktausch via Netzwerke setzt. Gut, dass Laien oder „Selbstversorger“ hier Erfahrungswerte etc. nicht besitzen, ist immer irgendwo nachvollziehbar, aber es ist mir unverständlich, dass professionelle Akteure nachwievor (oder: hoffentlich bis jetzt und dann nie wieder) eben das – von mir kritisierte – Strategieelement nutzen.

Ich erlebte in den letzten Tagen Gespräche mit vielen verunsicherten Webmastern und ich empfehle derzeit Folgendes:

  1. Beschäftige Dich mit Deinen Zielgruppen VOR eventuellen Arbeiten an Deiner Seite (Layout, Inhalte)! Siehe hierzu meine Gedanken und Hinweise zu den Recherchemöglichkeiten in den „Social Media“.
  2. Entwickle Routinen und Prozeduren zur dauerhaften Zielgruppenbeobachtung und prüfe die Orte innerhalb des WWW, wo sich deine Zielgruppe bewegt oder bewegen könnte. Dies dient vor allem der Beobachtung von eventuellen Trends und besonderen Entwicklungen. Man kann hier natürlich den stark analytischen Ansatz wie in den Beiträgen zum „Socialtracker“ verwenden, in den meisten Fällen dürfte G-Alert ausreichend sein. Beschäftige Dich daher mit der optimalen Nutzung des Google-Services.
  3. Meide berechenbare Linkaufbauansätze! Man kann nicht oft genug betonen, wie wichtig diese einfach Regel ist und das „Berechenbarkeit“ natürlich auch in Zusammenhang mit „Standard“ oder „Jeder-macht-das“ und „es-hat-ja-schon-immer-so-funktioniert“ steht.
  4. Mache Linkaufbau für „richtige Menschen“ und versuche, den Linkaufbau in Form von „natürlichen“ Kommunikationsprozessen zu betreiben. Interessante Linkspender sind z.B. kommunikationsfreudige Auftritte, angenommene und geteilte Auftritte und sonstige „Auftritte“, wo Leben und Vernetzung sichtbar ist. Ansätze zur Lösung der Frage, wie man denn die Akzeptanz eventueller Linkspender herausfiltern kann, hatte ich in den Artikeln zu den „Sozialen Signalen“ grob dargelegt.
  5. Arbeite vor dem Linkaufbau – sofern keinerlei Wissen vorhanden ist oder allgemeine Unsicherheiten vorliegen – ein Marketingkonzept aus, welches die einzelnen Linkspendertypen (Blogs, Teile der Socials etc.) in Form von Kommunikationsprozessen, Kommunikation mit pot. Abnehmer deiner Inhalte / Dienstleistung / Produkte sicherstellt und Handlungsanweisungen auch in Abhängigkeit von Indikatoren (Trends, Zielgruppenverhalten, Markt allgem.) erfasst.
  6. Richte Deine Aktivitäten, das Inetmarketing, die SEO und den Linkaufbau nicht primär auf die Kategorieebene oder die Startseite aus – beachte und betrachte auch die Produkte. Warum? Man stellt ja in Webshops und Katalogsystemen Produkte vor und erhofft sich hierdurch Absatz. Es ist also unlogisch, nicht (!) über die Produkte zu „sprechen“.

 

Google Trends auslesen

Einige interessante Anfragen rund um die Recherche- und Analysetools (piXologisch Easy …. ) inspirierten mich zu einem tieferen Studium der Anbindungsmöglichkeiten von Google-Trends.

Also:

Die Grundurl, welche man mit Hilfe einer Schleife bearbeiten und übergeben kann ist:

http://www.google.com/trends/fetchComponent?hl=de-DE&q=deinsuchwort&geo=DE&cid=RISING_QUERIES_0_0

Zu sehen sind hier die Variablen „geo“ und „hl“, welche das Land und die Sprache beschreiben und „deinsuchwort“ ist der Platzhalter für die zu analysierende Phrase, wobei hier auf die korrekte Übertragung der ggf. vorhandenen Leerzeichen zu achten ist.

Die URL lässt sich erweitern:

[Export]

  1. &export=3 entspricht der Ausgabe im json-Format
  2. &export=5 entspricht der Ausgabe im html-Format

[Datum & Zeitangabe]

  1. &cid=TIMESERIES_GRAPH_0 entspricht der Ausgabe des zeitlichen Verlaufs von Zählbeginn bis „heute“
  2. &date=today%207-d entspricht die letzten 7 Tage
  3. &date=today%201-m entspricht die letzten 30 Tage
  4. &date=today%203-m entspricht die letzten 90 Tage
  5. &date=today%2012-m entspricht die letzten 12 Monate
  6. &date=1%2F2013%2012m entspricht dem Jahr 2013 (einfach die Zeichenkette austauschen)

Die Ergebnisse aus den Analyseprozeduren lassen sich wunderbar mit z.B. der Hashtaganalyse, den üblichen Textanalysemechanismen oder mit den Positionscheckern abgleichen. Ein Quercheck von den Hashtaghäufungen aus dem Socialtracker auf G-Trends wird entsprechend umgesetzt.

Weitere Infos: „Hacking the Google Trends API

Hashtags – Analyseprozeduren und Interpretationsansätze

Möchte ich eine Bestandsaufnahme über die aktuellen Hashtags aus – zum Beispiel – Google+ generieren, entscheide ich mich zuerst für die zu analysierende „Meta-Ebene“. Im aktuellen Beispiel habe ich das Feld „Urlaub“ gewählt. Hierzu übergebe ich diesen Begriff – „Urlaub“ – an die Googleplus-API mit Hilfe des APP-Code basierenden Authentifizierungsprozesses. Dieser liefert mir je nach Suchmodus (1. die letzten 20 Beiträge aus Gplus-global oder 2. die letzten 20 RELEVANTEN Beiträge aus Gplus-global) zurück. In unserem Fall wären die Ergebnisse der ersten Analyseebene die erste Spalte und erste Zeile der Urlaub-Tabelle (*.xlsx). Man sieht hier, welche Schlagworte in den Beiträgen NEBEN des Hashtags „Urlaub“ verwendet wurden und kann hier „Subtrends“ herauslesen: man schaut hier nach, wie häufig ein interessanter Begriff genannt wird. Je häufiger hier ein besonders spannender Begriff auftaucht / genannt wird, desto höher kann (!) der vermutete Bedarf an Informationen oder konkreten Produkten sein.

Der zweite Analyseschritt gestaltet sich etwas komplexer und man analysiert hierbei die „Nebenhashtags“ über die o.g. technische Umsetzung je Wort der ersten Ebene und ordnet die Ergebnisse in eine Wortmatrix ein. In unserem „Urlaubs“-Beispiel findet man die Resultate jeweils in den Spalten B bis AI. Hier schaut man sich nun die einzelnen Zellen an. Interessant im Urlaubsumfeld sind natürlich immer konkrete Länder oder Angebote. Möchte ich hier an konkrete usergenerierte Wortkombinationen gelangen, ziehe ich eine einfache Verbindung der anvisierten Zelle (U6) zur X- und Y-Achse und komme zu einer Variation, welche „Kreuzfahrten“ (U6) / „Traumreisen“ (U1) / „Privatunterkunft“ (B6) lautet. Andere interessante Beispiele sind:

  1. „berlin“ (E5) / „Tourismus“ (E1) / „Privatunterkunft“ (B6)
  2. „karawane“ (C23) / „urlaub“ (B23) / „reise“ (C1)
  3. „reisemagazin“ (E18) / „InselLaReunion“ (B18) / „Tourismus“ (E1)

Das Prüfen der Kombinationen ist natürlich nicht nur auf drei Elemente beschränkt und lässt sich auch auf 2-er Gruppen betreiben. Der Sinn der Auswertung liegt in der Natur der Hashtags, da diese ja bekanntlich nicht nur zum Setzen von Akzenten dienen, sondern auch andere potentiell interessierte Leser aufmerksam machen sollen. Darüber hinaus erhöhen sie selbstverständlich auch die Reichweiten der abgesetzten Posts.

Folgende Theorien ergeben sich aus der Analyseprozedur:

1. Verwendung von Hashtags lockt neue Leser an (verifiziert)
2. Verwendung von Hashtags erhöht die Reichweite (verifiziert)
3. Verwendung von Hashtags, welche auf die Inhalte der Posts abgestimmt sind, erhöht die Chance von Likes, Shares, Comments und Clicks (verfiziert)
4. 1-3 und Einbindung der Hashtags in Abstimmung mit den gewonnenen Ergebnissen aus der o.g. Analyseprozedur generiert die Ergebnisse aus 1-3 und neigt zur Unterstützung von Positionierungseffekten bei den SUMA, welche die Socials als Rankingkriterium nutzen (im Longtail- und Nischenbereich verfiziert, „harte“ Keys stehen aus)
5. recherchierte Tags sind „hilfreich“, wenn Diese bei WordPresskonstellationen verwendet werden (zum Teil verifiziert)

Download: Urlaub.xlsx (generiert über piXologisch Socialtracker)

[Updatelog Socialtracker 0.5b – 17.05.2014]

  1. Zusammenzählen der ersten und zweiten Analyseebene
  2. Excel- und HTML-Export

[Todo]

  1. weitere Datenquellen: Twitter und (Optional) Facebook / Instagram plus Abgleich untereinander
  2. Analyse / Log der konkreten Meldungen zzgl. Accounts
  3. Accountebene: Auslesen der Basisvariablen wie Anzahl Fans, Kreise etc. um „Influenzer“ zu identifizieren
  4. Trigger / Alertsystem: Popup, wenn Wort / Phrase „häufig“ vorkommt, ggf. automatischer Report

„Weltuntergang“? Stirbt die Suchmaschinenoptimierung nun endgültig?

Wieder einmal ist die Szene in Panik, wieder einmal tut sich die Hölle auf Erden auf. Warum? Laut Internetworld, Golem und diversen Blogs sperrt Google die „SEO-Spider“ aus und / oder plant juristische Schritte gegen die Anbieter diverser SEO-Monitoring Tools.

Worum geht es hierbei? Es handelt sich offenbar um ungewünschte Zugriffe diverser Spider, welche automatisierte Suchabfragen bei Google durchführen. Je größer und umfangreicher diese Suchprozesse sind, desto mehr Ressourcen werden bei Google verbraucht ohne dass ein geldwerter Vorteil für Google entsteht. Diese Vorgänge werden seitens Google durch entsprechende Nutzungsvereinbarungen verboten. Es war also eine Frage der Zeit, bis die Firma Google hier aktiv wird.

Welche Nachteile sind zu befürchten? Durch einen eventuellen Wegbruch anerkannter SEO-Tools verliert die Branche (leider) potente Möglichkeiten der Transparentmachung diverser Arbeitserfolge und Positionierungsergebnisse.

Um diese Probleme zu „umschiffen“, hatte ich vor einiger Zeit die „piXologisch EasyPromo“ um entsprechende Monitoringfeatures erweitert.