Über Netzwerke und deren Rolle im Linkaufbau

Wie viele sicherlich festgestellt haben, hat sich der „Spamjäger“ der Firma „Google“ einmal wieder zu Wort gemeldet und hier die „Entwertung“ komplexerer Linknetzwerke angekündigt. Im Vergleich zu früheren Wortmeldungen ergab sich hier eine besondere Qualität: es wurde gezielt auf eine Linkstruktur einer oder mehrerer SEO-Agenturen hingewiesen.

Unabhängig von diversen – z.T. sehr emotional geführten – Diskussionen in diversen Blogs und Foren und nach einer intensiven Analysephase komme ich zu ganz eigenen Erkenntnissen und Gedankengängen.

Die Entwertung komplexerer Linknetzwerke ist nicht „neu“ und gehört zum täglichen Geschäft

Mit Beginn der besonderen „Rolle“ der Firma „Google“ entwickelte sich ein besonderes Interesse an der Manipulation der Rankingergebnisse mit Hilfe diverser Strategieansätze in den Bereichen Onpage, Offpage, Whitehat und Blackhat sowie weiterer „Spielarten“. Hierdurch entwickelte sich die Branche der „Suchmaschinenoptimierung“ mit entsprechenden „allgemeingültigen“ Strategieansätzen hinsichtlich des Linkaufbaus. Es erscheint als logisch, dass sich zu irgendeinem Zeitpunkt ein quasi „Kleinster gemeinsamer Nenner“ zwischen einer großen „Mannschaft“ an SEOs bzgl. der Wahl diverser – vermeintlich profitabler – Varianten der Suchmaschinenoptimierung ergeben wird. Beispiele hierfür wären der Einsatz von „Social Bookmarks“, „Blogcomments“ mit Hilfe der „Scrapebox“, massives Twitterspamming, automatisierte Katalogeinträge oder auch das (halb)automatische Absenden von PR-Meldungen zzgl. „harter“ Verlinkungen.

Im Laufe der Zeit oder der „Existenz“ der „Szene“ entstanden mehr oder weniger brauchbare Analysetools mit dem Ziel, die Verlinkungen / Vernetzungen von bspw. Wettbewerbsauftritten zu analysieren: sicherlich verstärkte die Einführung solcher Reportingsysteme irgendwann die Entwicklung diverser Linkaufbautrends.

Irgendwann entstand ein gewisses Legitimationsproblem: durch die natürliche Weiterentwicklung des Internets und des Nutzerverhaltens ergab sich eine Lücke zwischen vielen SEO-Techniken und der relativ „flüchtigen“ Bedürfnisse potentieller Suchenden / Kunden: Socialbookmarks, Kataloge und extrem lange / aufgeblähte Blogcommentlisten wurden nicht mehr so intensiv konsumiert.

Was ist danach passiert? Im Gegensatz zu viel Gerüchten und Verschwörungstheorien ist die Firma „Google“ selbstverständlich nicht das quasi-personifizerte Internet. Diese Firma beansprucht lediglich das völlig legitime Recht, mit Hilfe des Internets Geld zu verdienen und strebt durch diverse Personalentwicklungen, technischen Entwicklungen oder Entwicklungen diverser Zusatzservices nach Perfektion (zugegeben: ich zolle Respekt). Also stelle ich die folgenden Thesen auf:

Die Firma „Google“ entwickelt sich anhand des Internets weiter und orientiert sich hierbei an den spezifischen Bedürfnissen der Nutzer.

Diese These kann man mit der Tatsache des Aufkaufs von Youtube und Blogger.com untermauern. Dasselbe gilt für die Entwicklung eines eigenen Socialmedia-Services (Google+) und der phasenweise Abgewichtung veralteter – also nicht oder wenig beachteten – Medien. Weitere Hinweise lassen sich auch in den „Webmaster Richtlinien“ nachlesen: hier gibt die Firma „Google“ bspw. den Hinweis, dass Angebote und Produkte etc. für „richtige“ Menschen zu entwickeln und zu vermarkten sind.

Die Firma „Google“ zwingt niemanden einen speziellen Willen, spezielle Nutzverhalten etc. auf.

Eigene Projekte und viele Auftritte diverser Klienten zeigen immer wieder, dass die Verwertung von bspw. Google Analytics oder Webmastertools zwar enorm hilfreich sein kann (Benutzerführung, Aufbereitung der Datensätze etc.), jedoch keine Pflicht darstellt: Unterschiede bei Rankingeffekten zwischen verwendeten G-Services und einer bewussten Ausklammerung sind nicht erkennbar. „Google“ wird es sicherlich „gut“ finden, wenn zum Zwecke der Werbung, der Positionierung oder zur Kommunikation möglichst viele Menschen bspw. Google+, Youtube oder die Shopping-Suchmaschine nutzen: einen direkten Zwang kann ich hierbei nicht erkennen.

Was gilt es nun zu beachten? 

Ich bin derzeit (auch) der Meinung, dass sich die „Branche“ oder die „Szene“ der Suchmaschinenoptimierung verändern muss. Persönlich kann ich mich mit einer weiteren Ausdifferenzierung in Unterformen mit lustigen und hochintelligent klingenden „Berufs“bezeichnungen nicht anfreunden. Will die SEO wieder im Sinne der Nachhaltigkeit agieren, wird eine intensive Beschäftigung mit dem – offenbar – „unbekannten“ Wesen genannt „Leser“ oder „Kunde“ notwendig. Hierfür existieren vielfältige Prozeduren und Strategieansätze. Ich bevorzuge bspw. eine Trendgegenprüfung über stark frequentierte „SocialMedia“ wie Instagram, Facebook und Twitter in Form von „Nutzwertanalysen“. Man kann über eine solche „klassische“ Nutzer & Marktanalyseprozedur folgendes nachprüfen:

  1. welche Angebote werden konsumiert
  2. existieren Probleme rund um diverse Angebote (sichbar durch Bewertungen, Comments)
  3. sind Angebote im Trend (sichtbar durch Bewertungs- und Commentfrequenzen)
  4. wo halten sich Zielgruppen auf (sichtbar durch Commentfrequenzen auf Socialmedia, Plattform, System – XYZ)

Eine mögliche Hilfestellung kann der von mir hier veröffentlichte „Socialmedia-Tracker“ bieten und über Anbindungsmöglichkeiten an Auswertungsschnittstellen habe ich mich in diesem Beitrag geäußert.

Folgt man einen Nutzer- und problemlösungsorientierten Ansatz, ergibt sich in der sogenannten „Onpageoptimierung“ folgende mögliche Handlungsanweisung:

  1. Beantworte in deinen Produktbeschreibungen mögliche – und vorher identifizierte – Fragen.
  2. Rede mit deinen Kunden und erfahre hier Probleme, Sorgen, Schwierigkeiten.
  3. Beantworte Fragen und löse Probleme ausführlicher und qualitativ besser als Deine Wettbewerber.
  4. Automatisiere Datenerhebungsprozeduren, aber NICHT die Dateninterpretation
  5. Stelle – bei Bedarf (erklärungsbedürftige Dienstleistungen, Produkte etc.) – Dich persönlich vor und beantworte mögliche Fragen persönlich.

Ausgehend vom Analytischen / Konzeptionellen Ansatz ergeben sich folgende Tipps in der Offpagestrategiewahl:

  1. Werde Dir bewusst, dass jegliche Linksetzungen u.U. als Eingriff in die Algorithmen der Suchmaschinen interpretiert werden können und somit die Grenze zwischen „Blackhat“ und „Whitehat“ verschwimmt.
  2. Verzichte auf Linktausch, Linkkauf, Artikeltausch und Artikelkauf anhand von Metriken wie Pagerank, Alexa-Rank oder Sichtbarkeitsindizes und achte – sofern die genannten „Stilelemente“ gewählt werden – nur und ausschließlich auf die Besucherströme Deiner potentiellen Linkspender.
  3. Entwickle ein mehrsäuliges Linksetzungskonzept, welches stark an das Kommunikationsverhalten Deiner anvisierten Zielgruppen ausgerichtet ist.
  4. Verzichte auf Standards und auf schwach frequentierte Linkspendertypen (Socialbookmarks, zugespammte Blogs, usw.)

Was zeichnet ein „mehrsäuliges“ Linksetzungskonzept aus?

Ein solches Konzept besteht aus einer Anzahl von völlig unabhängig voneinander existierenden Linkspender und Kommunikationslinien. Es ist in der Lage, eventuelle Schwankungen – gezeigt durch phasenweise Abgewichtung oder Aufgewichtung von Medien – aufzufangen und abzufedern.

Ich werde auf diesem Blog bei Gelegenheit einige mögliche Varianten in Skizzenform darstellen. Anfragen und Kontaktwünsche werden selbstverständlich gern unter anne(at)pontipix.de oder info(at)pixologisch.de entgegen genommen.

 

 

 

Keywordrecherche v.0.2b (Google – Suchvorschläge) fertig gestellt.

Es handelt sich hierbei um eine fehlerbereinigte Version. Die Funktionen:

  1. Orte / Bundesländer
  2. Ausgabe der Volumina

wurden entfernt.

Die Bedienung dieser Anwendung funktioniert wiefolgt:

  1. Eingabe „Projektname“
  2. Eingabe der zu analysierenden Keywords
  3. Auswahl der Sprache (Deutsch per default)
  4. Druck auf „Analyse“

Die Projektnamen und die beigeordneten Keywordlisten werden automatisch gespeichert (Ordner: \projekte) und die Analyseergebnisse / Ausgabe der Keywordalternativen befinden sich im Tabellenobjekt „Analyseergebnisse“.

Download:keywordrecherche.zip

Weitere Informationen zu G-Suggest:

http://www.akm3.de/blog/google-suggest-chancen

https://support.google.com/websearch/answer/106230?hl=de

Auch hier gilt, dass kein Support geliefert wird oder Anfragen zur Bedienung der Anwendung oder Fragen hinsichtlich der Dateninterpretation beantwortet werden. Ausnahmen bilden Klienten der W&L – GbR.

piXologisch SocialTracker 0.1b

Aufgrund einiger Nachfragen und Diskussionen in diversen Foren entschloss ich mich zur Umsetzung einer Basis-Socialmonitoring-Anwendung. Ziel ist hierbei die Realisierung einer gewissen Unabhängigkeit von den üblichen SEO-Werkzeugen, daher werden die Ergebnisse u.a. über die bereitgestellten APIs von Facebook, Twitter & Co. eingelesen.

Die Bedienung dieser Version funktioniert wie folgt:

[Datenimport]

  1. Hauptmenü => Linkliste => Freitext
  2. Hauptmenü => Linkliste => EasyAnalyzer

Die 1. Version öffnet ein weiteres Fenster, worin die zu analysierenden URLs hinein kopiert werden können. Die 2. Version importiert sämtliche Reportdatenbanken aus dem Programm „Trafficanalyzer“ (Rankingreports und Backlinkreports).

[Bedienung]

Nach dem Datenimport der Linklisten muss das zu analysierende „Medium“ ausgewählt werden. Hierbei gibt es die Wahl zwischen Facebook, Twitter, G+ als „Einzelposten“ und einer Komplettübersicht. Nach Betätigung des Button „Check!“ wird der Analysevorgang ausgelöst.

Bitte beachten:

  1. Je nach Umfang der Linklisten dauert der Analysevorgang (>=500 Elemente ca. 10 Minuten bei der Komplettübersicht).
  2. Das Programm kann sich während des Analysevorganges „aufhängen“: hier weiter laufen lassen.
  3. Der Datenimport beinhaltet eine Gegenprüfung auf doppelte Einträge und löscht Diese.

Die Reports befinden sich in den entsprechenden Unterordnern /reporting/[medium] oder /reporting/[alles] in den Formaten *.csv und *.html.

Download: socialtracker_01b.zip

Todo & angedachte Updates (alles ohne Gewähr)

  1. Projektmanagement => Zuordnung von Ergebnissen zu konkreten Domains, Objekten etc.
  2. Tagesaktueller Abgleich der Ergebnisse
  3. Präsentation der Ergebnisse in geeigneter graphischer Form
  4. Wettbewerbsabgleich
  5. Hashtaganalyse nach Metaebene / Metathema
  6. Sitemapcrawler (erledigt)

Auch bei dieser Anwendung gilt, dass ich auf keine Sonderwünsche oder Supportanfragen eingehen kann. Der Austausch ist natürlich immer gern gesehen.

Trafficanalyser 0.4b fertig gestellt

Die aktuelle Version beinhaltet neben der Anbindung an die PiWik- und XoviAPIschnittstellen die folgenden neue Funktionen:

[Backlinkchecker]

  1. Erfassen der Backlinks aus den Datenbanken von Xovi und Seokicks
  2. Gegenprobe auf die extrahierten Links => Existenzprüfung
  3. diverse Exportfunktionen => CSV, HTML, kompletter Extrakt und „existierende“ Links

[Xovi]

  1. Neue Keywords
  2. Verlorene Keywords

Diese Anwendung befindet sich in der Entwicklungsphase und wird um weitere sinnvolle Funktionen ergänzt:

  1. Positionsprüfer: auf XOVI- und PiWik-Keys und „Livecheck“
  2. globale Datenbanken, dauerhafte Backlinkerfassung und Existenzprüfungen

Download: analyze.zip

Die Bedienung und Verwendung der Software erfolgt selbstverständlich auf eigenes Risiko, Support wird nur gegenüber unseren Klienten geleistet. Ich bin natürlich offen für den sinnvollen Austausch: Kontakt unter anne(at)pontipix.de.

Kommunikations- und Marktanalysen: neue Software in Planung

Nach den letzten Google-Updates, Erkenntnisgewinnungsprozessen und vielen Gesprächen entschloss ich mich dazu, die üblichen Beobachtungsprozeduren in Form eines geeigneten Algorithmus durchzuprogrammieren.

Ich gehe hierbei von den folgenden Grundvorraussetzungen aus:
1. Die Suchmaschinenoptimierung ist nur zum Teil kalkulierbar.
2. Die Suchmaschinenoptimierung verfügt über Techniken, welche Informationen schnell und effektiv in das Blickfeld potentieller Käuferschichten „trägt“.
3. Die Suchmaschinenoptimierung ist in seltenen Fällen mit einem konkreten Vermarktungskonzept verbunden oder folgt transparenten / berechenbaren Arbeitsabläufen.
4. Die Effektivität der Suchmaschinenoptimierung ist abhängig vom Verhalten der anvisierten Zielgruppen.

Die Zielsetzung eines Recherchealgorithmus soll also sein:

1. Zielgruppenidentifikation
Hierbei wird auf der Metaebene (also Kategorieebene bei eCommerceanwendungen) nachgeforscht, auf welchen Medien (also: global – Blogs, News, Foren etc.) in welchem Zeitraum über ein Produkt oder eine Produktgruppe kommuniziert wird. Die Kommunikationsformen wird hierbei in neutrale Kommunikation und in konkreten Fragestellungen unterteilt. Hierbei unterstelle ich, dass:
a) eine hohe Kommunikationsfrequenz eine hohe Werthaltigkeit eines Angebotes, eines Produktes etc. abbildet
b) eine hohe Frequenz an Fragestellungen eine potentielle Käuferschicht abbildet

2. Bedarfsidentifikation
Wenn die Anwendung gebrauchsfähig ist und sich im Einsatz befindet, findet im Rahmen diverser Beratungsgespräche eine grobe Vorauswahl der wesentlichen Keywordsets statt. Hierbei werden die folgenden Variablen erfasst:
a) Produkt oder Dienstleistung?
b) schwach / mittelschwach / stark / extrem stark erklärungsbedürftiges Produkt
c) grobe Vorauswahl der FAQ

3. Werbeflächenidentifikation
Ich betrachte den SEO-typischen Link- und Netzwerkaufbau als einen Prozess, welcher i.d.R. auf die Organisation von Werbeflächen und Kommunikationspartnern hinausläuft. Hier wird der Algorithmus konkrete Entscheidungshilfen produzieren, welche sich am Kommunikationsverhalten der anvisierten Zielgruppen orientiert. Die Theorie sieht im groben so aus:
a) die Orte, wo am meisten kommuniziert wird, sind potente Linkspender
b) die Orte, wo am meisten über die zu verkaufenden Produkte und Dienstleistungen kommuniziert wird, sind potente Link- und Trafficspender

4. Trendidentifikation
Durch eine fortlaufende Analyse bzgl. einzelner Keysets lässt sich also nachvollziehen, auf welchen Medien Kommunikation entsteht und – ganz besonders – auf welchen Medien eine Kommunikation startet und wie diese sich entwickelt. Hieraus lassen sich Trends ablesen, welche Aufschluss über weitere Marketingmaßnahmen oder SEO-Kanäle geben.

Zusammengefasst wird das Produkt eine bedarfsabhängige Nutzwertanalyse (ggf. gewichtete) ausgeben können, welche Aufschluss über weitere Handlungsschritte geben kann. Es erscheint bspw. als logisch, dass in bestimmten Anwendungsgebieten eine News-Recherche oder auch Socialmedia-Recherche gegenüber einer Forenrecherche abgewichtet werden kann: die Entscheidung hierüber wird üblicherweise in den Beratungsgesprächen zwischen Auftraggeber und Auftragnehmer gefällt.

Ich halte das Produkt bewusst modular, so dass später bei Bedarf Erkenntnisse aus den bekannten „Social-Media“ via API-Zugriffe gewonnen werden können.

Betatester und kollegialer Austausch ist natürlich immer herzlich willkommen! Ich bitte allerdings darum, dass die Kommunikation btr. Betatestmöglichkeiten und Einblick in die Datenstudien generell über Anne Lehmann => anne(at)pontipix.de geregelt wird. Ausnahmen bilden unsere Klienten.

Linkprüfer – Prüfung auf Existenz von Verlinkungen

Diese kleine Anwendung kann gefundene Linkspender auf die tatsaechliche Existenz der gesetzten Links überprüfen. Die Datenquelle ist hier „seokicks“.

Download:  _linkpruefer

Eine Erweiterung auf Datenimport via Webmastertools und XOVI ist geplant. Denkbar wäre auch der Übertrag des Backlinkcrawlers aus der piXologisch EasyPromo.

Fragen etc. bitte direkt an anne(at)pontipix.de stellen.

piwik – Offlineanalysetool fertig gestellt (Version 0.1b)

Die aktuelle Version (Freeware) kann man hier(zip) herunter laden. Durch die Umstellung unserer Projekte von Google-Analytics auf PiWik hatte ich Gelegenheit, mich näher mit der PiWik-Api zu beschäftigen. Die aktuelle Version kann:

1. Livecheck => letzte 5 bis 50 Minuten (5-Minutenfrequenz)
2. Keywordcheck => je Datum, Frequenz: Tag, Woche, Monat
3. Check – verweisende Webseiten => je Datum, Frequenz: Tag, Woche, Monat
4. SEO-Check: Index Google und Bing, Alexarank, Pagerank

Eine Auswertung in Form von Diagrammen etc. ist (derzeit) nicht möglich.

Zukünftige Versionen bekommen folgende Funktionen:

1. Graphische Auswertungen
2. Alerts plus PopUp-Fenster => bei Trafficänderungen zu „gestern“, „vorgestern“ etc. => frei konfigurierbar
3. SocialMediaanalysen
4. Besucherwegausgabe => Klick durch die Unterseiten plus Aufenthaltsdauer auf den Unterseiten

Es wird zukünftig wieder zwischen Freeware und Premiumversionen unterschieden. Letztere wird die Datensätze lokal speichern können.

piXologisch EasyPromo 6.0 kurz vor der Fertigstellung

Aufgrund der letzten Google-Updates und neuerer Erkenntnisse habe ich mich zu einer grundlegenden Umarbeitung der piXologisch EasyPromo entschieden. Die nächste Versionsnummer wird umfassen:

  1. Eintrags- und Promohilfen für Gästebücher und RSS-Kataloge zzgl. Reporting
  2. Analyse- und Recherchefunktionen: Keywordrecherche mit Hilfe von G-Suggest
  3. Reaktivierung von Pingdiensten und automatischen Updates
  4. Linkspender / Linkgeberrecherche mit Hilfe der „Footprints“
  5. Erfolgskontrollen / Backlinkkontrollen (via Xovi, eigener Scraper und Seokicks)
  6. Komplette Einbindung der Xovi-API
  7. Textgenerator / Textumschreiber (via MS-Office Thesaurus, Openthesaurus, Spinningsyntax)

Anfragen, Nachfrage etc. bitte direkt an Anne Lehmann: anne(at)pontipix.de senden.

 

piXologisch EasyTextgenerator v.0.1b fertig gestellt

Aufgrund einiger Nachfragen habe ich mich zur Freigabe dieser Software als „Freeware“ entschieden. Diese kann:

  1. Texte mit Hilfe vom MS Office Thesaurus „umschreiben“
  2. Texte mit Hilfe der MS Office Rechtschreibprüfung bearbeiten

Ich habe die aktuelle Version auf Office 2010 getestet. Fehler, Bugs etc. erscheinen bei Office-Testversionen und Office-Starterpaketen.

Download: textgenerator.zip