Update – piXologisch EasyPublish – Positionsmonitoring / Recherche

Relativ kurzfristig konnte ich eine neue Version des Modules fertigstellen. Dieses umfasst nun folgende Funktionen:

  1. Erfassen der Keywordpositionen zwischen Pos. 1 und Pos. 100
  2. Erfassen der Suchvorschläge anhand der zu analysierten Suchphrasen
  3. Erfassen der Backlinks der zu analysierten Domain mit Hilfe des Yahoo-Backlinkcheckers
  4. Erfassen der Positionsverteilung anhand der gewählten Suchtiefe
  5. Darstellung der Positionsverteilung
  6. Suchmaschinenwahl: Google-DE, Google-UK, Google-Weltweit
  7. Wahl: Suchtiefe und Suchfrequenz (in Sekunden)
  8. Report als HTML-EMail
  9. Vergleich zum Wettbewerb (Pos. 1- 3) nach Verteilung / Präsenz der ausgewählten Suchphrasen.

Das Modul ist unabhängig von „piXologisch EasyPublish“ ausführbar.

An dieser Stelle möchte ich mich für die vielen Anregungen unserer BetaTester und Kunden bedanken.

Aufbau und Funktionen der Pixologisch EasyPublish: Ein Überblick

I. Makrogenerator
II. Datenverarbeitung bzw. Datenimport
III. BlogPublish
IV. (Landing-)Page-Generator
V. Twitter
VI. Reporting und Erfolgskontrollen

I. Der Makrogenerator

Mit dieser Funktion generieren Sie Abspielskripte (Makros), die automatisch veröffentlicht werden, z.B. als Kleinanzeigen in dafür vorgesehenen Kleinanzeigenmärkten. Der Makrogenerator erlaubt es Ihnen, konkrete Kampagnen zu planen und zeitgenau auszuführen. Der Anwender hat die Auswahl zwischen verschiedenen Plattformen, die jeweils von unterschiedlichen Zielgruppen konsumiert werden.
Durch dieses gezielte Bewerben von Dienstleistungen oder Produkten wird die Domainsichtbarkeit der Mutterseiten erhöht und Backlinks generiert.

II. Der Datenimport / Datenverarbeitung

Diese Funktion übernimmt das Einlesen externer Datenquellen, u.a. RSS-Feeds, Google-Product-Feeds und (allgemeine) Produkt-CSVs. Sie enthält eine besondere Anbindung an das CMS-System Joomla und Joomla-Komponenten wie Immobiliendatenbanken, Ecommerce (VirtueMart), Joomla-Blog und WordPress. Graphische Elemte wie Produktbilder werden ebenfalls berücksichtigt.

III. BlogPublish

Mit dieser Funktion publizieren Sie via PublishMail neue Inhalte auf Blogs und Systemen, die auf der Blogtechnologie basieren.

Folgende Funktionen wurden bisher realisiert:

  • Kategorisieren von Präsenzen nach Themen
  • Publikation von Inhalten in Blogs
  • Anmelden von Internetpräsenzen in PingServices
  • Datenexport zu Virtuemart (als SQL-Datei)

Das Plugin „BlogPublish“ umfasst sämtliche Publizierungsaufgaben außerhalb des Makrogenerators bzw. des Makrospielers. Hierbei werden besondere Techniken berücksichtigt, welche das Publizieren via Email erlauben. Um das Plugin nutzen zu können, erwartet das Programm eingerichtete Präsenzen bei Blogspot.com, WordPress.org oder selbstgehostete WordPress-Installationen.

IV. Page-Generator

Der Page-Generator unterstützt Sie vollautomatisch beim Erstellen von HTML-Dokumenten, die jeweils flexibel gestaltbar sind.

Ein zentraler Bestandteil ist der LandingPage-Generator.

Folgende Funktionen wurden bisher realisiert:

  • Anbindung an Joomla-Templates
  • Anbindung an Artisteer-Templates
  • Basis-SEO: Title-Tag, Meta-Keys, Meta-Description
  • Standard-Weiterleitung auf Pages zum Original-Impressum, Kontakt, AGB u.a.

V. Twitter

Die Pixologisch EasyPublish publiziert Ihre erfassten Inhalte auf dem Social-Media-Dienst Twitter über beliebige Twitter-Accounts, die Sie bequem verwalten können. Eine Anbindung an die Bitly-API ermöglicht das Unterbringen gekürzter URLs innerhalb eines 140-Zeichen-Tweets.

VI. Report/Erfolgskontrollen

Die Reportfunktion ist das Kernstück der Pixologisch EasyPublish. Sie erfasst Veränderungen in der variablen Domainsichtbarkeit, der indizierten Seiten, des PageRanks und der KeyWord-Positionen. Die Reportfunktion ermöglicht Ihnen einen Überblick über die „Sichtbarkeit“ gesetzter Backlinks, Kleinanzeigen und Ergebnisse sonstiger Internetaktivitäten. Kunden werden nachhaltig über Fortschritte informiert anhand flexibel gestaltbarer Reports, die ihnen per eMail zugestellt werden.

Anhand der Reports der Erfolgskontrolle erhält der Kunde einen Überblick über den Fortschritt seiner SEO-Dienstleistung. Für ihn wird es erfassbar, in welcher Geschwindigkeit zu bewerbende Internetpräsenzen mit Hilfe von Pingdiensten indiziert werden und welche Auswirkungen veröffentlichte Kleinanzeigen, Verlinkungen und Pressemeldungen haben.

Folgende Funktionen wurden bisher realisiert:

  • Indexabfrage von Portalen bzgl. gesetzter „Botschaften“
  • Excel-Export
  • Basis-Diagramm
  • Mailversand in Verbindung mit installiertem Email-Client

Update: Blogpingservices

http://pingdevice.com/

=> unterstützt das Anpingen größerer URL-Listen

http://www.pingninja.com/

=> unterstützt mehrere Pingservices, kein reiner Pingsammeldienst wie bspw. „autopinger.com“

http://www.feedping.com/

Desktop-Anwendung

http://www.josephtierney.com/programs/blogpinger20.zip

Pingservices, welche ich bei Joomla-Installationen und WordPress ganz gern einsetze ..

http://ping.wordblog.de/
http://rpc.pingomatic.com/
http://blogsearch.google.de/ping/RPC2
http://blogsearch.google.at/ping/RPC2
http://blogsearch.google.com/ping/RPC2
http://api.my.yahoo.com/RPC2
http://ping.feedburner.com/
http://pinger.blogflux.com/rpc/
http://rpc.technorati.com/rpc/ping
http://xmlrpc.bloggernetz.de/RPC2
http://www.bloglines.com/ping
http://rpc.bloggerei.de/ping/
http://blogpingr.de/ping/rpc2

http://ping.wordblog.de/

http://rpc.pingomatic.com/

http://blogsearch.google.de/ping/RPC2

http://blogsearch.google.at/ping/RPC2

http://blogsearch.google.com/ping/RPC2

http://api.my.yahoo.com/RPC2

http://ping.feedburner.com/

http://pinger.blogflux.com/rpc/

http://rpc.technorati.com/rpc/ping

http://xmlrpc.bloggernetz.de/RPC2

http://www.bloglines.com/ping

http://rpc.bloggerei.de/ping/

http://blogpingr.de/ping/rpc2

GOOGLE-WEBMASTER-RICHTLINIEN

Richtlinien für Webmaster

Bei Einhaltung dieser Richtlinien kann Google Ihre Website leichter finden, indizieren und einstufen. Auch wenn Sie keinen dieser Ratschläge befolgen, wird dringend empfohlen, die Qualitätsrichtlinien zu beachten. In diesen Richtlinien werden einige der unerlaubten Verfahren beschrieben, die zur dauerhaften Entfernung einer Website aus dem Google-Index oder zu anderen Strafmaßnahmen führen können. Nach einer entsprechenden Strafmaßnahme wird die Website nicht mehr in den Suchergebnissen auf Google.de oder auf einer der Websites im Google-Werbenetzwerk angezeigt.

Qualitätsrichtlinien
In diesen Qualitätsrichtlinien wird auf die gängigsten irreführenden und manipulativen Verfahren eingegangen. Darüber hinaus reagiert Google unter Umständen negativ auf andere, hier nicht aufgeführte Vorgehensweisen (z. B. Täuschung von Nutzern durch Registrierung von absichtlich falsch geschriebenen Namen bekannter Websites). Ist ein bestimmtes irreführendes Verfahren hier nicht aufgelistet, lässt dies nicht den Schluss zu, dass dieses Verfahren von Google toleriert wird. Webmaster, die ihre Zeit und Energie für die Einhaltung und Aufrechterhaltung der Richtlinien aufwenden, erweisen ihren Nutzern einen weitaus größeren Dienst und werden folglich durch ein besseres Ranking belohnt als diejenigen, die ständig nach Schlupflöchern suchen.
Sind Sie der Meinung, dass bei einer anderen Website die Qualitätsrichtlinien von Google missachtet werden, melden Sie diese Website bitte unter https://www.google.com/webmasters/tools/spamreport?hl=de. Google zieht die Entwicklung skalierbarer und automatisierter Problemlösungen vor. Wir versuchen daher immer seltener, einzelne Spamvorkommen zu bekämpfen. Die erhaltenen Spam-Meldungen ermöglichen die Entwicklung skalierbarer Algorithmen, durch die zukünftige Spam-Angriffe erkannt und blockiert werden können.

Qualitätsrichtlinien – grundlegende Prinzipien
Erstellen Sie Seiten in erster Linie für Nutzer, nicht für Suchmaschinen. Versuchen Sie nicht, Ihre Nutzer zu täuschen. Stellen Sie zudem keinen Content für Suchmaschinen bereit, den Sie nicht für Ihre Besucher verwenden. Dies wird als „Cloaking“ bezeichnet.
Vermeiden Sie Tricks, die das Suchmaschinen-Ranking verbessern sollen. Beachten Sie die folgende Regel: Sie sollten kein schlechtes Gefühl haben, wenn Sie den Inhabern einer konkurrierenden Website Ihre Vorgehensweise erklären müssten. Eine weitere hilfreiche Frage lautet: „Nutzt dies den Besuchern meiner Website? Würde ich das auch tun, wenn es keine Suchmaschinen gäbe?“
Nehmen Sie nicht an Linktauschprogrammen teil, die dazu dienen, Ihr Ranking oder Ihren PageRank zu verbessern. Meiden Sie insbesondere Links zu Webspammern oder fragwürdigen Websites im Web, da Ihr eigenes Ranking durch solche Links negativ beeinflusst werden kann.
Verwenden Sie zur Anmeldung von Seiten, zum Überprüfen des Rankings sowie für ähnliche Aktionen nur autorisierte Software. Nicht autorisierte Programme belegen Ressourcen und verstoßen gegen unsere Nutzungsbedingungen. Google rät von der Verwendung von Produkten wie WebPosition Gold™ ab, die automatisch oder programmgesteuert Suchanfragen an Google senden.
Qualitätsrichtlinien – spezielle Prinzipien
Vermeiden Sie verborgenen Text oder verborgene Links>.
Vermeiden Sie Cloaking oder irreführende Weiterleitungen.
Senden Sie keine automatischen Anfragen an Google.
Laden Sie keine Seiten mit irrelevanten Suchbegriffen hoch.
Erstellen Sie keine doppelten Seiten, Sub-Domains oder Domains, die im Grunde denselben Inhalt haben.
Erstellen Sie keine Seiten mit böswilligen Funktionen, durch die beispielsweise Phishingversuche unternommen oder Viren, Trojaner oder andere schädliche Programme installiert werden.
Vermeiden Sie Doorway-Seiten, die speziell für Suchmaschinen erstellt wurden, sowie die Verwendung anderer vorgefertigter Techniken wie beispielsweise Partnerprogrammen ohne oder mit nur wenig eigenem Inhalt.
Falls Sie mit Ihrer Website an einem Partnerprogramm teilnehmen, prüfen Sie, ob Ihre Website einen wirklichen Wertgewinn darstellt. Stellen Sie speziellen und relevanten Content bereit, der Nutzer zum Besuch Ihrer Website veranlasst
Quelle: Google „Richtlinien für den Webmaster“

Es ist für uns immer wieder interessant zu sehen, wie wenig Beachtung diesen Richtlinien geschenkt wird.

Was ist eine Schattendomain?

Unter Schattendomain wird im Bereich der Suchmaschinenoptimierung eine Domain verstanden, die mithilfe einer irreführenden Weiterleitung zu einer anderen Website führt. Die eigentliche Optimierung wird dabei auf der Site der Schattendomain vorgenommen. Wenn die Schattendomain nicht dem Webseitenbetreiber, auf dessen Seite weitergeleitet wird gehört, sondern dem Suchmaschinenoptimierer, besteht die Gefahr, dass dieser bei Vertragsbeendigung die Schattendomain auf die Webseite der Konkurrenz umleitet. Schattendomains verstoßen gegen die ethischen Grundsätze der Suchmaschinen, ihre Verwendung kann dazu führen, dass der Seitenbetreiber aus dem Index entfernt wird. Quelle: wikipedia.de

Suchmaschinenspamming

Unter Suchmaschinen-Spamming (Search Engine Spamming) oder Index-Spamming (Spamdexing) versteht man alle Handlungen, die dazu führen, dass eine Internet-Suchmaschine auf eine Suchworteingabe hin auf den vordersten Plätzen Webseiten ausgibt, die keine für den Nutzer relevanten oder dem Suchbegriff entsprechenden Informationen enthalten. Suchmaschinen-Spamming bei Google bezeichnet man auch als Google-Spamming. Der speziellere Begriff Googleating (sprich: „Google-ating“) wird dann verwendet, wenn Webseiten nur zu dem Zweck kreiert werden, die Linkstruktur maßgeblich zugunsten bestimmter Webpages zu beeinflussen, um dadurch einen hohen PageRank zu erzielen.

Definition
Zum Suchmaschinen-Spamming zählen:
alle Versuche, eine Webseite unter einem Stichwort zu listen, ohne dass die Seite sich mit dem betreffenden Thema beschäftigt (siehe auch Google-Bombe)
alle Versuche, unter einem Suchbegriff bewusst viele Mehrfachlistungen zu erzielen
irreführende Weiterleitungen zu einer Webseite, die keinerlei Informationen zu dem eingegebenen Suchbegriff enthält

Techniken
Spammer bauen ihre Optimierungsmethoden auf den Such- und Bewertungsstrategien der erfolgreichen Suchmaschinen auf, um die von ihnen erstellten oder betreuten Internetseiten in den Ergebnislisten der Suchmaschinen nach vorne zu bringen. Die meisten Spam-Seiten werden dabei gezielt für die weltweit am häufigsten genutzten Suchmaschinen Google, Yahoo und Live Search manipuliert. Zu den bekanntesten Manipulationstechniken gehören:

die unangemessene Wiederholung eines Begriffs im Titel der Seite oder in den Meta-Keywords im HTML-
das Notieren vieler Keywords innerhalb von HTML-Kommentaren
das Unterbringen von vielen Keywords in den alt-Attributen (Alternativtexten) der Bilder
das Schreiben von Text in der Hintergrundfarbe („versteckter Text“, Hidden Text), so dass der Text nur für Suchmaschinen, nicht aber für den Internet-Surfer auf dem Bildschirm erkennbar ist
das Einfügen von versteckten Texten mit unzähligen Keywords auch außerhalb des sichtbaren Seitenbereiches, in durch Stylesheets unsichtbar gemachten Seitenbereichen oder in Bereichen unterhalb von Grafiken
das Anlegen versteckter Hyperlinks auf einer Internetseite, zum Beispiel mit Hilfe von winzigen, nicht sichtbaren Ein-Pixel-Grafiken oder im Frameset
das Gästebuch-, Foren-, Blog- und Wiki-Spamming durch Einfügen von (irrelevanten) Links
die Verwendung mehrerer Title-Tags, um Schlüsselbegriffe an prominenter Stelle unterzubringen
die Aufnahme von Begriffen, die nichts mit dem Thema der Internetseite zu tun haben, in die Meta-Tags
Weiterleitungen mit dem Meta Refresh Tag, per JavaScript, CGI oder mittels dynamischer Seiten (PHP, ASP), um den Suchmaschinen andere Inhalte als dem menschlichen Surfer präsentieren zu können
das Anlegen von Hunderten vorgelagerter Umleitungen, jeweils mit kurzen HTML-Phrasen, sog. Brückenseiten (Doorway Pages)
das Anlegen vieler gleicher Seiten unter mehreren URLs, z. B. bei Billig-Providern
das Betreiben von „Linkfarmen“
Cloaking: Die Ausgabe von Seiteninhalten an Suchmaschinen, die sich von jenen Seiteninhalten inhaltlich unterscheiden, die ein Surfer zu sehen bekommt
die Einrichtung von Open Directory Project- oder Wikipedia-Klonen
Referrer-Spamming: Massenhafter Aufruf von Webseiten, damit sie in den Referrer-Informationen der Statistiken der aufgerufenen Seiten auftauchen
Scraper Sites oder Made for AdSense Sites: Kopieren des Inhaltes von anderen, meist hoch gelisteten Seiten mit Hilfe von Artikel-Generatoren und Präsentation auf der eigenen, meist mit viel Werbung versehenen Webseite in der Hoffnung, das Ranking dieser Seite zu erhöhen
Sybil Attack: Erzeugung zahlreicher, sich seriös gebender Seiten (Diskussionsforen, Blogs, Beratungsseiten etc.) auf unterschiedlichen Domains und, nachdem diese Seiten ein gutes Ranking erhalten haben, Nutzung dieser unverdächtigen Seiten zur Förderung der eigentlichen, kommerziellen Website durch viele hinzugefügte Links oder Werbung
die Nutzung von Artikelverzeichnissen hauptsächlich zu dem Zweck, über Backlinks das Ranking der eigenen Seite zu verbessern oder mit Hilfe von Google AdSense Geld zu machen
Negative Suchmaschinen-Optimierung oder Google Bowling: der Versuch, durch kurzfristige Erzeugung von Tausenden verdächtiger Links, die alle auf die gleichen Webseiten von Mitbewerbern verweisen, die Suchmaschinen zur Abwertung der betreffenden Seiten zu veranlassen, um so die Konkurrenz auszuschalten und die eigene Seite an vorderster Stelle der Suchmaschinenergebnisse zu platzieren
Spam oder Optimierung?
Alle Manipulationen, die dazu dienen, nicht-relevante Ergebnisse in den Suchmaschinen zu erzwingen, sind Spam. So ist jeder, der Internetseiten mit der alleinigen Absicht untereinander verlinkt, die Position einer bestimmten Internetseite zu verbessern, die zum Suchbegriff nicht die relevantesten Informationen liefert, ein Spammer. Die Anpassung von Seiten an die Sortieralgorithmen von Suchmaschinen mit dem Ziel, die Position bei Suchbegriffen zu verbessern, bezeichnet man als Suchmaschinenoptimierung – dies beinhaltet die Optimierung für relevante Begriffe ebenso wie für irrelevante.

Die Übergänge von der relevanten Optimierung zum Suchmaschinen-Spamming sind aber oft fließend. Für Microsoft sind keine genauen Grenzziehungen zwischen Suchmaschinenoptimierungstechniken und Spammer-Aktivitäten möglich. Google fielen etliche SEO-Firmen auf, deren Praktiken inakzeptabel sind und warnt deshalb zur Vorsicht.
Von Seiten der professionellen Suchmaschinenoptimierer wird versucht, zwischen legalen (white hat) und illegalen (black hat) Optimierungstechniken, also Spamming, zu unterscheiden, um sich von den schwarzen Schafen der Branche abzugrenzen. Die Verwender illegaler Optimierungstechniken behaupten allerdings, dass es bei Suchmaschinenoptimierern kein ethisches Handeln gebe, denn jede ihrer Handlungen ziele bewusst darauf ab, die Ergebnisseiten der Suchmaschinen zu manipulieren. Für sie zähle nur der kommerzielle Erfolg und dieser drücke sich darin aus, ob eine Seite vor der ihrer Konkurrenten gelistet ist.
Im Kapitel über käufliches Spamdexing schreibt Wally Wang, dass solche „Berater“ ihre Arbeit Suchmaschinenoptimierung nennen, und eine schnelle Suche fördere unter dem Suchbegriff SEO Hunderte von Firmen zutage, die entgeltlich Hilfe bei der Verbesserung der Platzierung einer Kunden–Webseite in den Suchmaschinenergebnissen anbieten. Dabei gebe es einige, die legale Techniken einsetzen, aber auch andere, die grenzwertigere bzw. illegale Methoden verwenden. Und Daniel Koch schreibt: „Die meisten kommerziell erfolgreichen Webseiten verdanken ihren Erfolg ausschließlich einer guten Platzierung in den Suchmaschinen. Kein Wunder also, dass Webseitenbetreiber immer wieder durch zweifelhafte Methoden versuchen, ihr Ranking zu verbessern.“
In aktuellen Studien wird davon ausgegangen, dass jeder vierte Suchtreffer eine Spam-Seite ist. Erwin Lammenett bemerkt zur Branche: „In Ermangelung von hinreichend interessantem und aktuellem Content haben findige Suchmaschinen-Optimierer Methoden entwickelt, um Suchmaschinen das Vorhandensein von Content und dessen Verlinkung von anderen Seiten vorzugaukeln. Aus juristischer und moralischer Sicht sind diese Methoden heute kritisch zu sehen und dem Spamming zuzuordnen.“ Laut David George nehmen manche der „skrupellosen“ kommerziellen Optimierer durch ihre „aggressiven“ Strategien sogar in Kauf, dass Kundenseiten aus dem Index der Suchmaschinen gelöscht werden, und sie scheuen auch nicht davor zurück, die Seiten ihrer Kunden dazu zu missbrauchen, ihrer eigenen Seite oder den Seiten anderer Kunden über versteckte Links „Traffic“ zuzuleiten.
Informative Seiten mit gehaltvollem Inhalt haben Manipulationen der beschriebenen Art nicht nötig, da sie durch viele Hyperlinks von verschiedenen Internet-Usern gefördert werden. Gespammt wird meistens bei kommerziellen Seiten. So werden viele Seiten mit pornographischen Inhalten für die Suchmaschinen manipuliert, weil die Betreiber nur dann mit solchen Internetseiten, z. B. über integrierte Dialer, Geld verdienen können, wenn sie auf den vordersten Plätzen oft auch unter „harmlos“ klingenden Stichworten gelistet sind. Quelle: wikipedia.de

WAS IST SUCHMASCHINENWERBUNG?

Unternehmen, die bei Suchmaschinen eine hohe Position bei der Auflistung der Suchergebnisse zugeteilt haben möchten, haben durch Keyword-Advertising die Möglichkeit eine Position der Auflistung bezogen auf die Suchanfrage zu kaufen. Die bezahlten Suchtreffer werden in der Regel als solche kenntlich gemacht.

Bei den großen Allgemeinen Suchmaschinen Google, Yahoo und MSN Live werden die bezahlten Suchtreffer in einem Werbeblock zusammengefasst und nicht mit den natürlichen Suchergebnissen vermengt. Dieser Werbeblock wird normalerweise rechts neben den natürlichen Suchergebnissen angezeigt. In selteneren Fällen werden Werbeblöcke über den natürlichen Suchergebnissen (bei Yahoo auch darunter) eingeblendet.

Die bekanntesten derartigen Werbeprogramme sind Google AdWords und Yahoo Search Marketing. Abgerechnet wird bei diesen Programmen zumeist nach Anzahl der Klicks auf den gekauften Link (Pay per Click). Quelle: Wikipedia.de

WAS IST SUCHMASCHINENMARKETING?

Suchmaschinenmarketing (Search Engine Marketing, SEM) umfasst alle Maßnahmen zur Gewinnung von Besuchern für eine Webpräsenz über Websuchmaschinen. Inhaltsverzeichnis

Teildisziplinen

Suchmaschinenmarketing gliedert sich in die Teildisziplinen Suchmaschinenoptimierung (Search Engine Optimization, SEO) und Suchmaschinenwerbung (Search Engine Advertising, SEA bzw. auch Keyword Advertising oder Paid Inclusion genannt).

Ziel des Suchmaschinenmarketings ist die Verbesserung der Sichtbarkeit innerhalb der Ergebnislisten der Suchmaschinen. Dazu gehören vor allem diejenigen Optimierungs-Maßnahmen, die dazu führen, dass eine Webseite auf einem der vordersten Plätze bei den Suchmaschinenergebnissen erscheint. Es gibt aber auch die Möglichkeit des Keyword-Advertising, das heißt, für bestimmte Suchbegriffe eine Position auf der ersten Seite der Suchmaschinenergebnisse zu kaufen. Bei den großen allgemeinen Suchmaschinen Google, Yahoo und MSN Live werden die bezahlten Suchtreffer in einem Werbeblock zusammengefasst und so von den unbezahlten Ergebnissen abgehoben.

Neben der direkten Bewerbung von Produkten gewinnt das Suchmaschinenmarketing auch in der Öffentlichkeitsarbeit und im Branding zunehmend an Bedeutung.

Kritik

Etliche Maßnahmen, die eigene Seite an vorderster Stelle innerhalb der Suchmaschinen-Ergebnislisten zu platzieren, sind manipulativer Natur und werden von den Suchmaschinen selbst kritisch bewertet. Die Grenzen zwischen akzeptablen Methoden, die sich an die Richtlinien der Suchmaschinen halten, und inakzeptablen Manipulationen, die als Suchmaschinen-Spamming eingestuft werden müssen, sind daher fließend. Quelle: Wikipedia

WAS IST SUCHMASCHINENOPTIMIERUNG?

Suchmaschinenoptimierung oder Search Engine Optimization (SEO) ist ein Fachbegriff für Maßnahmen, die dazu dienen, dass Webseiten auf den Ergebnisseiten von Suchmaschinen auf höheren Plätzen erscheinen.

Arbeitsweise

Suchmaschinenoptimierung berücksichtigt die Vorgehensweise, nach der Webcrawler verschiedener Suchmaschinen Webseiten suchen, deren Inhalte lesen und verarbeiten, nach welchen Kriterien diese bewertet und wie Suchergebnisse zusammengestellt und sortiert werden (Suchmaschinenranking). Die Arbeitsweise der Sortieralgorithmen wird von den Betreibern der Suchmaschinen geheim gehalten und häufig geändert, um Missbrauch zu erschweren und dem Benutzer nur wirklich relevante Ergebnisse zu liefern. Auf sie muss deshalb indirekt durch die Analyse der Suchergebnisse geschlossen werden. Das Aufsuchen und Einlesen der Inhalte von Webseiten folgt dagegen bekannten HTML-Standards des Web, deren Einhaltung bei der Erstellung von Webseiten den ersten und wesentlichen Schritt einer Optimierung darstellt.

Ein weiterer Schritt ist die Auswahl der geeigneten Suchbegriffe. Hierzu kann man sich frei verfügbarer Datenbanken, wie einer Keyword-Datenbank oder dem Metager Web-Assoziator, bedienen.

Die Metatags, welche man im Headbereich einer Homepage einarbeiten kann, verlieren dabei immer mehr an Bedeutung. Um korrekte Suchergebnisse gewährleisten zu können, werden diese von großen Suchmaschinen wie Google kaum noch beachtet. Allein die Meta-Description wird noch zur Anzeige unterhalb des verlinkten Titels in den Suchergebnisseiten (SERPS) genutzt. Wichtig ist viel Text in der betreffenden Internetpräsenz, um möglichst viele Keywordphrasen gewährleisten zu können. Besonders bedeutsam sind außerdem die Wörter, die im Seitentitel (Title-Tag), in ausgewiesenen Überschriften (H1-, H2-Tags usw.), in Textlinks (auch solchen, die auf die betreffende Seite verweisen) sowie innerhalb der URL vorkommen.

Traditionelle Suchmaschinenoptimierung

Bei der traditionellen Suchmaschinenoptimierung wird üblicherweise eine Seite für ein oder zwei Suchwörter optimiert. Oft wird auch eine umfangreiche Seite in mehrere Einzelseiten aufgeteilt, um diese für verschiedene Suchbegriffe zu optimieren. Dabei werden die Suchwörter mit den entsprechenden Inhalten kombiniert. Dieser (klassische) Bereich zählt zur so genannten „OnPage-Optimierung“; dies bezeichnet alle Methoden und Möglichkeiten, die am Inhalt und der Struktur einer Website durchgeführt werden können.

Mittlerweile genügt es nicht mehr alleine, die Relevanz von Webseiten zu erhöhen. Ein gutes Listing und eine gute Sichtbarkeit in Suchmaschinen sowie die Quantität und Qualität der eingehenden Links auf eine Website (Backlinks) sollten mit in Betracht gezogen werden. Diesen Bereich der Suchmaschinenoptimierung nennt man „OffPage-Optimierung“.

Um Websites auf ihr Potenzial hin zu untersuchen, können kostenlose Online-Tools genutzt werden. Oftmals genügen kleine Veränderungen, um sich in Suchmaschinen auf einer viel besseren Platzierung wiederzufinden.

Ethik der Suchmaschinenoptimierung

Methoden, die nicht relevante Webseiten auf vordere Plätze der Ergebnisseiten von Suchmaschinen bringen, werden als Suchmaschinen-Spamming bezeichnet; sie verstoßen gegen Regeln, die Suchmaschinen zum Schutz vor Manipulationen ihrer Suchergebnisse aufstellen. So ist es möglich, automatisierte Umleitungen einzurichten, die speziell für Suchmaschinen erstellte Textseiten enthalten. Diese Methode, mit so genannten Brückenseiten zu arbeiten, widerspricht jedoch den Richtlinien der meisten Suchmaschinen. Fälle, die von den Suchmaschinenbetreibern aufgedeckt werden, haben oftmals den Bann der betreffenden Seite zur Folge, d.h. die betreffenden Zielseiten werden aus dem Suchindex ausgeschlossen.

So musste BMW Anfang 2006 kurzfristig hinnehmen, dass das Internetangebot des Automobilkonzernes komplett aus Google entfernt wurde, weil eine Reihe von automatisch weiterleitenden Brückenseiten erstellt wurden. Nachdem BMW die beanstandeten Seiten entfernt hatte, wurde bmw.de wieder in den Google-Index aufgenommen.

Ethische Suchmaschinenoptimierung (engl. white hat search engine optimization) vermeidet Spamming. Sie verzichtet auf verbotene Praktiken wie den Einsatz von Brückenseiten oder einer Linkfarm und befolgt die Direktiven der einzelnen Suchmaschinen. Dadurch wird das Risiko eines Ausschlusses oder der Herabstufung in den Suchergebnisseiten vermieden.

Grenzen der Suchmaschinenoptimierung

Rein grafisch orientierte, mit Filmen, Bildern und grafisch eingebetteten Texten gestaltete Seiten, wie es z.B. die Programmierung in Flash ermöglicht, bieten den Suchmaschinen kaum auswertbaren Textcode. Die Programmierung einer Webseite ausschließlich in Flash empfiehlt sich daher aus Sicht der Suchmaschinenoptimierung nicht. Von den Suchmaschinenbetreibern wird jedoch daran gearbeitet, reine Flash-Seiten zu durchsuchen und in den Index aufzunehmen.

Um dennoch das Gestaltungspotential animierter Startseiten oder ganzer Internetauftritte in Flash ohne Ranking-Verlust zu ermöglichen, werden teilweise Brückenseiten eingesetzt. Dies widerspricht jedoch den Richtlinien der meisten Suchmaschinen. Derartig „optimierte“ Zielseiten werden, sobald sie bemerkt werden, von Suchmaschinenbetreibern ausgeschlossen. Quelle: Wikipedia, der freien Enzyklopädie

WAS IST EIN BACKLINK?
Geschrieben von: Johannes
Sonntag, 30. November 2008 um 22:48 Uhr
Rückverweis (Backlink) nennt man einen Link, der von anderswo, insbesondere von anderen Webseiten, auf eine bestimmte Webseite führt. In vielen Suchmaschinen wird die Anzahl der Rückverweise als Indiz für die Linkpopularität oder Wichtigkeit einer Webseite verwendet; Googles PageRank-Algorithmus ist ein Beispiel hierfür. Da Suchmaschinen auch die Linktexte der Rückverweise als Suchbegriffe werten, kann diese Eigenschaft durch eine so genannte Google-Bombe missbraucht werden.

Auf die Backlinks hat der Betreiber der Webseite in der Regel keinen direkten Einfluss. Zur Generierung zusätzlicher Backlinks bzw. zur Beeinflussung des Linktextes und Linkpopularität dienen u.a. Referrer-Spam, Textlinktausch und Artikelverzeichnisse.

Das Aufspüren der Backlinks erfolgt mit Hilfe von Suchmaschinen oder durch Auslesen der Referrer bei der Logdateianalyse. So kann man bei vielen Suchmaschinen eine Suchanfrage der Form „link:“ verwenden, um die Rückverweise auf die Webseite mit der angegebenen URL zu bestimmen. Quelle: Wikipedia