Eine suboptimale Artikelanfrage

Folgender Text wurde mir heute per Mail übermittelt.

„Hallo Herr Wobus,
für meine Kunden suche ich hochwertige Artikelplätze mit thematischem Bezug. Ich würde gern einen informativen und redaktionellen Artikel mit ca. 500-1.000 Worte und mit vielen Mehrwerten für Ihre Leser und einem Backlink zu der Webseite unseres Kunden auf Ihrer Seite veröffentlichen.
Ich liefere Ihnen gern einen sehr hochwertigen und professionell geschriebenen Text, welcher von unserer hauptberuflichen Redakteurin aufwendig recherchiert und getextet wird. Alternativ können Sie aber auch gern den Text verfassen. Der Text sollte mindestens 1 Jahr online bleiben.
Bieten Sie so etwas an? Können Sie mir bitte ein Beispiel und Ihren Preis mailen?
Haben Sie evtl. noch weitere Seiten, auf denen so etwas möglich ist?
Ich danke Ihnen für Ihr Feedback.
Mit freundlichen Grüßen.
Ihr
Name
Straße
Ort“

Diese Anfrage wurde abgelehnt und ich möchte hier einmal darstellen, was die Ablehnungsgründe im Detail sind:

1) Mehrwert
Der Text beschreibt den „Mehrwert“, ohne mir den „Mehrwert“ im Detail zu erklären.
2) Bezug zu unseren Leser_innen
Der Text liefert mir keinerlei Beleg dafür, wie der völlig ungeklärte und undokumentierte „Mehrwert“ Vorteile für die unbekannten (!) Leser_innen erwirtschaften kann.
3) Bezug zur Artikelgestaltung
Der Text belegt das „hochwertig“ und „professionell“ nicht in Form von Beispielen und man erwartet hier, dass ich der Kompetenz einer völlig unbekannten Person vertrauen schenken muss.
4) Bezug zur Redakteurin
Der Text nennt keinen Namen und eine Person kann völlig verschiedene Qualitäten „hauptberuflich“ ableisten UND ich kann nicht erkennen, ob und wie besagte / ungenannte Redakteurin denn auch das Geschäft der Wobus & Lehmann GbR versteht.
5) Wunsch nach Preisen
Preisdiskussionen führe ich grundsätzlich im Rahmen von Verhandlungen, wo in den Verhandlungen alle relevanten Informationen präsentiert werden.

Soviel dazu.

Aktuelle Affiliatezahlen & ihre Hintergründe

Rund um den März begannen wir mit einigen tiefergehenden Umarbeitungen der twitterbasierten Netzwerkstrukturen. Im Wesentlichen wurde hierbei stärker auf Aspekte wie Natürlichkeit oder Organik geachtet und zwar dahingehend, dass besagte Konstruktionen bspw. Tweets aus einigen unserer Pinterest-Accounts generieren und Affiliate-Produkte unserer WooCommerce-Kataloge beimischen.

Zwei Ansätze werden hier verwendet:

I. Direktansprache einer Twitterkonstruktion auf Basis von dlvr.it (API)
II. Einspeisung der Inhalte, basierend auf RSS-Feeds
– Synchronisation und Verteilung mit Hilfe von „Midrub
– Dynamische Generierung der Feeds mit Hilfe einer eigenen Lösung (siehe: Beitrag aus 2014)
– NEU: Anbindung an themenspezifische Unterdatenbanken aus dem Hashtag-Projekt (Instagram)

Bereits im Februar vermuteten wir eine stärkere Bedeutung von Twitter im Zusammenspiel mit den anderen Social-Media-Plattformen.

Das sind nun die Ergebnisse für den Beobachtungszeitraum April 2017 für das Affiliate-Netzwerk Belboon:

✔ EUR ~ 21.000 Umsatz
✔ EUR ~ 1.200 Provision vor Storno
✔ 21 Verkäufe, organisch verteilt zwischen 10.04.2017 bis 27.04.2017
✔ 7 Verkäufe mit Warenwert von EUR 1.200 bis EUR 3.200 (schwankend)
✔ 14 Verkäufe mit Warenwert von EUR 200 bis EUR 969 (schwankend)

Der umsatzerwirtschaftende Affiliate-Katalog hat laut den üblichen SEO-Datendienstleistern wie bspw. XOVI einen extrem schlechten Stand bzgl. der rankenden Keywords und Wortkombinationen und dem Sichtbarkeitsindex, jedoch sehen wir in den Webmastertools beeindruckende Werte auf Basis der Produktnamen (Longtails). Der Traffic zielt primär auf die Produktseiten. Die Aufenthaltsdauer ist mit ~ 3-5 Sekunden recht niedrig, wobei laut Piwik zwischen 60 und 80% der Besucher_innen auf die hinterlegten Affiliatelinks klicken.

Die Beobachtungen und die Zahlen erlauben nun die folgenden Vermutungen:
1. Potentielle Zielgruppen informieren sich unabhängig von unseren Affiliate-Angeboten über Produkte und die Preise.
2. Informationsressourcen der Zielgruppen sind Amazon, Kataloge, Messebesuche oder Gespräche auf Social-Media-Plattformen (Facebook, Instagram, Foren, Twitter, WhatsApp)
3. Potentielle Zielgruppen interessieren sich nicht primär für hypermoderne Layouts, umfangreiche Blogbeiträge, FAQs und sonstige Ansätze, welche unabhängig vom Kaufimpuls und primär aus Sicht der Marketingbetreibenden / Marketingentscheider_innen angeboten werden
4. Beigeordnete Social-Media-Accounts (hier: Pinterest und Twitter) wirken reputationsfördernd

So, und wie sind Eure Erfahrungen? Lasst es uns wissen!

Linkchecker 0.6 (BETA) fertig gestellt und freigegeben

Aufgrund einiger faszinierender Diskussionen und Nachfragen habe ich mich zu einer kleineren Überarbeitung der Linkprüf-Anwendung enschieden.

Der Schwerpunkt liegt hierbei auf die enorm wichtige Existenzprüfung der „eingehenden Links“ aus Google-Webmastertools.

Neue Features:
1. Import der Linkdatensätze aus WMT
– Login => Google
– Webmastertools => Suchanfragen => Links zu Ihrer Seite => Klick auf „mehr“
– Klick: „Weitere Beispiel-Links herunter laden“
– Import der CSV in das Programm via Hauptmenü

2. Import von Linkdatensätze via Text-Datei (*.txt)
Diese Funktion „kompensiert“ die ausgeklammerten Schnittstellen zu Xovi, Sistrix und Seokicks. Sofern diese Datenquellen im Gebrauch und notwendig sind, ist natürlich eine entsprechende Aufbereitung (ein Link je Zeile) wichtig.

3. Filterfunktion
– Tools => Tabelle => Filter

4. Reporting, Erweiterung
Das tabellarische Reporting wurde um die Erfassung von http-Fehlercodes und Zeitstempel erweitert.

Grundlegendes // Funktionsweise
Die Anwendung geht die übermittelte Linkliste „Schritt für Schritt“ durch. Hierbei wird mit Hilfe von http-GET der HTML-Quellcode des zu analysierenden Linkspenders in einen Zwischenspeicher geladen und dahingehend analysiert, ob die „Zeichenkette“ (Linkziel, Domain) sich denn in der „Zeichenkette“ (HTML-Code, Linkspender) befindet. Die Prüffunktion ist hier „if pos(suchstring, suchquelle)“.

Download: linkpruefer 0.6b (ZIP)

Bitte beachten!
Die Anwendung befindet sich im Beta-Stadium und wurde dementsprechend nicht auf alle Szenarien durchgetestet. Es können also Fehlermeldungen bei der Gegenprobe der Links auf „exotische“ Linkspender auftreten. Ebenfalls sind Unterschiede beim kompletten Prüfzeitraum je Internetverbindung, Menge der zu prüfenden Linkspender oder technische Umsetzungen der zu prüfenden Linkspender bekannt und sichtbar.

„Bis zu 25% der Longtails sind weg! Was ist passiert?“

Nach dem letzten Update der Xovi-Datensätze und vielen aufgeregten Rückmeldungen ehemaliger Kunden sind uns interessante Negativschwankungen bei der Analyse dieser und deren Konkurrenzprojekte aufgefallen. Bis zu 25% der produktbezogenen Longtail-Suchphrasen sind innerhalb eines Update-Turnus‘ verschwunden. Nach einigen Gesprächen mit Kollegen und einer tiefergehenden Gegenprüfung sind die folgenden Zusammenhänge sichtbar geworden:

a) Altlasten im Bereich „tote Linkspender“
b) keine passgenaue Ausrichtung der Angebote auf Zielgruppen
c) keine Kommunikation mit den Zielgruppen (Social-Signals)
d) kein Ausnutzen aktueller Trends (siehe: Hashtags)

Kurz: Alle abgestraften Projekte verfügten über auffallend viele Links von Social-Bookmark- und Presseportalen, Artikel- und Blogverzeichnissen, Linkpyramiden & Linkrädern. (Es ist anzunehmen, dass Google diese Linkspender dauerhaft abgewertet hat.) Gleichzeitig verfügten die analysierten Projekte nicht über zielgruppengenaue Social-Signals.

Die analysierten Seiten bewegen sich thematisch in den Bereichen Tourismus, Mode und Inneneinrichtung. Sie zeigen nach wie vor exzellente TOP-10-Positionen; der „Verlust“ bewegt sich auf der Produktebene. Langfristig ist ein neuer Linkaufbau nötig, der sich aus heutiger Sicht unbedingt an oben genannten Punkten orientieren muss.

(Offensichtlicher) Linkkauf – eine Option?

Aufgrund einiger interessanten Rückmeldungen von Ratsuchenden und eigenen Beobachtungen zum Thema „eingekaufte Links“ habe ich mir ein paar Gedanken zum Umgang mit diesem Strategieansatz gemacht.

Beobachtet man die üblichen Ausschreibungsplattformen der „Szene“, fällt einem auf, dass das Thema „Linkkauf“ immer noch ein nachgefragtes Angebotsspektrum zeigt – selbstverständlich mit entsprechend günstigen Preisen und über bekannte Plattformen sowie auch kalkulierbare Netzwerke.

Wir konnten im Laufe von 2014 beeindruckend negative Auswirkungen aufgrund von zwei konkreten Netzwerkabstrafungen beobachten. Im Rahmen der ersten Abstrafung betraf es konkrete Strukturen einer Agentur, was im Übrigen angekündigt wurde. Trotz Beobachtung der Szene und trotz umfangreicher Analysen war ein Wandel der Linkaufbaustrategien nicht sichtbar. Dementsprechend hoch war die Ratlosigkeit (aber auch die Häme) bei der letzten Abstrafungswelle gegen die Teilnehmer von den wohl zwei bekanntesten Netzwerkprovider im deutschen Raum. Ich hatte mich hier und hier zu diesen Themen und mögliche Alternativansätze geäußert und das Thema ist bei uns seit 2012 in der intensiven Beobachtung.

Was sind eigentlich die Effekte dieser „Abstrafungen“? Es ist eigentlich recht einfach: Durch die ad-hoc-Entwertung komplexer Netzstrukturen verlieren Webseiten nicht nur auf einen Schlag viele oder alle wichtigen „Kommunikationspartner“, sondern geraten auch in den Fokus von den Quality-Ratern der Firma „Google“ in Form einer „manuellen Abstrafung“. Letzeres ist eigentlich auch nur eine logische Konsequenz, da durch den Einkauf von Links gegen das Hausrecht der Firma Google verstoßen wird. Man fand hier übrigens bereits im Jahre 2007 sehr (!) klare Worte bzgl. des Themas „Linkkauf“ und die „Befindlichkeiten“ der Google-Algorithmen sollten seit dem bekannt sein. Auch stelle ich immer wieder fest, dass große Plattformen wie z.B. die „Gründerszene„, „Onlinemarketing“ oder „T3N, T3N – aus 02-2014“ solche Themen ansprechend aufbereiten. Sie sind nicht unbekannt und verfügen über eine entsprechend hohe Reputation. Allerdings hatte ich nach den letzten Gesprächen mit den diversen Ratsuchenden nicht das Gefühl, dass Akteure oder auch Abnehmer der Dienstleistung „Suchmaschinenoptimierung“ solche Meldungen aufmerksam lesen und die eigenen Ansätze anpassen oder ändern.

Konkret sind mir folgende Fälle mit eindeutiger und nachweisbarer Abstrafung mit einhergehenden Verlusten in den Positionen bekannt:

1) Branche Tourismus
Es handelt sich hierbei um ein „Quasi“-100% Linkkauf- und Linktauschprojekt mit mehreren 100.000 Datensätzen (Produkte, Angebote). Laut XOVI-Rankingdaten blieben von ca. 12.000 erfassten Keywords nur noch ca. 1.500 übrig.

2) Branche Sport
Nach einem gezielten Tausch mit Fokus auf bereits abgewichtete Blogs war der Totalverlust von ca. 30% aller produktrelevanten Phrasen sichtbar.

3) Branche Lebensmittel
Nach einem gezielten Tausch über ein firmeneigenes Netzwerk (Form: „klassische“ Keyworddomains in Form von „Landingpages“) zu und von den Netzwerken/Linkprovidern war ein Totalverlust von ca. 60% aller produktrelevanten und ein Verlust der kategorierelevanten Phrasen (Seite 1 auf unter Seite 8) sichtbar.

4) Branche IT
Nach einem Kauf von Links über einen der bekannten und abgestraften Netzwerke war ein Verlust der Hauptphrase (generiert durch den Geschäftszweck und optimierte Startseite) von Seite 1 auf Seite 2-3 sichtbar, welcher über eine Linkbereinigung und einem Strategiemix von „natürlich aussehenden“ Linkaufbau und „Social-SEO“ gelöst werden konnte.

Ich frage mich nun, warum man offensichtlich problematische Strategien verwendet, warum Agenturen diese verwenden oder warum wirtschaftlich nachhaltig denkende Abnehmer der Dienstleistung bewusst solche Strategien trotz entsprechender Presse und nachprüfbaren Negativbeispielen einkaufen. Ich kann mir das nur mit fehlendem Wissen, fehlender Innovationskraft oder dem Wunsch, etwas „Abrechenbares“ einzukaufen, erklären. Kurzum: es bleibt bei uns die Erkenntnis, dass das berechenbare, öffentliche und nachvollziehbare Einkaufen und Tauschen von Links ein wesentliches und prominentes Merkmal der Strategie „Blackhat“ ist – zumindest, wenn man davon ausgeht, dass diese Stilrichtung sich durch ein schnelles Positionieren/das Risiko eines unkalkulierbaren und schmerzhaften Totalverlustes auszeichnet.

Wir beobachten und besprechen firmenintern bereits seit 2006 diverse Negativschwankungen aufgrund von stark manipulativen Linkaufbaustrategien. Obwohl wir regelmäßig Strategien entwickeln und diese durchtesten (selbstverständlich lassen wir uns auch von Automatismen, „besonderen“ Ansätzen etc. inspirieren), ist uns das Verlustrisiko zu hoch, als dass wir Links kaufen, tauschen, an Netzwerken teilnehmen, einfach zu kalkulierende Netzwerke konstruieren oder Projekte annehmen, welche auf den kritisierten Ansätzen basieren sollen.

Das Kaufen und Tauschen von Links ist für uns keine Option.

Linkcheck – Funktionsweise

Aufgrund einiger offenen Fragen möchte ich heute die Funktionsweise der Anwendung „Linkcheck“ etwas näher erläutern.

Die umgesetzte Technik ist relativ einfach erklärbar: das Programm wird mit einer Liste von gefundenen Links aus den folgenden Quellen:
– Webmastertools
– XOVI (API, API-Key muss vorhanden sein)
– Freitext (Import von Linklisten aus einer TXT-Datei)

befüllt. Danach arbeitet ein einprogrammierter Algorithmus diese Liste „Schritt für Schritt“ oder „von Oben nach Unten“ durch und „schaut“ sich die Quellcodes der hinterlegten Links an. Hierbei „greift“ eine Funktion, die man mit „ich suche den eventuell vorhandenen Link“ vergleichen kann. Technisch betrachtet, macht die Software nichts anderes: sie schaut nach, ob die Zeichenkette „Domain“ irgendwo in der Zeichenkette „Quellcode-des-Linkspenders“ vorkommt. Eine weitergehende Analyse, also Variablen wie „nofollow“ oder „dofollow“ ist hier nicht einprogrammiert.

Was kann man mit den Ergebnissen aus der Anwendung machen?
1.) Prüfung: existiert der Linkpartner (noch)?
2.) Weitere Analyse: Indexierung, Indexierungsqualität der Linkpartner
3.) Weitere Analyse: Social Signals der Linkpartner
4.) Linklöschungen und Linkentwertungen

Die Anwendung simuliert einen „natürlich aussehenden“ Besuch der hinterlegten Linkspender und dadurch, dass hier nicht mit Bots und Crawler gearbeitet wird, lässt sich der Zugriff nicht über bspw. die htaccess sperren.

Skizze: Verteilersystem Produkte/Beiträge

schautafel1. Trigger
Ist der Trend sichtbar?
Ist die Hashtaghäufung je Medium übergreifend?
Gibt es Schnittmengen zwischen Trends, Tags & Quellen?
Gibt es Positionsschwankungen durch äußere Faktoren?
Formel WDF*IDF

2. Quelle
✔ Optimierung des Contents (z.B. Einfügen von Kaufimpulsen)

3. Vorbereitung der Publikation
✔ Manuelle Kampagne (z.B. RSS-Feed in Social-Media)
✔ Automatische Kampagne (z.B. Wahl nach Trigger/Zielgruppe oder Wahl nach Taghäufung)
✔ Ergebnis: Zielwahl (Plattform, Account o.a.)

4. Publikation
✔ Publikationswege: API, E-Mail, RSS-Feeds

5. Erfolgskontrolle
✔ Erfolgskontrolle via Piwik-API, Social-Signals-API, sonstige Prozeduren oder via Positionskontrolle

Linknetzwerke, Abstrafungen: eine Nachbetrachtung

Nach vielen internen Diskussionen und Gesprächen mit Kollegen wird es Zeit zu einer kritischen Nachbetrachtung der aktuellen Netzwerkabstrafungswelle. Zuerst muss man sich natürlich fragen, was denn Rankseller und Teliad mit dem grundlegenden Charakter eines Linknetzwerkes zu tun hat: aus meiner Sicht nichts, denn: beide „Provider“ sind als Werkzeug oder als Vermittler zu begreifen. Sie besitzen also kein Netzwerk, sondern sind als eine Art Organisator zu sehen. Man kann beide also als „SEO-Werkzeug“ begreifen und jedes Werkzeug verliert die wunschgemäße Wirkung, wenn es nicht stark zweckorientiert oder auch inflationär verwendet wird. Ich sehe in der Verwendung dieser „Werkzeugtypen“ gewisse Risiken, diese liegen nicht in der offensichtlichen Zuwiderhandlung gegenüber den Google-Richtlinien, sondern eher in der Unkalkulierbarkeit der angemieteten Linkspender und dem System der Linkprovider. Man kann zwar den Linkprovidern unterstellen, dass diese „Werkzeuge“ sauber arbeiten, die Interna schützen usw., eine ultimativ geltende Garantie hat man allerdings letztendlich nicht und gerade die letzte „Bestrafungs“-Welle zeigte, dass ganz offensichtlich Lücken im System von Google oder den G-Algos gefunden wurden.

Zusammengefasst: das System der Suchmaschinenoptimierung ist zwar nicht immer kalkulierbar und man ist natürlich Schwankungen und Trends unterworfen, aber ich halte mich von unkalkulierbaren Risiken wie Provider, unberechenbare Zukunft der angemieteten Linkspender etc. fern. Außerdem widerspricht die Inanspruchnahme der Provider als eine der tragenden Säulen des jeweiligen Konzeptes sämtlichen Marketinggedanken, da hier eine der wichtigsten Variablen immer wieder ignoriert wird: die Zielgruppe. Eine zielgruppenorientierte Suchmaschinenoptimierung basiert mehr auf Kommunikationskonzepte, als auf den technisch orientierten Ansatz – der Linkaufkauf anhand von den typischen SEO-Variablen: diese einfache Tatsache ist nicht erst seit kurzem bekannt.

 

 

Google, Updates, Netzwerkabstrafungen und allgemeine „Ratlosigkeit“

In den letzten Tagen ist es wieder einmal passiert – was?! – na: die Algorithmen von Google hatten zwei sehr wichtige Netzwerke bzw. Provider für Linkkauf „entwertet“ und demzufolge konnte man sehr zügig diverse Formen allgemeiner „Ratlosigkeit“ beobachten.

Betrachtet man nun die Historie der letzten Updates und offiziellen Meldungen seitens entsprechender Google-Mitarbeiter, stellt man sehr schnell fest, dass es sich hier um eine „Abstrafung mit Ansage“ ist. Warum? Ganz einfach: zum Einen wurden in der Vergangenheit äußerst prominente Vertreter der „Netzwerke“ abgestraft bis deindexiert und zum Anderen ist der Hinweis auf Google-mag-keine-Netzwerke äußerst prominent publiziert.

Und genau an diesem Punkt setzt meine persönliche Ratlosigkeit ein: ich frage mich derzeit, warum man trotz o.g. Effekte, Maßnahmen etc. Strategiansätze wählt, welche auf eine (offensichtliche) Algorithmusmanipulation in Form von Linkkauf und Linktausch via Netzwerke setzt. Gut, dass Laien oder „Selbstversorger“ hier Erfahrungswerte etc. nicht besitzen, ist immer irgendwo nachvollziehbar, aber es ist mir unverständlich, dass professionelle Akteure nachwievor (oder: hoffentlich bis jetzt und dann nie wieder) eben das – von mir kritisierte – Strategieelement nutzen.

Ich erlebte in den letzten Tagen Gespräche mit vielen verunsicherten Webmastern und ich empfehle derzeit Folgendes:

  1. Beschäftige Dich mit Deinen Zielgruppen VOR eventuellen Arbeiten an Deiner Seite (Layout, Inhalte)! Siehe hierzu meine Gedanken und Hinweise zu den Recherchemöglichkeiten in den „Social Media“.
  2. Entwickle Routinen und Prozeduren zur dauerhaften Zielgruppenbeobachtung und prüfe die Orte innerhalb des WWW, wo sich deine Zielgruppe bewegt oder bewegen könnte. Dies dient vor allem der Beobachtung von eventuellen Trends und besonderen Entwicklungen. Man kann hier natürlich den stark analytischen Ansatz wie in den Beiträgen zum „Socialtracker“ verwenden, in den meisten Fällen dürfte G-Alert ausreichend sein. Beschäftige Dich daher mit der optimalen Nutzung des Google-Services.
  3. Meide berechenbare Linkaufbauansätze! Man kann nicht oft genug betonen, wie wichtig diese einfach Regel ist und das „Berechenbarkeit“ natürlich auch in Zusammenhang mit „Standard“ oder „Jeder-macht-das“ und „es-hat-ja-schon-immer-so-funktioniert“ steht.
  4. Mache Linkaufbau für „richtige Menschen“ und versuche, den Linkaufbau in Form von „natürlichen“ Kommunikationsprozessen zu betreiben. Interessante Linkspender sind z.B. kommunikationsfreudige Auftritte, angenommene und geteilte Auftritte und sonstige „Auftritte“, wo Leben und Vernetzung sichtbar ist. Ansätze zur Lösung der Frage, wie man denn die Akzeptanz eventueller Linkspender herausfiltern kann, hatte ich in den Artikeln zu den „Sozialen Signalen“ grob dargelegt.
  5. Arbeite vor dem Linkaufbau – sofern keinerlei Wissen vorhanden ist oder allgemeine Unsicherheiten vorliegen – ein Marketingkonzept aus, welches die einzelnen Linkspendertypen (Blogs, Teile der Socials etc.) in Form von Kommunikationsprozessen, Kommunikation mit pot. Abnehmer deiner Inhalte / Dienstleistung / Produkte sicherstellt und Handlungsanweisungen auch in Abhängigkeit von Indikatoren (Trends, Zielgruppenverhalten, Markt allgem.) erfasst.
  6. Richte Deine Aktivitäten, das Inetmarketing, die SEO und den Linkaufbau nicht primär auf die Kategorieebene oder die Startseite aus – beachte und betrachte auch die Produkte. Warum? Man stellt ja in Webshops und Katalogsystemen Produkte vor und erhofft sich hierdurch Absatz. Es ist also unlogisch, nicht (!) über die Produkte zu „sprechen“.

 

Backlinkcheckerbots via htaccess blockieren

Es existieren viele gute Gründe, Links aus eigenen Strukturen in den Analysen diverser bekannter Services nicht anzeigen zu lassen. Ich wähle hierfür das Aussperren entsprechender Bots mit Hilfe der htaccess. Der Zugriff auf diese Datei lässt sich mit entsprechenden WordPressplugins realisieren, ich bevorzuge  WP Htaccess Editor mit dieser htaccess-Erweiterung. Eine aktuelle Botliste findet man hier.