Martinus33
Lt. Commander
- Registriert
- Juni 2011
- Beiträge
- 1.628
Hallo,
ich möchte gerne alle Spam-Crawler von einer ganz bestimmten Seite, nämlich der Kontakt/Impressumsseite, fernhalten.
Suchmaschinen-Crawler, zumindest die wichtigsten (Google, Bing, Yahoo), Youtube und Adwords-Crawler, sollen die Seite aber crawlen dürfen.
Bisher habe ich die Kontaktdaten auf einem Bild, was gut klappt, aber von Google und Co. nicht gelesen werden kann.
Ich habe im Web von langen Spamcrawler-Listen gelesen, die immer wieder mal aktualisiert werden, aber geht denn nicht der umgekehrte Weg, also in der .htaccess zunächst mal alle Crawler auszusperren und dann nur die erwünschten reinzulassen? Also so ähnlich wie in der robots.txt, wo man alle per disallow ausperrt und dann einige Allow-Ausnahmen angibt?
Falls ja, wie würde so ein .htaccess-Code aussehen?
ich möchte gerne alle Spam-Crawler von einer ganz bestimmten Seite, nämlich der Kontakt/Impressumsseite, fernhalten.
Suchmaschinen-Crawler, zumindest die wichtigsten (Google, Bing, Yahoo), Youtube und Adwords-Crawler, sollen die Seite aber crawlen dürfen.
Bisher habe ich die Kontaktdaten auf einem Bild, was gut klappt, aber von Google und Co. nicht gelesen werden kann.
Ich habe im Web von langen Spamcrawler-Listen gelesen, die immer wieder mal aktualisiert werden, aber geht denn nicht der umgekehrte Weg, also in der .htaccess zunächst mal alle Crawler auszusperren und dann nur die erwünschten reinzulassen? Also so ähnlich wie in der robots.txt, wo man alle per disallow ausperrt und dann einige Allow-Ausnahmen angibt?
Falls ja, wie würde so ein .htaccess-Code aussehen?