相互リンクページをrobots.txtでインデックス拒否する悪質サイト

ちょこちょこ拝見している【SEO初心者のEvoブログ】 というブログで驚くべき記事を見つけました。


相互リンクに関し、相互リンクページをrobots.txtでインデックス拒否し

表向きは相互リンクのかたちをとっているが「実際は一方的な被リンクを受ける」という

悪質な手法を使用するサイトがあるそうです。


具体的にこのようなサイトへの対抗策としては「相互リンクしない」ということで対策できますが

このような「手法」への対抗策としては、どうしたらよいのかは、ドメイン名の後に

robots.txt

と入力し「Disallow」というコマンドが記されており、その後に「リンク集」のページが

指定されていれば、ほぼ「クロ」です。

リンクページのグーグル、ヤフーのキャッシュを確認するのもひとつの手ですかね。

しかし、相互リンク先のチェックの際にいちいちこれをやるのは、かなりめんどい( ̄Д ̄;;

とりあえず私は、ネットで悪質サイトのリストを収集し、拒否設定しておくことで対応しようかと考えています。

しかし、これは日本の相互リンク界(←なんて、ねーよ!^^)に於ける由々しき事態ですぞ!

seoと相互リンクに関する、悪質サイトを告発する専門サイトでも作りますか?

AD