
Google Pandaのアルゴリズムアップデートが最初に発表された時、多くの人が非難の声を上げてやさぐれた事か?
その変更の目的がコンテンツファームサイト上に見つかったスパム的な記事を検索エンジンから一掃することによってSERPをきれいにすることになります。
なぜそんなにも多くの質の低いサイトが自分の地位を確保するために飛び込んだように思えたのか?
あなたはこれを、質の高いコンテンツを提供することが単純に重要ではないという暗示としてみることができるものの、賢老いマーケッターは、コンテンツは今も―そして今後も常に―検索エンジンにとって王様であるということを知っている。
その理由は…
検索エンジンの主な目標は、お金を稼ぐことだ。もし人々が検索結果を質の低いものとして受け取ってそのサービスを回避すれば、検索エンジンはそれをすることができなくなる。これが理由で、検索エンジンは、できる限り一番良い結果を提供するためにアルゴリズムを洗練するプロセスに常に従事するだろう。そして、どのテキストがSERPに表示されるべきかの戦いにおいて、価値の低いスパムコンテンツが、良く書かれた信頼できるコンテンツに勝つことは絶対にないのだ。
そう、Googleやその他の検索エンジンは、まだどうやってSERPからスパムページを取り除くかの暗号を解読していないかもしれないが、少なくとも彼らがそれに一生懸命取り組んでいることは確かなのだ。そして、その日がやって来た時、長期的に成功するのは、優れたコンテンツを提供することに焦点を合わせたサイトオーナーだろう。
googleからするとサービスの向上なんでしょうか?
googleはweb検索サービスの会社ですので、検索結果が質の悪いサイトが表示される事は信用問題になります。
結果としてスパム扱いされたが、Pandaを解読すれば問題は無い事だとあたしは気持ちを切り替えてSEO効果を追求していきます。
パンダアップデートの特徴
● 影響を受けたサイトには、質の高いコンテンツと質の低いコンテンツの両方を持っているサイトがある。
● 質の低いページがあるとサイト全体に影響する。
● 質が低いと判断される可能性がある要因
● 質と量の比率
● ドメインのオーソリティに頼っている大きなサイト
● 質の高いページがほとんどない小さなサイト
● 広告やリンクが多すぎる
● Above the foldに、広告が多い、コンテンツが少ない
● ソーシャルサイトで共有されていない
● トップページへのリンクに比べ内部ページへのディープリンクの比率が低い
パンダアップデートへの対応
● サイトをクリーンにする
● ⇒ 薄っぺらいコンテンツをなくす
● ブランドを構築する
● ⇒ リンクを集める
● ⇒ ディープリンクを集める
● プロモーションする
● ⇒ リンクされないようなコンテンツを大量に作らない
● クラウドソースでコンテンツを作っているときは質の低いコンテンツが増えないように気をつける。
※ここでのクラウドソースは、ユーザーにコンテンツを作らせたり外部のフリーランサーと契約して記事を書かせたり、数の力でコンテンツを大量に作ることを意味する。
「質が低い」「薄っぺらい」コンテンツが具体的にどういうコンテンツなのかは誰にも分からないというのが実情です。
数学的(アルゴリズム)に処理していることは間違いありませんが、1年がかりでGoogleが開発してきたアルゴリズムなので一言で片付けられるようなそう単純なものではないでしょう。
パンダアップデートでは、サイト内に質が低いページが多いと、たとえ質が高いページがあったとしても、サイト全体に悪影響を与えます。
質が低いと思われるページがある場合は要注意です。
思い切って削除するのも1つの手ですが、もっといい方法を2つGoogleのMailie Ohyxさんが説明していました。
1 robots.txtでブロックする。
2 noindex robot meta タグ一時的にを記述し、コンテンツを充実させたら取り除く。
せっかく作ったページをブロックしてしまうのはもったいないので、2がオススメでですね。
もちろんユーザーの役に立つコンテンツを作成しなければなりません。
みなさんも試しにサイトを改善してみて下さい!
結果改悪になってもあたしの責任にしないで下さいY(>_<、)Y