WordPressで作成したサイトがペンギンアップデートやパンダアップデートでアクセスが急激に下がったときの簡単な2つの対策

google ちょくちょく耳にするGoogleの検索アルゴリズム変更のペンギンアップデートやパンダアップデート。WordPressで作成したサイトがペンギンアップデートやパンダアップデートでアクセスが急激に下がるというケースが増えているようです。

私がWordPressで作成しているサイトのいくつかも急激にアクセスが低下し、まだ復活していないサイトも。。。ということで、まだ改善中ですがいろいろ調べ、いくつか簡単な対策をしたので、それらを記載します。

参考までに以前に対策した記事:検索エンジンからのアクセスが急に落ちたときの対処方法

目次

ペンギンアップデートやパンダアップデートとは?

Googleの検索エンジンアルゴリズムの変更で、簡単にいうと検索結果の表示順位が変わったり、表示されなくなったりすることです。

ペンギンアップデートやパンダアップデートによって検索エンジンからのアクセスが急激に減り、サイトのアクセスが落ちるというケースが増えています。逆にいうと上がるケースも存在するということです。

いまはYahoo!もGoogleの検索エンジンを利用しており、携帯キャリアやスマートフォンもGoogleの検索エンジンを利用しているケースが多いので、スマートフォンからのアクセスも落ち、通常時の2~7割くらいのアクセスになってしまうようです。 もちろんそれまで検索エンジン経由のアクセスが多いほど影響を受けるようです。

ペンギンアップデートとパンダアップデートの違いはあるのですが、まぁ不正なことしちゃダメですよ〜という認識をしていればOKかと。 その不正なことってのを簡単に書くと、

  • 不自然な外部リンク(外のサイトからのリンク)を貼る
  • コンテンツ(記事)をパクってきたり、似たようなコンテンツ(記事)を掲載する
  • 同じようなページをいっぱい作成する

などなど・・。要はネット上にゴミコンテンツを増やさずに、価値ある情報を自然な形で提供しなさいってことですね。

WordPressでパンダアップデート、ペンギンアップデートの影響を受ける理由(仮定)

私のサイトは10月くらいに影響を受け、影響の大きいサイトでアクセスが6〜7割になってしまいました。

WordPressで作成したサイトを数サイト運営しているので、影響を受けたサイトとそうでないサイトを比較しながら、いろいろと調べてみました。

WordPressで作成されたサイトが影響するのか、それともただWordPressで作成されるサイトの数が多いからか、WordPressで作成されたサイトでペンギンアップデートやパンダアップデートの影響を受けたケースが多く見受けられました。

ひとつの仮説としては、WordPressは動的にページをガンガン作成してくれるので、作成者、ユーザにとっても良いのですが、そのガンガン作成してくれるってのが上記の「同じようなページをいっぱい作成する」というものにひっかかっているのではないのか?ということです。

このあたりは仮定でしかないのですが、仮定が見つかれば改善しないと・・・ということで。

WordPressでパンダアップデート、ペンギンアップデートの影響を受けそうかチェックする

以前記事(検索エンジンからのアクセスが急に落ちたときの対処方法)の対策は済んでいるとして、今回は重複コンテンツのチェック。 グーグルウェブマスターツールを入れていないとダメですが、もし入れていない方はこの機会にぜひこの機会に入れてみてください。

なにかエラーがあれば教えてくれる無料で超使えるツールなので。。 グーグルウェブマスターツール グーグルウェブマスターツールの左メニュー、最適化の中にあるHTMLの改善を見てみます。

メタデータ欄に「重複するメタデータ」という項目が、タイトルタグ欄に「タイトルタグの重複」という項目があります。 私のとあるサイトは重複するメタデータが2000弱、タイトルタグの重複が12000弱という状況でした。。。

これが問題じゃないかと。

WordPressで普通に作成しているとこうなっちゃいます。。 そう、今回の仮説はGoogleに「お前のサイト、同じようなページばっかり作って、不正にページ数やアクセスを稼ごうとしてるんじゃねーか!」とペンギンもしくはパンダにフルボッコされたんじゃないか?ということです。

WordPressの対策

対策は大きく2つで、

  1. 重複するページを減らす(というか、Googleにインデックスされないようにする)
  2. 重複するメタデータを適切にする

これによって、不正にページ作成してませんよ、不正に増えているページは検索エンジンにインデックスしなくて良いですよ、というアピールをしようということです。 やったことは大きく2つだけ。。

  • HeadSpace 2 SEOプラグインを入れ、設定する
  • robots.txt を記載、設置する

HeadSpace 2 SEOとは、WordPressのSEO対策用のプラグインで、All in one SEO Packなどと比較されるようなツール。なぜHeadSpace 2 SEOなのか?というところでは、結構細かく設定できるから。使い方は以下のサイトがわかりやすかったです。

wordpressのメタデータ重複(description)の解決方法 | HeadSpace 2 SEOの使い方

とにかく、同じタイトルやメタデータが生成されないようにしようということです。これを手作業やプログラムを修正するのもアレなので、プラグインで一気に修正しちゃいましょうということで。

ただ、HeadSpace 2 SEOのdescriptionが反映されないサイトがあったりしたのですが、そのあたりはまぁ良いとして。。 続いて、robots.txt の設置。 robots.txtってのは、検索エンジンがクロール(サイトを見に来た)ときに、このページはインデックスしなくて良い(検索結果に表示しなくて良い)ということを伝

えるファイルで、WordPressであればindex.phpの置いてあるディレクトリに設置すればOKです。 ここで何をするかというと、タグのページやカテゴリのページ著者ページなどはクロールしなくて良いですよと伝えます。

ん?検索エンジンに多く表示して貰ったほうがいいんじゃないの?と思うのですが、それが重複コンテンツとみなされると結果としてアクセスされなくなっちゃいますので、苦渋の選択ですが、潔く「いらないです!」と告知しましょう。 サンプルはこちら、あくまでもサンプルです。

[text]
User-agent: *

Disallow: /wp-content/
Disallow: /wp-admin/
Disallow: /index.php
Disallow: /*.php$
Disallow: /*.js$
Disallow: /*.inc$
Disallow: /*.css$
Disallow: /*?
Disallow:/author/
Disallow:/page/
Disallow:/tag/
Disallow:/category/

Sitemap: http://non-programmer.net/sitemap.xml.gz
Sitemap: http://non-programmer.net/sitemap.xml

[/text]

上記をテキストエディタで開いて記載し、「robots.txt」と命名してUTF-8形式で保存です。文字コードが設定できるテキストエディタを利用してください。 Disallowってのが、ここのディレクトリ以下はインデックスしなくて良いですよと伝えています。*ってのはワイルドカードで、なんでもOKみたいなことです。 気をつけて欲しいのは、例えば

Disallow:/category/

ってのは、https://golt.co.jp/category 以下のページ、つまりカテゴリーページはインデックスしなくて良いですよ、って意味なのですが、本サイトのカテゴリーページのURLはhttps://golt.co.jp/archives/category/~みたいな感じです。 なので、自分のサイトにあった形で設定が必要ということです。

Disallow:/archives/category/

が正解ということです。 要注意なのは、WordPressのデフォルトの設定では記事のURLがgolt.co.jp/?p=122みたいなURLになっているのですが、その場合には

Disallow: /*?

この記述により、全記事インデックスされない可能性が出てきます。 きちんと自分のURLに沿った記述が必要です。Sitemap:のあとも自分のサイトのサイトマップのURLで。 *?が便利なのは、k-tai styleなどでガラケー対応していた場合に、?がついたURLがいっぱい生成されてしまい、それらが重複コンテンツと見なされるので、それを一気に解決できちゃいます。

グーグルウェブマスターツールでrobots.txtのテストができます。 robots.txtの内容を入れて、URLをいくつかまとめて記載してチェック、ブロックされているか、許可されているかをチェックしてくれるので、見せたいページ、見せたくないページ両方のURLをチェックしてみてください。

といった感じで終了です。 まぁ、今後どうなるかはわかりませんが、上記対策は現在影響を受けていなくても、やっていたほうが良いと思うことです。はやく復帰することに期待です。。。。

追記(2012/12/15)

上記、robots.txtを設置した際に、sitemap.xmlの出力にカテゴリやタグが含まれていると、ウェブマスターツールでエラーがでます。 XML-sitemapで管理している場合は、カテゴリーやタグのチェックボックスを外して、再構築すればOKかと。

  • URLをコピーしました!
目次