SEO対策においてのクロール用ページはどう作成すればいいの?

同時期にスタートした同じようなSEO対策をしているページでも、妙に順位が高いサイトがあるかもしれません。

そのようなサイトの場合、SEO対策の一環としてクロール用のページを作成している可能性があります。

検索エンジンではページを巡回し、順位を決めたり不正を見抜いたりする「ロボット」が存在しています。
ロボットがサイトを巡回する行為をクロールと言います。

クロールをしにきた際に、早く分かりやすくサイトの趣旨を伝えられると、検索順位が上がるSEO対策が期待できます。

ロボットがクロールする順番は指定することが可能です。
「robots.txt」というファイルをルートフォルダに設置すると、そこからクロールしていきます。

指定したディレクトリやファイルへのクロール禁止指示もできるとあって、SEO対策として設置しているページは非常に多いです。

その際に、クロール専用のサイトマップへ誘導させることも大切です。
sitemap.xmlを作り、そこに更新日や頻度、さらにはページの重要度を記述します。
その記述に従いロボットは、効率的なクロールを行います。

他にも、ロボットはJavaScripやFLASHを読み込むことが苦手です。
SEO対策をするのであれば、TOPなど重要な場所の記述は別ファイルに設定した方が良いでしょう。

弊社でも基本的にはフラッシュファイルやjavascriptファイルはできる限り外部ファイルから読み込むようにしております。

Copyright© 2013 seoをHPに対策するなら(有)ユニーク All Rights Reserved.