クロール
クロールとは、人が水中を泳ぐ手法の一つです。私は、クロールで100メートル泳ぐのが限界です。
というのは冗談で、クロールとは、グーグルがウェブサイトから情報を得る行為です。ウェブクローラ(Crawler)というソフトでおこなれます。
グーグルには2つのクローラが存在するといわれています。
1つは、フレッシュ・ボット(Fresh Bot)、もう1つは、ディープ・クロール・ボット(Deep Crawl Bot)といわれるものです。
違いは、サイトにくる頻度と情報収集の深さと言われています。グーグルにお金を出しても、これらの頻度は変わりません。
グーグルは、ユーザーに最適な検索結果を提供することを目指しており、これは長い目でみればグーグルにとっても、ユーザーにとっても最もよいことだと考えているからです。
ウェブサイトをクロールした後は、インデックス登録されます。本の巻末にある索引と同じように、単語と単語が使われたページに関する情報が含まれています。
そこには、さらに公開された日時、画像動画の存在などさまざまな要素が登録されます。
アルゴリズム
人々が検索して求めているものは、答えです。
グーグルは、アルゴリズムを日々改善してユーザーが求めている答えが書かれたページを表示するために努力しています。
実に様々な要素が―200を超えると公言されています―考慮されてどのページをどこに出すか決められます。
やはり、外部SEOで無理してサイトの順位をあげるより、内部SEO対策を充実させて、
検索する人が知りたいと思っている情報を提供をわかりやすく提供していくこと王道でしょう。
ただ、現在は、まだまだ外部SEO対策が効果を発揮する過渡期であるので、現実的なバランスが大事だと考えます。
ブログでも、サイトでも集客を意識するなら、自分が書きたいことを書くだけではなく、自分が書きたいことに加えて、
見る人がどんな情報を知りたいと思っているかという視点が非常に効果的です。これらは、経験によって得ていくしかありません。
答えは、時の流れとともに実際に移り変わっていきます。
スパム
インターネット上には膨大なスパムページが存在します。これらは、アルゴリズムと手動による対策で、排除されます。
スパムサイトの特徴としては、キーワードを何度も繰り返したり、隠しテキストを埋め込んだりするなどです。
他にも、オリジナルな部分がないサイト、ハッキングされたサイト、サイトからの不自然なリンク、サイトへの不自然なリンクのあるサイト、ページは、
スパムと判断されます。また、手動によるスパム認定は、サイト所有者に通知が行きます。
この通知を受けるためにも、ウェブマスターツールの導入はしておいた方がいいでしょう。
クローラ、インデックス、アルゴリズム、アルゴリズムと人間によるスパムページの排除がグーグル検索の仕組みの要素をなしています。