記事作成代行とコンテンツマーケティングのサイトエンジン

SEOの未来予測のために抑えておきたいGoogleアルゴリズムアップデート12選

目次
1.googleアップデートの理由
2.アップデートの種類と歴史
3.ブラックハットSEOについて
4.ブラックハットSEOは今どう思われているのか
5.ホワイトハットSEOとgoogleの関係
まとめ

1.googleアップデートの理由

googleにとって最も大切な顧客は誰でしょうか?広告主でしょうか?間接的にはそうかもしれません。しかし、誰も使わないサイトや検索エンジンに広告を載せたがる人はいるでしょうか?
googleが最も重視しているのは、他ならぬ一般の検索者です。検索者が多くなればなるほど、そこに広告を出したがる人は増えます。
検索者が減れば減るほど、広告を出したがる人は減ります。つまり、googleはいつでも、どうすれば検索者が増えてくれるのかを考えています。
そしてその結果が、現在までのアップデートに反映されているのです。googleアップデートは、常に検索者の利便性向上のために実行されています。

2.アップデートの種類と歴史

近年パンダアップデート、ペンギンアップデート、ハミングバードアップデートなどの大きなアップデートを実施しているgoogleですが、これまでもgoogleは検索エンジンの能力向上のために多くのアップデートを行ってきました。ここではその一部をピックアップして紹介します。

2-1 ボストン


「ボストン」は2003年2月に実施されたアップデートであり、googleアップデートの中でも一番最初に名前を付けられたアップデートです。この時はアルゴリズムの変更とインデックスデータの全体更新が行われ、現在の検索エンジンに至るまでの、劇的な流動性向上の始まりとなりました。

2-2 エスメラルダとフリッツ


「エスメラルダ」は2003年6月に、「フリッツ」は同年7月に実施されたアップデートです。
この二つのアップデートの目的は「googleのデータ更新頻度を増やす」ことでした。googleはそれまで全体更新をだいたい月一回で行っていましたが、そうした分断された更新ではなく、継続的な更新システムを取り入れるためにこのアップデートが行われたのでした。また、月一回の更新頻度だった時には、その全体更新が完了するまでに数日を要していたために「Google Dance」と呼ばれる激しい検索結果順位の変動がありましたが、これらのアップデート後は「Everflux」と呼ばれる現象に置き換わり、毎日新しい情報の追加更新が行われ、順位がその都度変更されるようになりました。そして毎日の追加更新を行っているプログラムは現在「Freshbot」と呼ばれています。

2-3 フロリダ/オースティン


「フロリダ/オースティン」は順に2003年11月・2004年1月に行わた一連のアップデートです。
フロリダアップデートでは、ページに関連性が無い単語を大量に詰め込む「キーワードスタッフィング」のような、質が低くて古いSEO手法を利用しているページの評価が落ちました。
オースティンアップデートでは、フロリダアップデートが見逃した「サイト訪問者には見えない所で大量に文字を詰め込み字数を稼ぐサイト」の評価が落ちました。
またこのアップデート時には「Hilltop」アルゴリズムが追加されたと言われています。Hilltopアルゴリズムとは、サイトの専門性を理解し「エキスパートサイト」として認識してそのサイトの評価を上げたり、「そのサイトと、そのサイトがリンクを貼るサイトをスパム認識しない」と言ったことを決定するアルゴリズムで、これによりサイトの有用性がより厳しく評価されるようになりました。

2-4 ブランデー


「ブランデー」は2004年2月に行われたアップデートであり、3つ程重要な変更がなされました。
1つ目は「Latent Semantic Indexing(LSI)」という技術が導入されたことです。これによりgoogleの検索エンジンは、例えばPC=パソコンといったように、同じ意味や対象を表す略語などを同義語として認識するようになりました。
2つ目は「アンカーテキストの妥当性」が注目されるようになったことです。リンク先の内容と、アンカーテキストの示すものがズレていないかがチェックされるようになりました。
3つ目は「link neighborhoods」という概念が取り入れられたことです。これにより、AというサイトがBというサイトのリンクを張った場合、AはBと関係性があるとgoogleに認識されるようになりました。従って、もしBが悪質なサイトだった場合、Aは悪質サイトの仲間だと認識される可能性が高まりました。しかし、逆にAが良質サイトへリンクを張った場合Aの評価も上がる可能性も高まりました。

2-5 ノーフォロー

「ノーフォロー」は2005年1月に行われたアップデートであり、’’nofollw’’タグを使って、外部リンクと自サイトの関係を認識されないようにする手法が利用可能になりました。
情報の一つとしてリンクを貼りたいがリンク先の質が不明な場合や、他社が自由に掲載する場を持つサイトが、自動でリンクにnofollwがつくようにページを設定することで、他サイトから悪質なリンクスパムを埋め込まれても悪影響を及ぼされることがなくなりました。

2-6 カノニカルタグ

「カノニカルタグ」アップデートは2009年2月に行われ、”canonical”をプログラムに組み込むことで、重複ページに分散していた評価を一つの代表ページに統合することができるようになりました。これにはサイト構築者の負担を減らす目的があり、良質な情報を持っていてもプログラム上不都合が生まれているサイトへの救済措置の面がありました。

2-7 カフェイン


「カフェイン」は2009年8月に行われたアップデートであり、2010年の6月に完了しました。このアップデートでは、サイトの形式がどんなものであってもgoogleが高速でインデックスできるように改良が施され、検索エンジンの流動性向上に貢献しました。

2-8 パンダアップデート


「パンダアップデート」は2011年に行われたアップデートであり、日本には2012年に導入されました。
これはサイトのコンテンツが訪問者にとって本当に有益かどうか、その品質を判断するためのアルゴリズムが取り入れられたアップデートであり、サイトのテーマ性とそれに関連した内容の深さ、例えば分析や考察が優れている、といったことが判断されるようになりました。そして、内容の薄いコンテンツを大量生産したり、広告ばかりのサイトに厳しい評価を与えたため、当時横行していた、大量の低品質コンテンツを投入することによってサイトのランクアップを図る手法が無効化されました。またこのパンダアップデートは1度や2度では終わらず何度も更新されている点が特徴的です。

2-9 ペンギンアップデート


「ペンギンアップデート」は2012年に行われたアップデートです。これによりテクニカルなブラックハットSEO、つまりウェブスパムを排除するアルゴリズムが導入されました。自動作成された、文法的には正しいのに全く意味がない文章で構成されるワードサラダや、関連性が低く低品質なサイトからのリンクを沢山持つサイトが悪質とみなされるようになりました。そしてこのペンギンアップデートも、パンダアップデート同様何度も更新されています。

2-10 ハミングバード


「ハミングバード」は2013年に実施されたアップデートです。このアップデートは検索エンジンが単純にキーワードを拾うだけではなく、検索者の検索意図をより正確に理解することを目的として導入されました。検索ワードとインデックスされたサイトのキーワードを照らしあわせて表示するだけでなく、検索ワードによってどんな結果をユーザーが求めているのかということも考慮された検索結果が出るように改良され、より検索者の目線に沿った検索エンジンとなりました。このアップデートによる影響としては、今までなかなかスポットが当てられてこなかったキーワードも注目されるようになったという点が上げられます。

googleアップデートのまとめ

 googleが行うアップデートには名前が付けられて公表される大々的なものもありますが、基本的には名前もない小さな更新が多いです。日々小さなアップデートが行われ、検索エンジンは機能の向上を続けています。また同時にパンダアップデートなどは何度も更新されており、一度切りのアップデートでは終わりません。こうしてgoogleの検索エンジンは日々検索結果の精度を上げています。

3.ブラックハットSEOについて


「ブラックハットSEO」とはgoogleのアルゴリズムの欠陥を利用してサイトの順位を上げることを目的としたSEOです。大量の外部リンクを自サイトに集めてランクを上げたり、キーワードのみを散りばめたり、他のサイトのコンテンツをコピーしたり、サイト訪問者が実際に見るページとgooglerobotが見るページをすり替えたり、そういったテクニカルな手法でgoogleが対処できていない隙をついてサイトのランク上昇を図るのです。

4.ブラックハットSEOは今どう思われているのか

ブラックハットSEOは基本的に一般検索者からすれば迷惑なことが多いです。キーワードだらけで大した価値のないサイトだったり、自作自演のリンクを大量に集めていたりと、検索者の利便性を損ねるような構成をもつサイトが検索結果の上位に表示されてしまう可能性が高くなるからです。しかし、現在はgoogleのアルゴリズムもかなり改善され、こうした手法は使えなくなってきています。もしこうした手法を利用していることが発覚した場合、そのドメインはGoogleの検索結果から排除される可能性が高く、google内に存在することが許されない状況に陥ります。
ブラックハットSEOを利用することは犯罪でも何でもありませんが、パンダ・ペンギンアップデートなどでアルゴリズムがますます強化されている中で、あえて間隙を縫うようなやり方を取るのは、コスト・リスクの観点から見て非生産的だと現在では言われています。

5.ホワイトハットSEOとgoogleの関係


ホワイトハットSEOとはブラックハットSEOの対義語として存在するSEOであり、googleと同様検索者の利便性を考えたサイト構造やコンテンツを作成するとともに、googleの考案したサイト評価方法に則ってサイトの価値を上げる手法です。
本来、googleは検索者に有益なサイトを評価するので、サイト作成者は訪問者の利便性を念頭にページを作成すれば上手くいくはずです。しかし、実際は、どういったサイトが優良サイトなのかという基準をgoogleが決めている上に、検索者がある程度使用する検索ワードを考慮しなければ意図した検索結果が出にくいというのが現状です。googleはそのギャップを埋めるために日々アップデートしていますが、未だ検索者の求める検索結果と実際の検索結果を完全に一致させることができていません。
そこで、ホワイトハットSEO業者がサイトの最適化を行い、出来る限り検索結果のズレをなくそうとしているのです。またサイト訪問者に好まれるコンテンツはどんなものか、サイトの構造(ディレクトリ構造)はどのようなものがわかりやすいか、1ページの構成はどのようにすればよいのか、サイトのプログラムはどうすればgooglerobotにすんなり理解してもらえるのか、そういった点を考え、googleの検索エンジンに集まるサイトの質を上げるのもホワイトハットSEO業者です。googleの「優良サイトをきちんと認識したい」というニーズとサイト作成者の「掲載する情報は有益なものだからきちんとgoogleに認識させたい」というニーズの間に仲介しているのがホワイトハットSEO業者なのです。

まとめ

googleアップデートの歴史からは、googleが今後さらにアルゴリズムを発展・改良しブラックハットSEO手法を無効化していくことがわかります。また、リンク先とアンカーテキストの関連性を認識したり、セマンティック技術によって類義語のくくりを作ったりしていることから、検索者の意図を汲むためにより広いワードを認識し結びつけ、また検索ワードと表示されるコンテンツの関わりをより深く認識するようになっていくことが読み取れます。したがってサイト制作者は、具体的には類似キーワードによって、そのページのコンテンツがどういった「グループ」に属しているのかを示すと同時に、ページ内の情報単位を区切ってgoogleの要求に正確に合致するコンテンツを作っていく必要があります。
これを考えれば、ブラックハットSEOを利用するサイトで、競争の激しい商用ワードを使用しているためブラックハットSEOに頼らなければ上位表示されない、と言う切実な理由を持つところも、ロングテールSEOと言うより具体的かつ幅広いワードでの表示を狙う手法を利用して活路を見出すことができます。
googleのアルゴリズムが更新されるごとに、プログラム的欠陥は少なくなっていくため、今後はますますホワイトハットSEOが大切になります。そして、その場合一番大事なのは、検索表示一位を目指すことではなく、サイト訪問者の利便性を考えることであり、彼らの要求に正確に答えるコンテンツを用意することなのです。