Googleがブラックハットを完全に排除できない理由


「ブラックハットSEOは排除する。」公言しているのですから、定義を明確にし、黙って排除すればよいはずですが、Googleはそれをせずに、なぜ放置しているのでしょうか?その意図は?

理由のひとつは、かつてはGoogleが丁寧にガイドまでつけて推奨していた、という理由があるでしょう。方針転向こそ明言したものの、アルゴリズムが追従できず、自動化もままならないため、オペレーターの目視確認が必須になるケースです。

例えばニュースリリース。
Googleはかつて、「ニュースリリースのテキストリンクの書き方」まで掲載していました。しかし、今は「nofollowにしないとそれはスパムである」と言っています。

オペレーターの目視確認が必須なケースは、巧妙にGoogle検索をだますための設計が施されたサイトです。例えばニュースリリースの引用を模した形でリンクを付けられた場合、それをスパムとするべきか判断に悩む場合があります。人の目で見れば明らかにスパムか、非スパムかがわかるケースであっても、検索ロボットは全く検知できないか、全てにアラートフラグを付けてしまう可能性があります。そのために、もしオペレータが必要ならGoogleはより多くのコストを掛けなければいけません。コスト低減を図りたいGoogleとしては最も無駄に感じるのがブラックハットとの戦いです。

また、コンピュータ資源の投資対費用効果(ROI)も重視したいでしょう。各国の対応のために大量のデータセンタ施設を投下していますが、その資源を少しでも収益に変えたいと考えているのではないでしょうか。そのためには、無益なデータをできるだけ排除したいと考えるでしょう。また、その設備に対して、よりパワーの有るコンピュータ資源を投入するためにもゴミは残したくないと考えるでしょう。

Googleにとって、反Google的なサイトのためにコストを掛けるのは承服しかねますよね。ただし、これらの問題はかつて、シェア拡大のためにスパムをゲーム化させた、Googleにも問題があるのです。


関連記事

コメントは利用できません。

ページ上部へ戻る