AjaxサイトでSEOを成功させる確実な方法

最終更新日:2024/03/01

ブログ

【メールマガジンのご案内】

SEOに役立つ記事の更新やセミナーのご案内をメールマガジンで行っております。
ぜひご登録ください。

メールマガジンに登録する>>
Ajaxを利用したウェブサイトやウェブサービスもかなり増えてきましたが、AjaxのSEOに関する情報は以前何度かあったものの最近は何故かSEO Japanも含めてご無沙汰してしまっています。今回は改めてAjaxのSEOに関して簡潔にポイントをまとめた記事を見つけたので紹介したいと思います。 — SEO Japan

SEOやインターネットマーケッターの会話にAjaxが入ってくるときはいつも、深いため息や“うわっ”という顔がついてくる可能性が高い。検索エンジンがこのタイプのコンテンツをインデックスするのが上手になっているというのは本当だが、それでもまだ私達は、彼らがそれを適切もしくは完全にインデックスすることを現実的に当てにできる時点にはいない。だからと言って、あなたがそれを使うことが出来ないという意味ではない。そのタイプのコンテンツがクローラーやAjaxユーザー以外にも見えることを確実にするためには、いくつか対策を講じる必要があることを意味するのだ。

あなたがする必要のある最初の対策は、静的ページとURLがコンテンツの全ての最終結果に存在するかどうか確かめることだ。例えば、あなたが地元の旅行ウェブサイトを運営していて、人々に特定の地域内にあるレストランやホテルやアトラクションやその他の情報を見てもらうためのロケーション/マップページを持っているとしよう。ユーザーはフィルターをオン/オフに切り替えることができ、異なるロケーションを見て、それぞれの場所に関して詳細情報を得ることができる。Googleプレイスからのデータを統合しているGoogleマップと同様に、AjaxとJavaScriptを介してそれを機能させれば、それはとても優れたユーザー体験になるだろう。しかしながら、その情報を全てAjaxの裏に“隠すこと”は、あなたがオーガニック検索トラフィックを達成するのには役立たないだろう。

あなたがすべきことは、それらの最終ゴールそれぞれに特定のユニークなURLを作ることだ。これらのURLは、Googleの高度な試験的なAjaxクローリングスパイダーだけでなく全ての検索エンジンスパイダーが読んで抜粋することができる方法で情報を提供する必要がある。これが、あなたが、Yahoo、Bing、FacebookTwitterStumbleuponそして、Blekko*やWolfram Alphaのようなサービスからさえもトラフィックを獲得することを保証するのだ。1つの検索エンジンやソースだけにトラフィックを依存することは、危険な戦略であり、気まぐれなアルゴリズムのアップデートを防御できない。(*BlekkoにはAjaxクローラーがあることを教えてもらった)

これらのページをそれぞれ用意したら、そのURLができる限り検索エンジンフレンドリーであることを確かめておきたい:3~5個のキーワードが入った短いURLで、パラメーターがないものだ。少しやり過ぎではあるが、rel=”canonical”タグを入れるのも良い考えだ。

少し注意が必要なのが、インバウンドリンクとEメール、そしてソーシャルメディアリンクやユーザーエージェントの検出である。閲覧者がコンテンツのAjaxバージョンを見ているにしろ、コンテンツの静的バージョンを見ているにしろ、あなたは“このページにリンクする”、“このページを共有する”、“このページをメール送信する”という機能を提供すべきであり、それは常に静的URLに進むべきだ。

ユーザーがそれらのページをリクエストしたり、検索エンジンからやって来てその静的URLページを要求する時には、あなたはそのコンテンツをどのように出すのかについて決断をする必要がある。もしユーザーエージェントがAjax/JavaScriptに対応していれば、その方法で出して構わない。もしそれがボットや非対応のユーザーエージェント(例:タブレット、iPad、携帯電話)の時には、HTML版を出す。最後に、私はいつも、ユーザーがクリックした時に本当に欲しいコンテンツを手に入れることを確実にするnoscript タグで潔く負けを認める。

これは二度手間のように思えるかもしれないが、あなたが適切にAjaxを使用していれば、恐らくそんなことはないだろう。あなたは同じデータベースから同じ情報を引っ張ってくるのだ―それは単に、変化するレンダリングの手法である。その一方、Flashは、もう少し問題があって、恐らく二度手間を要することになるだろう。だから私はその手法をお勧めしないのだ。同じデータベースからデータを引っ張ってくるのが良いアイディアである主な理由の1つは、それがあなたが“悪いクローキング”の状態を作らないことを保証するからだ。技術的には、クローキングとはスパイダーやエンジンに異なるコンテンツを出すことだ。もし実際のコンテンツが同じで、技術と実装の提供だけが違いであるなら、あなたのリスクは低く、高い防御態勢にある。特にもしあなたが、本当のURLにスパイダーを送るためにcanonicalタグを使っている場合には。

適切な場所に静的URLを置いたなら、検索エンジンがそのコンテンツを見たりアクセスしたりする手段を提供する必要がある。HTMLサイトマップやXMLサイトマップを使用することができるが、理想的には専用のクローリングパスを設定する必要がある。あなたのサイトがとても小さいものでない限り(2、300ページ以下)、最初に限界テストを実施することを勧める。まずは極めて重要なセクションではないページで段階的にこれを展開すべきだ。テキストブラウザテキストビューア―、そして、Xenu Link SleuthWebsite Auditorのようなクローラーを使用する。最後に、私はChange DetectionGoogle alertsのようなサービスと一緒に使用するためにモニタリングページを設定することをお勧めする。もし誰かが“壊したり”、“脱線したり”したら、24時間以内に知ることが大切だ。30日後に知った時にはコンテンツの70%がインデックスから外されているのだ。

あなたが検討しておきたい最後の問題は、内部重複コンテンツである。もし“Ajaxクローリングボット”がサイト内の重複ページに辿り着いたなら、あなたはボットにそのページに興味を持って欲しくないしそのフォーマットでコンテンツをインデックスして欲しくないだろう。静的なAjaxではないURLを指し示すrel=”canonical”タグを使用することが役に立つが、万が一のためにAjaxページ上に“noindex, follow”タグを置くこともお勧めする。検索エンジンに物事をさらしておくことが、問題の出どころ、時に大きくお金のかかる問題の出どころになるのだ…

この記事から学べることは以下の通りである:

  • Ajaxは悪魔ではないが、その実装はより難しく複雑であるため、それをどう使うか賢くなる必要がある。
  • Ajaxページからアクセスできる他とは異なる唯一無二の静的URLを提供する。
  • 同じコンテンツのより適したバージョンを出すためにユーザー検出を使用する。
  • あなたが適切なバージョンを呼び出していることを確実にするためにスパイダーシミュレーターを使用する。
  • インデックスの問題を素早く検出して、あなたのウェブサイトがマップから落ちる前に修正するために、変化検出とモニタリングを使用する。

この記事は、Graywolf’s SEO Blogに掲載された「Tips for Ajax for SEO」を翻訳した内容です。

技術的なことは最低限でしたが、ここに書かれている考え方や手法を参考にすればAjaxであっても検索エンジンフレンドリーなサイトができあがるのではないでしょうか。特に最初にあった「静的ページとURLがコンテンツの全ての最終結果に存在するかどうか確かめること」はAjaxベースでサイトを作る際の基本的な考え方として是非意識したいですね。 — SEO Japan

記事キーワード

  • Facebook
  • X
  • はてなブックマーク
  • pocket
  • LINE
  • URLをコピー
    URLをコピーしました!

編集者情報

  • X
  • Facebook

アイオイクス SEO Japan編集部

2002年設立から、20年以上に渡りSEOサービスを展開。支援会社は延べ2,000社を超える。SEO/CRO(コンバージョン最適化)を強みとするWebコンサルティング会社。日本初のSEO情報サイトであるSEO Japanを通じて、日本におけるSEOの普及に大きく貢献。

メディアTOPに戻る

RECRUIT

一緒に働く人が大事な今の時代だからこそ、実力のある会社で力をつけてほしい。
自分を成長させたい人、新しいチャレンジが好きな人は、いつでも歓迎します。