AIO/LLMO対策講座②!サイトは正しく発見される状態になっているか? 〜AIに選ばれやすいWebサイトにするためのセルフチェックガイド〜
3. サイトは正しく発見される状態になっているか
AIO/LLMO対策の第一歩は、AIや検索エンジンにWebサイトを正しく見つけてもらうことです。
どれだけ良い情報を書いていても、検索エンジンがページを見つけられなかったり、インデックスできなかったりすると、AIの回答にも使われにくくなります。
ここでいう「発見される」とは、単にWebサイトが公開されているという意味ではありません。
検索エンジンがページをクロールできること。
ページの正規URLが分かること。
サイト内の重要なページにたどり着けること。
古いURLや重複URLが整理されていること。
必要なページが検索結果に登録されていること。
こうした基本的な状態が整っていて、はじめてWebサイトの情報は検索エンジンやAIに扱われやすくなります。
AIO/LLMOというと、文章の書き方や構造化データに目が向きがちですが、技術的な土台も非常に重要です。
AIが回答を作るとき、Web上の情報や検索エンジンのインデックスを参考にする場面があります。そのため、そもそも検索エンジンに見つけてもらえないページは、AIにも見つけてもらいにくくなります。
まずは、自社サイトが正しく発見される状態になっているかを確認しましょう。
3-1. 検索エンジンにインデックスされているか
最初に確認したいのは、自社サイトのページが検索エンジンに登録されているかどうかです。
Webページは、公開しただけで必ず検索結果に表示されるわけではありません。検索エンジンがページを見つけ、内容を確認し、インデックスに登録してはじめて検索結果に表示される可能性が生まれます。
確認方法としては、Googleで次のように検索してみる方法があります。
site:example.com
example.comの部分を自社サイトのドメインに置き換えて検索すると、そのドメインでGoogleに登録されているページを確認できます。
たとえば、自社サイトが example.com であれば、
site:example.com
と検索します。
このとき、トップページだけでなく、商品・サービスページ、会社概要、料金ページ、FAQ、コラム、事例ページなど、重要なページが検索結果に出てくるかを確認します。
もし重要なページが出てこない場合は、次のような原因が考えられます。
- ページが新しく、まだクロールされていない
- 内部リンクが少なく、検索エンジンが見つけにくい
- noindexが設定されている
- robots.txtでクロールを拒否している
- ページの内容が薄く、インデックスされにくい
- 重複ページと判断されている
- サーバーエラーや表示不具合がある
特に注意したいのは、重要なページが検索結果に出ていないケースです。
たとえば、トップページは出ているのに、サービスページや料金ページが出ていない場合、AIが自社の具体的な内容を理解する材料が不足する可能性があります。
AIO/LLMO対策では、トップページだけでなく、次のようなページがきちんとインデックスされていることが重要です。
- 会社概要ページ
- 商品・サービスページ
- 料金やプランのページ
- よくある質問ページ
- 事例・導入例・実績ページ
- お客様の声・利用者の声
- 専門的なコラム記事
- 問い合わせや相談の流れを説明するページ
これらのページは、AIが会社やサービスを理解するための重要な材料になります。
まずは、Google Search Consoleを導入し、インデックス状況を確認することをおすすめします。Search Consoleでは、どのページが登録されているか、どのページに問題があるかを確認できます。
3-2. wwwあり・なし、http・httpsが統一されているか
次に確認したいのは、URLの統一です。
Webサイトには、次のように複数のURLで同じページが表示されてしまうことがあります。
http://example.com/
https://example.com/
http://www.example.com/
https://www.example.com/
ユーザーから見ると同じサイトに見えるかもしれませんが、検索エンジンから見ると、別々のURLとして扱われる可能性があります。
もし同じ内容のページが複数のURLで表示されていると、評価が分散したり、どのURLを正規のページとして扱うべきか分かりにくくなったりします。
AIO/LLMO対策でも、URLの一貫性は重要です。
AIが情報を参照するときに、同じ会社の同じページが複数のURLで存在していると、情報の整理がしにくくなる可能性があります。特に、古いURLと新しいURLが混在していたり、wwwあり・なしの両方が検索結果に出ていたりする場合は注意が必要です。
基本的には、次のように正規のURLを一つに決めます。
https://example.com/
または
https://www.example.com/
どちらを選ぶかはサイトの運用方針によりますが、大切なのは一つに統一することです。
確認すべきポイントは次のとおりです。
- httpでアクセスしたとき、httpsへ転送されるか
- wwwありでアクセスしたとき、正規URLへ転送されるか
- wwwなしでアクセスしたとき、正規URLへ転送されるか
- 古いURLが新しいURLへ301リダイレクトされているか
- サイト内リンクが正規URLで統一されているか
- sitemap.xmlに記載されているURLが正規URLになっているか
特に、httpからhttpsへの転送は必ず確認しましょう。
現在のWebサイトでは、HTTPS化は基本です。HTTPSでないサイトは、ユーザーに不安を与えるだけでなく、ブラウザ上で警告が表示されることもあります。
また、URLの統一は、検索エンジンにとってもAIにとっても、情報の一貫性を保つための重要な作業です。
3-3. canonicalは正しく設定されているか
canonicalとは、検索エンジンに対して「このページの正規URLはこちらです」と伝えるための設定です。
Webサイトでは、同じ内容または似た内容のページが、複数のURLで表示されることがあります。
たとえば、次のようなケースです。
- wwwあり、なしで同じページが見える
- URLの末尾にスラッシュあり、なしの両方がある
- パラメータ付きURLが存在する
- 印刷用ページがある
- カテゴリ違いで同じ記事にアクセスできる
- 一覧ページやタグページから同じ内容が重複して見える
このようなとき、canonicalを正しく設定しておくことで、検索エンジンに正規のページを伝えることができます。
HTML上では、次のような形で指定します。
<link rel="canonical" href="https://example.com/page/" />
canonicalが正しく設定されていないと、検索エンジンがどのURLを代表として扱えばよいか迷うことがあります。その結果、意図しないURLが検索結果に出たり、評価が分散したりする可能性があります。
AIO/LLMOの観点でも、正規URLの整理は重要です。
AIがWeb上の情報を参照するとき、同じ内容が複数のURLに分散していると、情報の一貫性が弱くなる可能性があります。特に会社情報、料金情報、商品・サービス情報のような重要なページでは、正規URLを明確にしておくことが大切です。
確認すべきポイントは次のとおりです。
- 各ページにcanonicalが設定されているか
- canonicalのURLが正規URLになっているか
- 存在しないURLを指定していないか
- 別ページを誤ってcanonicalに指定していないか
- sitemap.xmlのURLとcanonicalのURLが一致しているか
- httpとhttps、wwwあり・なしが混在していないか
特にCMSを使っている場合、テンプレートの設定やプラグインの設定によってcanonicalが自動出力されていることがあります。
自動出力されているから安心、とは限りません。
ページごとに意図したcanonicalになっているかを確認しましょう。
3-4. sitemap.xmlは送信されているか
sitemap.xmlは、検索エンジンにサイト内のページを伝えるためのファイルです。
検索エンジンはリンクをたどってページを見つけますが、サイトマップを用意することで、重要なページを発見してもらいやすくなります。
特に、次のようなサイトではsitemap.xmlが重要です。
- ページ数が多いサイト
- 新しいページを頻繁に追加するサイト
- 内部リンクが十分でないページがあるサイト
- コラムやお知らせを定期的に更新しているサイト
- 商品・サービスページが複数あるサイト
- リニューアル直後のサイト
sitemap.xmlには、検索エンジンに見つけてほしいURLを記載します。
ただし、何でも入れればよいわけではありません。
sitemap.xmlに入れるべきなのは、基本的には検索結果に表示させたい正規URLです。
次のようなURLは、原則として入れないほうがよいでしょう。
- noindexにしているページ
- 重複ページ
- テストページ
- 管理画面のURL
- 存在しないURL
- リダイレクトされるURL
- 古いURL
- パラメータ付きの不要なURL
sitemap.xmlを作成したら、Google Search Consoleから送信します。
送信後は、エラーが出ていないか、登録されたURL数に大きな違和感がないかを確認します。
また、サイトをリニューアルしたときや、URL構造を変更したときは、sitemap.xmlも必ず見直しましょう。
古いURLが残ったままだと、検索エンジンに誤った情報を伝えてしまう可能性があります。
AIO/LLMO対策においても、sitemap.xmlは「AIに直接効く魔法のファイル」ではありません。
しかし、検索エンジンがサイト内の重要なページを見つけやすくなることで、結果的にAIが参照しやすい情報基盤を整えることにつながります。
3-5. robots.txtでクロールを妨げていないか
robots.txtは、検索エンジンなどのクローラーに対して、クロールしてよい場所・してほしくない場所を伝えるためのファイルです。
通常、次のようなURLで確認できます。
https://example.com/robots.txt
robots.txtの設定を誤ると、検索エンジンに見てほしいページまでクロールを拒否してしまうことがあります。
たとえば、次のような設定には注意が必要です。
User-agent: *
Disallow: /
これは、すべてのクローラーに対して、サイト全体をクロールしないように伝える設定です。
テスト環境では使うことがありますが、本番サイトに残っていると大きな問題になります。
また、リニューアル時にテスト環境の設定がそのまま本番環境に反映されてしまうケースもあります。
確認すべきポイントは次のとおりです。
- サイト全体を誤ってDisallowしていないか
- 重要なページやディレクトリをブロックしていないか
- CSSやJavaScriptなど、表示に必要なファイルを妨げていないか
- sitemap.xmlの場所が記載されているか
- テスト環境用の設定が本番に残っていないか
AIO/LLMOの観点では、AI関連のクローラーについても確認が必要になる場合があります。
生成AIやAI検索サービスは、独自のクローラーを使ってWeb上の情報を取得することがあります。どのクローラーを許可するかは、サイト運営者の方針によります。
ただし、「AIに自社情報を見つけてもらいたい」と考える場合は、少なくとも検索エンジンや主要なクローラーを不必要に拒否していないかを確認しておくべきです。
robots.txtは、サイト全体の発見性に関わる重要な設定です。
AIO/LLMO対策を始める前に、まずは「AIや検索エンジンがサイトを読める状態になっているか」を確認しましょう。
ヒニアラタ編集部 監修: 馬庭 吾以千
ヒニアラタ編集部では地方の中小企業様のWeb活用をお手伝いするため、私たちが持っている専門知識を「コラム」という形で分かりやすく公開しています。 私たち自身が地方の企業であるからこそ分かること、感じることがあると思っています。