ウェブ制作会社が押さえておきたい、AIが変えたSEOの常識。これからのコンテンツ戦略に必要な「LLMO・GEO」という視点
「表示回数は増えているのに、クリック率が上がらない」——多くのウェブ制作会社が直面しているこの悩みの正体は、AI検索の普及です。
本記事では、AIがどうSEOの前提を変えたのかを整理し、次の一手として注目される「LLMO・GEO」という考え方まで解説します。
AIによって起こった検索の質の変化
検索クエリの変化:単語から会話型へ
GoogleやBingがAI回答機能を搭載し、ChatGPT・Claude・Perplexityといった生成AIが日常的に使われるようになった結果、ユーザーの検索行動は大きく変化しています。
かつての検索は「SEO 対策」「デザイン 制作会社 東京」のような短いキーワードが中心でした。
しかし現在は「AIを活用しているデザイン制作会社はどこ?」「Claude Coworkを使う際のセキュリティリスクを教えて」といった、意図や感情を含んだ会話型クエリが主流になっています。
表示回数が増えてもクリックされない問題
AIオーバービュー(GoogleのAI Summary)が検索結果の上部に表示されるようになったことで、ユーザーがその要約で満足し、リンク先の記事までたどり着かないケースが急増しています。
実際のデータで見えてきた傾向
掲載順位6〜7位なら通常3〜5%程度のCTRが期待できますが、AIオーバービューに情報を吸い上げられた記事では、同じ順位でもCTRが2〜3%台にとどまるケースがあります。
逆に、AI要約では補いきれない「リスク詳細」や「実体験を含む情報」を扱った記事はCTRが10%を超えるケースも見られます。
AIオーバービューによるCTR下落の実態
マーケティングエージェンシーSeer Interactive(2002年創業、Search Engine LandやSearch Engine Journalなど業界メディアでも頻繁に引用される調査機関)が2024年6月〜2025年9月にかけて2,510万件以上のインプレッションを分析した調査によると、AIオーバービューが表示されているクエリのオーガニックCTRは61%も下落(1.76%→0.61%)したことが分かっています。
Ahrefsの調査(2025年12月)でも、AIオーバービューがある場合の1位表示のCTRが58%低下したと報告されています。
さらに注目すべきは、AIオーバービューが表示されていないクエリでもCTRが41%下落しているという事実です。
これはAIの普及がGoogle単体の問題ではなく、ユーザー全体の「クリックしない」という行動変化を引き起こしていることを示しています。
CTR下落率
1位CTR下落率
CTR下落
出典:Seer Interactive「AIO Impact on Google CTR」、Ahrefs「AI Overviews Reduce Clicks by 58%」
AI経由流入ユーザーの高いコンバージョン率
ただしAIの普及はデメリットばかりではありません。
クリック数は減っても、クリックしてくるユーザーの「質」は格段に向上しています。
NYSE上場の大手SEOプラットフォームSemrushおよびSeer Interactive(2025年6月)の調査によると、AI経由で流入したユーザーのコンバージョン率はChatGPT経由で15.9%、Perplexity経由で10.5%。
Googleオーガニックの平均コンバージョン率1.76%と比べると、ChatGPT経由のユーザーは約9倍の成約率を誇っているようです。
Semrushの調査でも、LLM経由の訪問者はオーガニック検索訪問者の4.4倍のコンバージョン率を記録しています。
AIが要約しきれず「実際に記事を読もう」と判断してクリックしてくるユーザーは、すでに目的が明確な高意図層です。
最初から温度感が高いユーザーに対して成約率が高くなるのは当然の話ですよね。
この点を鑑みても、今後はクリック数だけをKPIとして追うのではなく、クリックの「質」に目を向けることがAI時代のウェブ戦略で重要になってくることが分かります。
出典:position.digital「100+ AI SEO Statistics」(Seer Interactive, June 2025)
従来のSEOの考え方
まず従来型のSEO(検索エンジン最適化)の基本を整理します。
大きく分けると「テクニカルSEO」「コンテンツSEO」「外部SEO」の3軸です。
これらの施策はいまも有効です。
ただし、Googleは近年の一連のアルゴリズムアップデートを通じて、コンテンツの評価基準を大きく引き上げています。
2022年の「Helpful Content Update」を皮切りに、2024年3月にはCore Updateへの完全統合が完了し、「不必要なコンテンツを45%削減できた」とGoogleは報告しています。
変化の核心は、キーワードの単純な出現頻度から「意味の理解」への転換です。
GoogleはHummingbird(2013年)・RankBrain(2015年)・BERT(2019年)といったアップデートを経て、検索クエリに含まれる言葉だけでなく、共起語(一緒に使われやすい関連語句)や文章全体が持つ意図・文脈を解析するセマンティック検索を標準化しました。
どういうことかというと、これまでのSEOがとにかく検索に使われるような「SEO 対策 方法」といったキーワードを盛り込んでおけばひとまずOKだったものが、これからはキーワードが入っているかどうかではなく、そのページが検索者の意図に真に応えているかを判定する仕組みに変わったということです。
Google公式の評価基準「E-E-A-T」
Googleは品質評価の軸として E-E-A-T(Experience・Expertise・Authoritativeness・Trustworthiness)を公式に提唱しています。特に2022年に追加された「Experience(実体験)」は、実際に使った・訪れた・試したという一次情報の重要性を示すものです。
出典:Google Search Central「Creating helpful, reliable, people-first content」Google Search Central Blog「helpful content update」
Google・Yahoo!・Bingのアルゴリズムと歴史的背景
ここで初歩的な視点に戻りますが、「SEOはGoogleだけを意識していればいいの?Yahoo!やBingはどうするの?」と疑問に思う方もいるかもしれません。
せっかくなので、その答えを理解するうえで欠かせない検索エンジンの歴史的背景を少し掘り下げてみます。
Yahoo!の検索エンジンの歴史
検索エンジンの歴史を振り返ると、Yahoo!はもともと「ディレクトリ型」の検索サービスでした。
つまり、ウェブサイトをカテゴリ別に人力で分類・掲載するという、現代からすると驚くほどアナログな仕組みでした。
当初は文字順(アルファベット順)での表示が行われていたため、「A」から始まる社名が検索で有利だという通説が生まれ、社名にAを入れる企業が増えたという逸話も残っています。
流れとしては、
サイトを開設したらYahoo!に申請し、Yahoo!のスタッフが内容を目視確認して登録可否を判断する——申請者側はいつ反映されるかな…?と反映をひたすら待つというイメージです。
毎日いろいろなサイトやページが公開されている今の情報社会においては、そんな非効率なことできるか!と言いたくなるこの体制が当時の「SEO」の実態でした。
アルゴリズムではなく人間の審査が検索順位を決めていた時代です。
Yahoo!とGoogleのアルゴリズムは同じなの?MicrosoftとYahoo!の提携:Bingが共通エンジンになるまで
2009年、MicrosoftとアメリカのYahoo!は10年間の検索事業提携を締結しました。
これによりYahoo!の検索エンジンは独自技術からMicrosoftの「Bing」に切り替わります。
つまり現在、グローバルでのYahoo!の検索結果はBingのアルゴリズムで生成されています。
BingとGoogleのアルゴリズムは完全に一致しているわけではありませんが、「ユーザーにとって最適な検索結果を提供する」という目標は同じです。
そのため基本的な設計思想は似通っており、Googleに寄せた設計になっていると考えて差し支えありません。
ちなみにYahoo! JAPANに限ったお話をすると、こちらは2011年にGoogleアルゴリズムを採用しています。
つまりYahoo! JAPANのアルゴリズム ≒ Googleのアルゴリズムという形になっています。
「3つの検索エンジンは同じアルゴリズム?」への補足
厳密には「3つが同じ」ではありません。整理すると次のようになります。
・グローバルの Yahoo! = Bing(2009年の提携により)
・Yahoo! JAPAN ≒ Google(2011年にGoogleアルゴリズムを採用)
・Bing ≠ Google(別会社・別アルゴリズム。ただし目指す方向性は近い)
日本市場においては「Yahoo! JAPAN ≒ Google」という理解が正確です。
GoogleとBingは別物ですが、「ユーザーに最適な結果を返す」という目標が共通しているため、Googleを基準にしたSEO設計が両者をある程度カバーします。
出典:Search Engine Journal「Yahoo Japan Search Strategy」
日本の検索エンジンシェア(2025年) | Bingへの最適化は必要?
前章でも説明したようにYahoo! JAPANはGoogleアルゴリズムを採用済みのため、GoogleのSEOを最適化すれば自動的にYahoo! JAPANもカバーできます。
一方Bingはソーシャルシグナルや完全一致キーワードを重視するため、SNS発信やURL設計の工夫が有効という特徴があります。
とはいえ現在日本の検索の約9割はGoogleが占めている状態です。
つまり個人的な意見になってしまうかもしれませんが、GoogleのSEO対策で、日本の検索の約9割をカバーできると言っても過言ではないと思っています。
出典:StatCounter – Search Engine Market Share Japan(2025年)
その他の検索エンジンについて
その他の検索エンジンとしていくつか例を挙げると、例えばDuckDuckGoはプライバシー重視の検索エンジンとして知られていますが、日本でのシェアは1%未満です。
BaiduはChina専用、YandexはロシアをはじめとするCIS圏で強いシェアを持ちますが、日本市場では実質無視できる規模です。
結局のところ、日本国内のウェブ戦略においては「Google対策 ≒ 検索エンジン対策」と考えて問題ありません。
AIの回答に選ばれる情報の条件
SEOの目的はこれまで「検索結果で上位に表示され、クリックされること」でした。
しかしAI検索が普及した現在、もう一つの経路が重要になっています——「AIの回答に自社・自サイトが登場する状態を作ること」です。
AI(Claude、ChatGPT、Gemini、Perplexityなど)が回答を生成する際の情報ソースは大きく2種類に分かれます。
特にリアルタイム検索型のAIにとって「抜き出しやすい情報構造」と「他サイトには存在しない一次情報」は強力な引用条件になります。
| 種別 | 仕組み | 引用される条件 |
|---|---|---|
| 事前学習型 Claude/GPTなど | 学習時にクロールされたデータから知識を習得 | ドメイン権威性・被リンク・長期インデックス維持 |
| リアルタイム検索型 Perplexity/Geminiなど | 回答生成時にリアルタイムでウェブ検索して引用 | 構造化情報・一次データ・著者明示・質問への直接回答 |
LLMOとGEO:AI時代の検索最適化
この流れを受けて注目されているのが、LLMO(Large Language Model Optimization)とGEO(Generative Engine Optimization)という概念です。
| 概念 | 定義 | 目的 |
|---|---|---|
| SEO | Search Engine Optimization | Google等の検索エンジンで上位表示されること |
| LLMO | Large Language Model Optimization | ChatGPT・Claude・Gemini等の回答に自社が登場すること |
| GEO | Generative Engine Optimization | AI生成検索エンジン全体で引用・推薦される状態を作ること |
SEOの主要指標がクリック率(CTR)だとしたら、LLMOやGEOで重要になるのは「引用率」です。
現時点では、GA4のリファラルチャネルを確認することでclaude.ai/referralやgemini.google.com/referralといったAI経由のクリックを把握することはできるようになってきました。
しかし「AIに引用されたかどうか」そのものを数値で確認する手段は、まだ確立されていません。
これがLLMOの現状における最大の課題です。
クリックまで発生しなくても「AIの回答内でブランド名が登場した」という事実は着実にブランド認知に貢献しているはずですが、それを計測する仕組みはまだ整っていません。
今後、引用率をモニタリングできるツールや指標が生まれてくる可能性は高く、Perplexityのような引用特化型AIの普及がその動きを後押しするかもしれません。
AI時代のコンテンツ設計
AIに引用されるコンテンツの設計
AIが回答を生成するとき、引用したくなる要素を意識的に配置することが重要です。
具体的には
①独自データ・実測値
②FAQ形式・定義文・箇条書きで「抜き出しやすく」する構成
③著者・会社名・更新日の明示
の3点がポイントです。
AIが複製できない情報こそAIに引用されます。
「自分で生成できる平均的な情報」より「自分が知らない具体的な数字や事例」を引用したがるためです。
ウェブ記事以外の情報発信とLLMOへの影響
LLMO・GEOの設計を一言で表すなら「情報の網羅性」です。
SEOはその網羅性を構成する要素のひとつに過ぎません。
AIはウェブ記事だけを学習しているわけではなく、SNS・動画・プレスリリース・他サイトからの言及・オフラインイベントの記録など、あらゆる情報チャネルに分散した情報を統合して学習・引用します。※SEOにも共通する部分はありますが
つまりLLMO・GEOを意識した戦略では、ウェブ記事だけでなく情報が存在する場所そのものを広げる発想が必要です。
SNSでの情報発信(XやInstagramはAIのクロール・学習対象になり得る)、他メディアやブログからの言及・引用、YouTube等の動画コンテンツ、プレスリリースの配信、そしてオフラインイベントの情報をウェブ上で周知することも、LLMOの観点では意義があります。
これらのタッチポイントが増えるほど、AIが「この会社はこの分野で信頼できる情報源」と認識しやすくなります。
SEOとLLMO・GEOの関係性
LLMO・GEOは「情報の総合的な網羅性」を高める施策全体を指します。SEOはその中の重要な一要素ですが、あくまで「検索エンジン向け」の最適化に限定されます。
SNS・動画・プレスリリース・被言及などを含めた複数チャネルへの展開がLLMO・GEOの本質的な設計です。
AI生成記事のSEOへの影響は?
Googleは「AI生成コンテンツ自体はペナルティ対象ではない」と明言しています。
ただし、「検索順位操作を目的とした低品質なAI大量生成」はスパム扱いとなります。
一時期、記事の構成からライティング・公開までを自動で行うAIコンテンツ生成ツールがいくつか流行しました。
しかし、AIが自律的に生成したコンテンツは「どのツールで生成しても似たような内容になる」という根本的な問題を抱えています。
AIは学習データの平均値から回答を生成するため、個別の企業視点・実体験・独自の数値といった要素が入りません。
結果として、ユーザーが本当に求めている情報——「この会社はどう使っているのか」「実際の現場ではどうなのか」——が欠落した、どこにでもある内容になりがちです。
注意点:Googleのクロールバジェットと低品質記事の関係
Googlebotは1つのドメインに対して1日にクロールできる回数に上限があります(これを「クロールバジェット」と呼びます)。
仮に1日100回のクロールが割り当てられているドメインに1,000ページの記事があり、その大半が低品質なAI生成記事だとしたら、数少ない高品質記事がクロールされる機会が単純に減ることになります。
低品質な記事が増えれば増えるほど、せっかく作った良質な記事がGoogleに評価される機会が奪われる——このクロールバジェットの無駄遣いという観点からも、低品質なAI記事の大量掲載は逆効果です。
さらに2023〜2024年のコアアップデートでは、AI生成記事を大量掲載していたサイトがドメイン全体で順位を下げるケースが相次いでいます。
1記事でも低品質なAI記事があると、他の良質記事にも影響が及ぶ可能性があります。
ここまでの流れで考えると、AIが書いた記事をそのまま自社のコラムとして掲載するのは、SEO的にややNG寄りです。
ただし現実的な運用ラインとして、
・AIに構成や下書きを作らせる
・自社の実案件・数値・失敗談を人間が追記する
・一次情報(スクリーンショット、実測データ)を加える
・著者名と更新日を明示する
と言った具合に、「AIに書かせた後、独自価値を注入」するというのが、AIの上手い活かし方だと思います。
まとめ|SEOの知識はLLMO・GEO最適化の土台になる
これからのウェブ戦略に必要なシフトは3つです。
①「クリック数」だけをKPIにしない——CTRが下がっても、AI経由のコンバージョン率は約9倍という現実があります。
②「網羅性」と「独自性」へ——キーワードの網羅的な記事は誰でもAIで作れます。自社にしかない実体験・数値・視点こそが評価される時代です。
③SEOの知識をLLMO・GEOに活かす——E-E-A-T・構造化・被リンク・テクニカルSEOの知識はLLMOにも直接応用できます。
SEOとLLMO・GEOは「どちらか」ではなく「両方」です。
Googleでの検索順位を追いながら、AI回答に自社が登場する状態を並行して作っていく——それが、これからのウェブ戦略の現実的なかたちです。
今まで積み上げてきたSEOの知見は決して無駄になりません。
むしろそれがLLMO・GEO最適化の土台になっていくのではないでしょうか。