AIは「SEOを考慮して」と指示すると、なぜSEOの真逆を行くような薄っぺらい記事を書くのか?

LLMの確率的生成構造が引き起こす「SEO最適化パラドックス」の全貌

「SEOを考慮して記事を書いて」

この一言をAIに投げたことがある人は多いだろう。そして、返ってきた文章を読んで、こう思ったはずだ。

「……薄い。」

H2・H3が整然と並び、「まず結論からお伝えすると」で始まり、「いかがでしたか?」で終わる。見出しの下には教科書を薄めたような一般論が詰まり、どこかで100回は読んだような説明が続く。キーワードは不自然に散りばめられ、文体は徹底的に均質化されている。

ここに根本的な矛盾がある。「SEOを考慮して」という指示が、SEOで勝てない文章を生成させている。

これは単なるAIの性能不足ではない。LLM(大規模言語モデル)の確率的生成メカニズム、学習データの偏り、そして「SEO」という概念がAI内部でどう符号化されているかという構造的問題が絡み合った結果だ。

この記事では、なぜこの逆説が生じるのかを、LLMの動作原理から解き明かし、そこから逆算して「AIに本当に検索上位を獲れる文章を書かせるにはどうすればいいのか」までを設計する。

落合

私も最初のうちはAIの記事レベルの低さ、内容の薄さ、これに大変苦労しました。

「SEOを考慮して」はAIにとって何を意味するか 指示の曖昧性が引き起こす最適化対象のすり替え

まず理解すべきは、AIは「SEOを考慮して」を「検索上位に表示される記事を書け」とは解釈していないという事実だ。人間がこの指示を出すとき、頭にあるのは「結果としての上位表示」だろう。しかしLLMにとって、この指示は次のように処理される。

LLMは指示文を受け取ると、学習データ上で「SEOを考慮した記事」というコンテキストに最も高い確率で結びついていたパターンを再現しようとする。ここで決定的なのは、学習データ上に「SEOを考慮して書かれた記事」として大量に存在するのは、実際に上位表示されている高品質記事ではなく、「SEO記事の書き方」を解説した記事群と、そこから量産されたテンプレ型コンテンツだということだ。

つまりAIが最適化しているのは、「効果(上位表示)」ではなく「形式(SEO記事っぽさ)」である。この区別は致命的だ。形式の最適化は、見出し構造の整備、結論→理由→まとめのフレーム適用、キーワードの配置、段落の均等分割といった「見た目の整形」に帰着する。一方、効果の最適化は、検索意図への深層適合、独自性、情報密度、専門性の証明といった「中身の質」に帰着する。

AIは前者を実行し、後者を無視する。なぜなら、前者は確率的に再現可能だが、後者は再現するための材料(一次情報、固有の経験、競合分析データ)を持っていないからだ。

学習データのバイアス 「最頻出の型」が「最良の型」として出力される構造

LLMの生成原理を正確に捉えると、問題の根はさらに明確になる。

LLMはトークンの出現確率を連鎖的に計算して文章を生成する。「SEO 記事」というコンテキストが与えられたとき、次に来る可能性が最も高いトークン列は何か。それは学習データにおける頻度分布で決まる。

ここで問題なのは、インターネット上に存在する「SEO記事」の大多数は、テンプレ量産型だということだ。網羅的で、薄味で、中立的で、初心者向け。見出しが整理され、適度にキーワードが入り、読みやすく、誰にも刺さらない。こうした記事は数的に圧倒的多数を占める。

一方、検索上位を実際に獲得している高品質記事

・独自の視点
・鋭い分析
・一次データに基づく主張
・専門家にしか書けない深掘り


は数的にはマイノリティだ。

LLMは確率的に多数派を再現する。つまり、「SEO記事を書け」と言われたAIは、インターネット上で最も多く存在する「SEO記事っぽいもの」を再現する。それは量産テンプレであり、検索で勝っている記事ではない。

この構造を理解すると、AIが「SEO記事」を書くほど検索で負ける記事が出てくるメカニズムが完全に説明できる。AIは最頻出のパターンを忠実に再現しているだけで、そのパターン自体が検索で勝てないものだからだ。

安全性バイアス 「尖り」を削ぎ落とすメカニズム

LLMの確率的生成に加えて、もう一つ強力な力が働いている。安全性への最適化バイアスだ。

現代のLLMはRLHF(人間のフィードバックによる強化学習)やConstitutional AIといった手法で、「安全で広く受け入れられる」出力を生成するよう調整されている。この調整は、差別的表現の抑制やハルシネーションの軽減といった有益な効果をもたらす一方で、副作用として「強い主張」「断定」「批評」「対立構造」を弱める方向に作用する。

これは検索品質の文脈では致命的な問題になる。なぜか。

Googleの検索品質評価ガイドラインが実際に重視しているのは、E-E-A-T(経験、専門性、権威性、信頼性)であり、その中核にあるのは「この著者にしか書けない固有の視点と経験」だ。つまり、検索で評価されるコンテンツの本質的要件は「尖り」である。特定の立場からの、根拠ある断定。他の記事では読めない独自の解釈。反論を想定した上での明確な主張。

しかしLLMの安全性バイアスは、まさにこの「尖り」を体系的に削ぎ落とす。

「両論併記」「ケースバイケース」「一概には言えない」こうした表現は、安全性の観点からは最適解だ。誰も傷つけず、批判されにくく、間違いのリスクが低い。しかし検索品質の観点からは最悪解である。なぜなら、これらの表現は読者に何の認知更新も提供しないからだ。

検索ユーザーは「答え」を求めてクエリを入力している。「どちらとも言えません」は答えではない。「Aである。なぜなら〜〜」が答えだ。AIは後者を避け、前者に逃げる。結果として、検索ユーザーの深層ニーズを満たせない無個性な文章が量産される。

構造化フェティシズム 中身なき器の大量生産

AIがSEOを学習する過程で獲得してしまった最も有害な癖の一つが、構造化への過剰依存だ。

「SEO記事の書き方」を解説するコンテンツには、ほぼ例外なく「見出しを適切に使いましょう(H2、H3)」「段落を分けましょう」「結論を先に書きましょう」「箇条書きを活用しましょう」といった構造的アドバイスが含まれる。AIはこれらを「SEOで評価される要素」として強く学習している。

問題は、構造は器であって中身ではないという当然の事実が、確率的生成プロセスでは区別されないことだ。

AIにとって、H2タグを適切に配置することと、H2の下に独自性のある深い分析を書くことは、まったく異なる難易度のタスクだ。前者はパターンマッチングで即座に実行できる。後者は、その分野の専門知識、一次情報、独自の分析フレームワークを必要とする。

結果として何が起きるか。AIは構造を完璧に整えた上で、中身を一般論で埋める。 美しく整形された空箱が出来上がる。H2とH3は論理的に配置され、段落は適切な長さに分割され、結論は冒頭に、まとめは末尾に置かれる。しかし各セクションの中身は、Wikipedia的な定義の焼き直しか、検索すれば10秒で見つかる常識の言い換えだ。

Googleのアルゴリズムは、この種のコンテンツを以前より精密に見抜くようになっている。Helpful Content Updateの本質は、まさにこの「構造はあるが価値のないコンテンツ」の降格だ。AIが得意とするのは、皮肉にも、Googleが最も排除したがっているコンテンツの特徴そのものである。

Helpful Content Updateとは

Googleが2022年8月に導入した検索ランキングシステムの更新で、人間のために書かれた有益なコンテンツを評価し、検索エンジン向けに作られただけの低品質コンテンツを降格させることを目的としている。従来は個別ページ単位の評価が中心だったが、この更新ではサイト全体の品質シグナルが導入され、価値の薄いページが多いサイトは他の有益なページまで順位が下がりうる仕組みとなった。その後2023年9月の大型更新を経て、2024年3月のコアアップデートでこのシステムはコアランキングシステムに統合された。本質は一貫しており、独自の経験や専門性に基づく情報価値のあるコンテンツを書いているか、それとも検索流入を目的にテンプレートを量産しているかを判別する仕組みである。

最大公約数への収斂 ターゲティングの崩壊

「検索に強い記事=初心者にも分かりやすい記事=一般向けの記事」

AIの内部で、この三段論法は強固に結びついている。

確かに検索上位の記事には読みやすさが求められる。しかし「読みやすい」と「浅い」は同義ではない。専門性の高い内容を、その分野に関心のある読者に向けて、明快に伝えること。これが「検索に強い読みやすさ」の正体だ。

AIは「読みやすさ」を「平易さ」と等価に置き換え、専門用語を排除し、前提知識を求めない説明を生成しようとする。その結果、ターゲットが際限なく拡大し、誰に向けた記事なのかが不明になる

実務のSEOで勝つ記事はこの逆を行く。ターゲットを絞り、そのターゲットの深層ニーズに刺す。「AIライティングツール 比較」で検索する人に、AIライティングツールの定義から説明する必要はない。その人が知りたいのは、実際に使った上での比較、ワークフローへの組み込み方、特定ユースケースでの優劣だ。

AIはこの「ターゲットの解像度」を持てない。指示に「想定読者はSEO実務者で、ツール選定フェーズにいる」と明記されていない限り、最大公約数的な読者像を想定し、最も広い層に受け入れられる(=最も薄い)文章を生成する。

これは「網羅性バイアス」とも結びついている。AIは「漏れがあること」を強く回避しようとする。あるトピックについて書くとき、関連するサブトピックをすべて触れようとする。結果として、各サブトピックへの掘り下げが浅くなり、「広く浅い」解説記事が出来上がる。

検索で勝つ記事は、しばしば「あえて触れない」選択をしている。対象クエリに対して最も重要な3〜5の論点を選び、そこを圧倒的な深さで掘る。AIにはこの「選択と集中」の判断ができない。

E-E-A-Tの構造的不可能性 一次情報なき生成の限界

E-E-A-T(Experience, Expertise, Authoritativeness, Trustworthiness)は、現在のGoogleの品質評価において中心的な概念だ。

そして、その最初のE——Experience(経験)——は、AIにとって構造的に再現不可能な要素である。

「実際にそのツールを3ヶ月使った」
「そのプロジェクトで失敗した」
「そのアルゴリズム変更の前後で検索順位がどう変わったか」

こうした一次情報は、AIの学習データには含まれていても、AIが「自分の経験」として語ることはできない。

落合

私はClaude codeを使ってそれ(一次情報を与え、個人の個性や癖を与え、それを自然に使用し、かつ整合性の取れた文章を作成する)を実現しようと、いろいろ研究をしている最中だが、一定のハードルはあると感じる。現段階では誰もができることじゃない。

ここで重要なのは、AIが一次情報を「捏造できない」という制約が、実はSEO品質にとって壊滅的に作用するということだ。

一次情報がないとき、AIは何をするか。一般論に退避する。 「多くの専門家は〜と述べています」「一般的には〜とされています」「〜という意見があります」。これらはすべて、一次情報の不在を隠すための言い回しだ。そして、検索エンジンはこの種の言い回しが積み重なった文章を、「付加価値のないコンテンツ」として正確に識別するようになっている。

ではどうすればいいのか。答えは単純だ。AIに一次情報を与えればいい。 しかし「SEOを考慮して記事を書いて」という指示には、一次情報は含まれていない。だから出力が一般論になる。問題はAIの能力ではなく、指示の設計にある。

これは本記事の核心的な主張の一つだ。AIが薄い記事を書くのは、AIが無能だからではない。指示が浅いからだ。(それが簡単だとは言わないが…)

検索意図の表層処理 「答え」を返して「理解」を提供しない

AIが「検索意図に応える」とき、その処理は驚くほど表層的だ。

「AIライティングツール おすすめ」というクエリに対して、AIが理解する検索意図は「AIライティングツールのおすすめを知りたい」だろう。これは間違いではない。しかし、これは表層意図にすぎない。

このクエリを入力した人の深層意図はもっと複雑だ。

「自分のワークフローに組み込めるツールはどれか」
「コストに見合う品質が出るのか」
「試してダメだったときの乗り換えコストはどの程度か」
「同じ業種の人はどう使っているのか」

こうした意思決定に必要な多層的な情報ニーズが、一つのクエリの背後に折り畳まれている。

AIはこの折り畳みを解く能力を、原理的には持っている。しかし「SEOを考慮して」という指示では、表層意図への回答で十分だと判断しやすい。結果として、ツール名と概要が並んだだけの比較表が出来上がる。読者がその記事を読んで意思決定できるかどうかは、考慮の外にある。

検索で上位を獲る記事は、この深層意図を的確に捉えている。単に「おすすめ5選」を並べるのではなく、「何を基準に選ぶべきか」というフレームを提供し、読者が自分の状況に当てはめて判断できるようにする。情報の提示ではなく、判断の支援。 これが検索意図の深層適合であり、AIが標準状態では到達しない地点だ。

CTRと導入文の罠 「完全ガイド」は誰の目にも留まらない

タイトルと導入文は、検索結果でのCTR(クリック率)を左右する。AIがこの部分でどう振る舞うかは、記事全体の命運を決める。

AIに「SEOを考慮して」と指示してタイトルを生成させると、高い確率で次のようなパターンが出る。

「【2026年最新】○○の完全ガイド|初心者にも分かりやすく徹底解説」

この手のタイトルは、検索結果の10位までを見回すとほぼ全員が使っている。つまり、差別化になっていない。 検索ユーザーの目に映るのは、同じようなタイトルが10個並んだ画面だ。そこで「完全ガイド」と「徹底解説」が一つ増えたところで、クリックする理由にはならない。

CTRを実際に押し上げるのは、具体性と立場の明確さだ。

「○○は使うな〜3ヶ月検証した結果〜」
「○○ vs △△:実務で選ぶならこっちだ」
「○○が失敗する唯一の原因」


こうしたタイトルには、書き手の立場があり、読者の好奇心を引く具体性がある。

しかしAIはこの方向に行かない。

結果として、検索結果の中で完全に埋没するタイトルが生成される。

キーワード意識の副作用 論点が散逸する

「このキーワードを含めて記事を書いて」という追加指示がある場合、事態はさらに悪化する。

AIはキーワードの配置に計算リソースを割く。H2にキーワードを入れ、冒頭段落に入れ、まとめに入れ……と、構造的な配置ルールに従ってキーワードを散布する。この作業が、論点の深掘りと独自モデルの提示を後回しにさせる

人間のSEOライターなら、キーワードは自然に織り込まれる。テーマについて深く考え、専門的に語れば、関連キーワードは意識せずとも文中に現れる。しかしAIは「キーワードを入れる」という指示を明示的なタスクとして処理するため、論理の流れよりもキーワードの配置を優先してしまう場面が生じる。

結果として、キーワードは入っているが論点が散逸した、骨格のない文章が出来上がる。

LLMOの罠 「丁寧さ」が独自性を殺す

近年、LLMO(Large Language Model Optimization)という概念が登場している。LLM(ChatGPTなど)が情報源として自分のコンテンツを引用・参照するように最適化する、という考え方だ。

「LLMOも考慮して」と指示されたとき、AIが何をするか。説明の丁寧さを上げる。 用語の定義を明示し、論理の飛躍を埋め、前提を丁寧に説明する。これ自体は悪くない。しかし、この方向への最適化が過剰になると、文章が教科書化する

教科書的な文章は、LLMの知識ベースとしては確かに扱いやすい。しかし、人間の検索ユーザーにとっては退屈だ。そして退屈な記事は、滞在時間が短く、直帰率が高く、結果として検索順位が下がる。

LLMO最適化の本当の核心は「丁寧さ」ではない。「概念の切り出し可能性」と「独自分類の提示」だ。LLMが引用したくなるのは、「誰でも書ける丁寧な説明」ではなく、「この著者が独自に構造化した概念やフレームワーク」だ。例えば、本記事で使っている「構造化フェティシズム」「最大公約数への収斂」「安全性バイアスのSEO逆作用」といった独自の概念ラベルは、LLMが知識を整理する際の参照点になりうる。f

自己評価なき生成 品質チェックが走らない

人間のプロのライターは、書き上げた文章を推敲する。「この段落は情報密度が低くないか」「この主張に根拠はあるか」「読者はここで新しい何かを得られるか」こうした品質チェックを、何度も繰り返す。

AIの標準的な生成プロセスには、この自己評価ループが組み込まれていない。生成は左から右へ、トークンごとに確率的に進行し、一度生成された文は(明示的な指示がない限り)見直されない。

これは「SEOを考慮して」という指示の文脈では特に問題になる。なぜなら、SEO品質の評価軸情報密度、独自性、検索意図への適合度、E-E-A-Tの充足は、文章全体を俯瞰して初めて判定できるものだからだ。トークンレベルの生成プロセスでは、これらの品質指標は原理的にチェックできない。

結果として、構造的には整っているが品質基準を満たさない文章が、完成品として出力される。整形は完了したが検品は未実施、という状態だ。

では、どうすればいいのか 指示設計の転換

ここまでの分析から、解決策の方向性は明確になる。「SEOを考慮して」という指示を捨て、AIに対する入力の設計を根本から変えることだ。

具体的には、以下の要素を指示に含める必要がある。

第一に、対象クエリと想定読者の明示。 「この記事は『○○ △△』で検索する、□□の業務経験があるユーザーに向けて書く」と指定する。これにより、最大公約数化を防ぎ、ターゲットの解像度を強制的に上げる。

第二に、一次情報の提供。 自分の経験、検証データ、具体的な失敗例、固有名詞を含む事例、こうした材料をAIに渡す。AIは一次情報を捏造できないが、与えられた一次情報を構造化し、説得力のある文章に編集する能力は極めて高い。

第三に、主張の指定。 「この記事の結論は○○である」と明示する。AIに結論を導かせるのではなく、人間が結論を決め、AIにその結論を論証させる。これにより、「両論併記」への逃避を防ぐ。

第四に、競合記事の差別化設計。 「上位5記事はこういう内容を書いている。この記事ではそこに書かれていない○○の観点から書く」と指定する。AIは基本的には検索結果を見ていないのだから、競合との差分は人間が設計するしかない。

第五に、品質基準の明示。 「各セクションは最低500字で、独自の分析または具体例を含むこと」「定義の羅列で終わるセクションは不可」「主張には必ず根拠を付けること」こうした品質ゲートを指示に埋め込む。

これは要するに、AIを「ライター」として使うのをやめ、「エディター」「構造化エンジン」として使うということだ。一次情報と主張は人間が持ち込み、AIはそれを論理的に構造化し、説得力のある文章に仕上げる。この役割分担が、AIを使ったSEOコンテンツ制作の正解形だ。

構造的問題の全体像——「SEO最適化パラドックス」のメカニズムマップ

本記事で分析した問題を整理すると、AIが「SEOを考慮して」で薄い記事を書く原因は、単一の要因ではなく、以下の要因が複合的に絡み合った構造的パラドックスであることが分かる。

入力層の問題: 「SEOを考慮して」という指示が曖昧であり、AIは「効果」ではなく「形式」を最適化対象として解釈する。対象クエリ、想定読者、勝ち筋、一次情報が未指定であるため、AIは失敗リスクの低い一般解説に逃げる。

学習層の問題: 学習データ上の「SEO記事」の多数派がテンプレ量産型であるため、AIの確率的生成はその多数派を再現する。「SEO=構造整備」という誤った結びつきが強固に学習されており、中身の独自性より器の整形を優先する。

生成層の問題: 安全性バイアスが「尖り」を削ぎ落とし、確率的生成が最大公約数的表現を選択する。「両論併記」「ケースバイケース」への逃避が主張を鈍らせ、検索ユーザーに認知更新を提供できない文章が生成される。

評価層の問題: 自己評価ループが存在しないため、情報密度・独自性・検索意図適合度といった品質指標でのチェックが走らず、構造的に整形されただけの出力が完成品として扱われる。

この四層が同時に作用することで、「SEOを考慮して」という指示は、SEOで評価される要素のほぼすべてを欠いた文章を生成させる。

教訓 AIに「考慮して」と言うな

最後に、本記事の最も重要な主張を明確にする。

「SEOを考慮して」とAIに指示するのは、AIの利用法として根本的に間違っている。

この指示は、AIに対して「あなたの学習データ上でSEO記事として最も頻繁に出現するパターンを再現してください」と言っているのと等価だ。そして、最頻出パターンは、検索で勝つパターンではない。

AIを検索コンテンツ制作に活用するなら、必要なのは「考慮して」という丸投げではなく、人間側の戦略設計だ。対象クエリの選定、想定読者の特定、競合との差別化ポイントの設計、一次情報の準備、主張の決定、これらはすべて人間の仕事であり、AIに委託すべきではない。

AIが担うべきは、人間が設計した戦略と材料を、論理的に構造化し、読みやすく、説得力のある文章に変換することだ。この役割分担を理解しない限り、AIは「SEOの真逆を行く薄っぺらい記事」を生成し続ける。

そしてこの構造を理解した上でAIを使える人間と、「SEOを考慮して」と丸投げする人間との間に、検索結果という戦場で、埋めがたい差が開いていく。

それが、2026年のSEOの現実だ。

落合式ブログ&SNS活用法 メール講座

この講座は、お金をかけずとも集客が可能であるブログを中心にFacebook、TwitterなどのSNSを活用し、自分だけのオリジナル情報発信メディアを構築、ビジネスに役立て、収益化していただくための講座です。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

CAPTCHA


ABOUT US
アバター画像
落合正和
株式会社officeZERO−STYLE代表取締役
一般財団法人モバイルスマートタウン推進財団 副理事長兼専務理事
マーケティング・コンサルタント&Webメディア評論家&ブロガー
ブログやSNSを中心としたWebメディア、生成AI活用が専門。ネット事件やサイバー事件、IT業界情勢、インバウンド観光、生成AIリスクなどの解説で、メディア出演多数。 ブログやSNSの活用法や集客術、SEO、リスク管理等の講演のほか、民間シンクタンクにて調査・研究なども行う。 著書: 会社のSNS担当になったらはじめに読む本(すばる舎) ビジネスを加速させる 専門家ブログ制作・運用の教科書(つた書房) はじめてのFacebook入門[決定版](秀和システム)