LLMO完全ガイド
AI検索時代における「選ばれるソース」の作り方
この記事の要点(TL;DR)
- LLMOとは「Large Language Model Optimization」の略。生成AI向けの最適化。
- キーワードの詰め込みより「エンティティの関係性」と「文書の構造化」が重要。
- 結論ファースト、綺麗なHタグ構造、Schema.orgの3つが基本戦略。
LLMO(大規模言語モデル最適化)とは?
LLMO(Large Language Model Optimization)とは、ChatGPT Web Search、Perplexity、Google AI Overviewsなどの生成AIを搭載した検索エンジンにおいて、自社サイトが「回答の情報源(ソース)」として引用されやすくするための新しい最適化手法です。
これまでのSEOが「検索アルゴリズム(ロボット)」にキーワードを見つけてもらうための施策だったのに対し、LLMOは「AIモデル」が文脈や意味を正しく理解し、ユーザーへの回答を生成する際に使いやすい形にしておくことが目的です。
従来のSEOとの主な違い
| 項目 | 従来のSEO | LLMO(AI最適化) |
|---|---|---|
| 評価軸 | キーワード出現頻度、被リンク | 意味のまとまり(エンティティ)、文脈 |
| コンテンツ構造 | 長文、網羅性重視 | 結論ファースト、Q&A形式が好まれる |
| 技術的要素 | Title, Description | Schema.org (JSON-LD)、セマンティックHTML |
LLMO対策の3つのステップ
1. 結論ファースト(TL;DR)の徹底
AIは上から下へテキストをベクトル化して読み込みます。冒頭の数百文字に「このページは何について書かれているか」「結論は何か」が要約・箇条書きされていると、AIがページ全体の意味を素早く正確に捉えやすくなります。
2. 徹底したセマンティックHTML
見た目のためだけにH3やH4を使ってはいけません。H1(タイトル)の中にH2(大見出し)があり、その中にH3(小見出し)があるという、綺麗な木構造(ツリー構造)のDOMツリーを作成することが必須です。
3. Schema.orgによる構造化
AIに対して「ここはよくある質問だよ」「ここは著者の情報だよ」と直接伝えるためのメタデータ(JSON-LDなど)を記述します。特に FAQPage や Article スキーマはLLMが情報を抽出する上で強力に作用します。
🐱
ナビ猫の補足
「“〜とは”って聞かれた時にスッと答えられる定義ブロックをH2の直下に書くのがコツにゃ。Perplexityとかがそのまま引用しやすくなるにゃ!」