生成AIに最適化されたウェブサイトとは何かを考える
公開日:2025/05/05
この記事をざっくりまとめると・・・
生成AI時代に向けて、ウェブサイトの情報設計が新たな段階として「生成AIへの最適化」へ進化しています。特に「llms.txt」は、AIに読ませたい情報や除外したい情報を明示できる新しいファイル形式で注目されています。実際に設置や調整を行う中で、マシンに正しく読ませる工夫や設定が必要だと実感。AIに対する情報発信のあり方が、今後のウェブ制作において重要になってきそうです。
・・・ということが書いてあります。
ここ数週間の出来事ですが、生成AIのフェーズがまたひとつあがったような気配があります。
特に気になっているものとしては、ChatGPT o3、NotebookLM、Googleの検索で表示されるAIOです。
これらに共通して興味深いものは、インターネット上のコンテンツを参照して表示させているということです。こちらからする質問や命令(プロンプト)をもとにして、何かしらの情報を自分(AI)で探索し、まとめ要点を抽出し、アウトプットしてくれます。
これまでは、人間が入力フォームに入力を行い、そこから出てくるアウトプット(検索結果)の羅列に対して、人間の判断で情報を選別し、人間の判断でそれらをまとめるなどの作業が出てきました。もちろん、そこにはその人のそれまでの行動に即した結果が表示さえる。つまり使う人の都合に合わせて情報が表示され、使う人の感覚によって情報は選別されてきました。
それらの多くの行動がAIにとって変わっています。
AIが推論をし、情報をあつめアウトプットを行い、それを人が見るという・・・。
ウェブサイトを作っていくにあたり、人間にどう呼んでもらうか・・ということで情報を設計する・・というのはこれまでも変わらないのでしょうが、加えて、マシンリーダブルなものというものはひとつ段階が上がっていくものと思われます。
もちろんSEOという視点ではこれまでもマシンリーダブルなデータの作り方というのは必要でした。ただSEOというだけあって、それらは検索エンジン対応です。いよいよ本当の意味でのマシンリーダブルな作り方を意識する必要が出てくるでしょう。
調べてみるとllms.txtというものがあるようです。
ChatGPTの力を使いながら、llms.txtについて学んでみました。
llms.txtとは何か?
ChatGPTによると以下のような回答がきました。
「llms.txt」は、生成AI(特に大規模言語モデル=LLM)がWebサイトの内容を理解しやすくするための補助的なテキストファイルです。Googleが2024年に提唱した「AI対応robots.txt」的な位置づけで、AIにどの情報を読ませたいかを制御できます。
つまりllms.txtが入っていることでよりウェブサイトの内容が理解されるということです。これはSEOでいうところの、構造化マークアップであったり、robots.txtであったり・・というところですが、これらの設置は生成AIが情報を取りにくるという時代において必要なものであることがわかります。
どんな形でllms.txtを書くのか?
ChatGPTにそのフォーマットを用意してもらいました。

いわゆるマークダウンであり、YAML形式です。コンテンツの明示・・・ということですね。
SEOという文脈でいえば、sitemap.xmlでインデックスさせたいものを明示し、robots.txtやcanonical指定、noindex指定でインデックスされたくないものを明示する・・・ということを「対検索エンジン」ではなく「対生成AI」にする・・と考えれば至極当然であり、わかりやすいフォーマットであるように思いますね。
llms.txtは、どこに配置する?
robots.txtと同じように、ドキュメントルートに設置するようです。その場合ですが、.txtでもいいし.md(マークダウン)、.yamlでもいいようですが、ひとまずは.txtで配置してみるので良さそうです。今後はyamlになるかもしれませんが、robots.txtもずっと.txtなので.txtのままな感じもありますが。。。
試してみて、ちょっとうまくいかなかったところ
.txtをFTPでルートにアップロードしましたが、文字化けが発生し表示がおかしくなりました。.htaccessを少し書き換えることで対応はできました。ChatGPTの解説によると、文字化けをしていてもAIはデータ自体を読み込んでいるようなので問題ないようですが、なんか気持ち悪いので、そこはきちんと人でも読めるようにしておいたほうがいいかと思います。
出来上がるまでのステップをまとめてみます。
🔹 ステップ1:llms.txtの作成
目的:生成AIに「学習・参照してほしいページ」と「除外したいページ」を伝える。
主な内容:
include に重要なページURLを明記(トップ、サービス、ブログなど)
exclude に管理画面や非公開ページを指定
metadata でサイトの説明、言語、カテゴリなどを記述
🔹 ステップ2:メタ情報の拡充
対応内容:
language を ja-JP に(地域指定でAIに正確な言語文化を伝える)
website や keywords を追加(検索・分類精度の向上)
description に「生成AI経由での流入を狙う意図」を明記
🔹 ステップ3:文字化けの原因調査と修正
調査結果:ファイルは UTF-8 保存だが、サーバーが文字コードを送信していなかった
解決策:
.htaccess に AddCharset UTF-8 を追記し、正しく文字コードが指定されるように対応
結果:文字化けが解消され、AIやブラウザからも読み取り可能な状態に
🔹 ステップ4:robots.txt への案内リンク追加
内容:
LLMs: https://cdef.site/llms.txt を robots.txt に追記
意図:
AIクローラーや将来の標準化に備え、生成AI向け情報の入口を明示
結局は、正しい情報を作れということ
確かにそれぞれの作法はありますが、結局は正しい情報を作れということに他なりません。どんなサイトを作って、どのページを読んでもらいたいか、どのページは読んでもらわなくてもいいか、を丁寧にマシーンにも伝える・・ということです。便利とかそういうのはさておき、知ってもらうということを考えれば至極真っ当なことのようにも思います。
まだ発展途上であるかとは思いますが、生成AIに対してどのように情報を伝えていくのかというのもこれからのウェブ制作において必要なことになってくることは間違い無いでしょう。早めに情報を集めて早めに対応できるよう引き続き注目していこうと思います。

著者:稲本浩介
コミュニケーション設計所代表/情報アーキテクト
「わかりやすく伝えるにはどうしたらいいか?」を常に考える福岡の情報アーキテクト(IA)。前職では主にWebサイト制作にディレクターやエンジニアとして関わり、ホームセンターや老舗菓子メーカーのEC事業の構築および運用にゼロから携わる
。その活動は、ウェブサイトの枠に限定せず、動画やイベント実施などコミュニケーションという視点でのわかりやすさを追求。大学や社会人講座、企業における講演経験もあり多方面にて活動中。
▶︎ X(Twitter): @sevenina



