最近、ホームページを運営している地元の社長さんたちから、ちょっと切実な相談を受けることが増えました。
「うちのサイトに載せている独自のノウハウや施工実績、気づかないうちにAIに勝手に学習されてない?」
「なんか最近、同業他社がAIを使って、うちの情報をパクったような記事を量産してる気がするんだけど…」
これ、すごくよく分かります。自分たちが何年もかけて現場で培ってきた経験を、ポンッとAIに持っていかれるのは気持ちのいいものじゃないですよね。
結論から言ってしまうと、今ホームページの裏側で「ある対策」をしていない場合、サイトに載せている情報はほぼ100%、AIの学習データとして吸い上げられていると思ってください。
2026年の現在、世界中のWebサイトをパトロールして情報をかき集める「AI用のロボット」が、昼夜問わずネット上を巡回しています。
今回は、道南・函館で15年ほどWebやシステムを作り続けてきた現場のエンジニアとして、自社のホームページをAIの無断学習から守る「AI遮断設定」のリアルなやり方と、その裏話をお伝えします。

そもそも、なんでこんな対策が必要になったの?
昔から、Webサイトを巡回して情報を読んでいくロボットは存在しました。GoogleやYahoo!などの「検索エンジンのロボット」ですね。これは、皆さんのサイトを検索結果に出すために絶対に必要な、いわば「味方」のロボットです。
でも今は、それとは別に「AIを賢くするためだけに情報を吸い上げるロボット」が飛び回っています。
例えば、裏側のアクセスログを見ていると、こんなロボットたちが頻繁にやってきます。
- GPTBot: あのChatGPTを動かしているOpenAI社のロボット
- ClaudeBot: 賢いと評判のAI「Claude」のロボット
- CCBot: 世界中のデータを無差別に集めて、いろんなAIの学習材料にするロボット
もし会社の住所と電話番号しか載っていないような名刺代わりのサイトなら、ぶっちゃけ気にする必要はありません。
でも、「現場で気づいた独自のノウハウを書いたブログ」や、「苦労してまとめたお客様の解決事例」を載せているなら話は別です。そのまま丸ごとAIの知識として吸収されて、最悪の場合、ライバル会社がAI経由であなたのノウハウを「自社のもの」として出力できてしまう危険性があります。
これを防ぐための鍵穴を締める作業が「AI遮断設定」です。
「でもそれやったら、Googleの検索にも出なくなるんじゃ…?」という不安について
AIの学習を防ぐ話をすると、ほぼ100%の確率で「それって、Googleの検索順位も落ちちゃうんじゃないの?それは困る!」と聞かれます。
安心してください。検索順位には一切影響しません。
理由はすごくシンプルで、「検索結果に出すためのロボット」と「AIを学習させるためのロボット」は、完全に別モノだからです。

ホームページの裏側には、どのロボットをサイトに入れて、どのロボットを追い返すかを指示する「受付のルールブック(robots.txt)」みたいなファイルがあります。
ここで、「Googleの検索ロボットはどうぞ入ってください。でも、AI学習用のロボットはお帰りください」と個別に指名してルールを決めることができるんです。これをちゃんと設定すれば、今まで通りのSEO(検索対策)を保ったまま、AIの無断学習だけを弾くことができます。
実際にAIの学習をブロックする方法(技術編)
ここからは少しだけマニアックな裏側の設定の話になります。「コードとかよく分からないからプロに任せたい」という方は、ざっと読み流してもらって大丈夫です。
ご自身でサイトを管理されている方向けに、現場でよく使う設定方法を2つ紹介します。(※触る時は必ずバックアップを取ってからお願いしますね)
1. robots.txtで追い返す(一番確実でオススメ)
サーバーに置いてある robots.txt というファイルに、「このAIロボットは立ち入り禁止」という一文を書き足します。サイトへの負担もなくて一番確実なやり方です。
User-agent: GPTBot
Disallow: /
User-agent: CCBot
Disallow: /
User-agent: ClaudeBot
Disallow: /
User-agent: Google-Extended
Disallow: /
一番下の Google-Extended がちょっとしたポイントです。これを書いておくと、「Googleの検索結果には普段通り出してほしいけど、GoogleのAI(Geminiとか)の学習データに使うのだけは勘弁してね」という、絶妙なコントロールができます。
2. WordPressの裏側(functions.php)でタグを入れる
WordPressを使っているなら、すべてのページの裏側に「AIは学習しないでね」という目印(metaタグ)を自動で埋め込むこともできます。お使いのテーマの functions.php に以下を追記します。
// AI学習と画像生成利用を拒否するタグを追加
function add_ai_block_meta_tags() {
echo '<meta name="robots" content="noai, noimageai" />' . "\n";
}
add_action('wp_head', 'add_ai_block_meta_tags');
ただ、このタグの指示を素直に聞いてくれるかどうかはAI開発会社の良心に委ねられている部分もあるので、基本はさっきの robots.txt とセットで使うのが現場の鉄則です。

ただ、ここで一つだけ注意してほしいことがあります
ここまで「ブロックする方法」をお伝えしてきましたが、現場のプロとして一つだけお伝えしておきたいことがあります。
「じゃあ全部防げばいいじゃん、全部シャットアウトしよう!」というのは、ちょっと待ってください。
というのも、今はもう「Googleで検索する」んじゃなくて、「AI(ChatGPTなど)に直接質問してお店やサービスを探す」という人がどんどん増えているからです。
もしあなたのサイトに超強力なバリアを張ってAIから完全に隠してしまうと、「お客さんがAIに質問した時の回答に、あなたの会社が一切登場しなくなる」という、めちゃくちゃもったいない事態が起きます。
なので、実際の運用ではこんな感じで使い分けるのがベストです。
- 【ガッチリ守るべきページ】
同業他社に絶対にパクられたくない独自の技術情報、苦労して集めた顧客の事例データ、社外秘スレスレのノウハウ。(自社の財産を守るため) - 【あえて読ませるページ】
一般的なお知らせ、広く知ってほしいサービスの強み、自社のPRを目的としたコラムなど。(AI経由で新しいお客さんに見つけてもらうため)
これからのWeb運用について
AI遮断設定で一番怖いのは、設定の書き方を一文字間違えただけで、Googleの検索結果から自社のホームページが跡形もなく消滅してしまう(味方のロボットまで全部追い返してしまう)という大事故です。
それに、AI企業もどんどん新しい名前のロボットを作ってくるので、「一度設定したから一生安心」というわけにはいきません。定期的なメンテナンスがどうしても必要になります。
AIは敵でも味方でもなく、ただの強力な道具です。
「自社の貴重なデータをガッチリ守るのか」、それとも「AIの波にうまく乗って露出を増やすのか」。このさじ加減が、これからのホームページ運営の大きな分かれ道になります。
「うちのサイト、どう設定するのが一番いいか分からない」
「自分で裏側をいじって、サイトが真っ白になるのが怖い」
そんな時は、HAKONIWAに直接声をかけてください。函館・道南エリアの中小企業様向けに、最新のAIの動きを見た上で、あなたの会社に一番しっくりくる「守り方」と「攻め方」を一緒に考えさせていただきます。
【自社サイトの集客やSEOを本気で見直したい方へ】
「AI対策も大事だけど、そもそも検索順位が上がらなくて困ってるんだよ」という方は、こちらの記事で2026年の正しいSEOの基本を包み隠さず解説しています。ぜひ合わせて読んでみてください。