⚠️ プロも陥る罠!「テスト環境は robots.txt で全拒否」の危険性
「公開前のテストサイトだから、とりあえず robots.txt
で全拒否(Disallow: /)しておけば安心だ」と思っていませんか?実はこれ、非常に危険な罠が潜んでいます。
- インデックス自体は防げない: robots.txt は「中身を見に来ないで」という指示であり、「検索結果に出さないで」という指示ではありません。もしどこかのサイトからテスト環境へのリンクが張られてしまった場合、「このページの情報は利用できません」という不格好な形で、Googleの検索結果にURLだけが載ってしまいます。
-
noindexタグが読まれなくなる:
検索結果に出さないためにはHTMLの
<meta name="robots" content="noindex">が必要ですが、robots.txtで全拒否していると、Googleのボットはそのページをクロール(読み取り)できないため、せっかく書いたnoindexタグの存在に気づけません。
テストサイトを絶対に検索結果に出したくない場合の最強の防壁は、「Basic認証(パスワード保護)」をかけることです。
Basic認証がかかっていれば、Googleのクローラーはそもそもアクセスできず、インデックスされることは100%ありません。
👉
Basic認証(.htpasswd)生成ツールはこちら