pukiwikiフォルダにあるrobots.txtはデフォルトでは.txtへのアクセスが
禁止されているためエラーになってしまう。
そうなると、Googleのサーチエンジンはrobots.txtがあるのにアクセスできないと判断して
何らかの障害があるとみて、そのフォルダ以下のクロールをやめてしまうみたいだ
何かと都合が悪いので、アクセスできるようにしてみた
<Files "robots.txt">
Order allow,deny
Allow from all
</Files>
これを<FileMatch>のすぐ下に追加してやればOKっぽい
0 件のコメント:
コメントを投稿