关于robots.txt暴漏网站结构问题怎么解决?一般通过robots.txt大概可以判断所用程序,因此,我们需要对robots.txt处理一下,屏蔽一些文件,不要带上敏感目录,如下:
User-agent: * Disallow: /*.jpg Disallow: /*.gif Disallow: /*.png Disallow: /*.asp Disallow: /*.csv Disallow: /*.pptx Disallow: /*.ppt Disallow: /*.shtml Disallow: /*.ico Disallow: /*.js$ Disallow: /*.css$