活动
云服务
云空间
服务器托管
服务器租用
企业邮箱
域名注册
建站服务
合作伙伴
了解人文云
支付方式
备案
帮助中心
以服务为基础,以质量为生存,以科技求发展
帮助中心
资料文档下载
备案专题
域名注册问题
云服务器问题
虚拟主机问题
IDC托管问题
IDC租用问题
企业邮局问题
数据库问题
支付问题
网站开发问题
网站营销问题
其他问题
ssl证书
虚拟主机被搜索引擎爬虫访问耗费大量流量解决方法


问题场景:
客户使用虚拟主机,网站被搜索引擎爬虫访问耗费大量流量和带宽,如何处理。
解决方法:
可以通过在站点根目录下创建 Robots.txt,Robots.txt 文件是网站的一个文件,搜索引擎蜘蛛抓取网站首先就是抓取这个文件,根据里面的内容来决定对网站文件访问的范围。它能够保护我们的一些文件不暴露在搜索引擎之下,从而有效的控制蜘蛛的爬取路径。
1. 首先,先了解一下目前搜索引擎和其对应的 User-Agent,如下:
搜索引擎         User-Agent
AltaVista        Scooter
baidu            Baiduspider
Infoseek         Infoseek
Hotbot           Slurp
AOL Search       Slurp
Excite           ArchitextSpider
Google           Googlebot
Goto             Slurp
Lycos            Lycos
MSN              Slurp
Netscape         Googlebot
NorthernLight    Gulliver
WebCrawler       ArchitextSpider
Iwon             Slurp
Fast             Fast
DirectHit        Grabber
Yahoo Web Pages  Googlebot
LooksmartWebPages Slurp 
 
2. Robots.tx t样例代码:
例1. 禁止所有搜索引擎访问网站的任何部分
User-agent: 
Disallow: /
例2. 允许所有的搜索引擎访问网站的任何部分
User-agent: 
Disallow:
例3. 仅禁止Baiduspider访问您的网站
User-agent: Baiduspider
Disallow: /
例4. 仅允许Baiduspider访问您的网站
User-agent: Baiduspider
Disallow:
例5. 禁止spider访问特定目录
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /data/
注意事项:
·         三个目录要分别写。
·         请注意最后要带斜杠。
·         带斜杠与不带斜杠的区别。
例6. 允许访问特定目录中的部分url
实现a目录下只有b.htm允许访问
User-agent: *
Allow: /a/b.htm
Disallow: /a/
 

这条帮助是否解决了您的问题? 已解决 未解决
下一篇:FTP使用帮助:当ftp遇到 Socket.. ERROR的时候
微信咨询
请微信扫码咨询客服
电话咨询
请拨打客服咨询电话
028-86619097
028-61640828
QQ咨询
请选择企业QQ进行咨询
工单 充值 返回顶部