大家好!昨晚帮朋友修电脑到深夜,所以今天的博文现在才发。别急,叠玉科技SEO今天要分享的可是干货——关于网站SEO的入门知识,也是搜索引擎蜘蛛访问网站的“第一站”:Robots协议的妙用和编写技巧。
一、Robots协议是个啥
俗称“萝卜丝”,Robots协议其实是搜索引擎的“机器协议”,用来告诉蜘蛛哪些页面可以抓取,哪些不可以。这很重要,因为有些页面被抓取可能会有风险或损害利益。
二、Robots协议的三大指
- User-agent:指定哪些蜘蛛可以遵循下面的规则。
- Disallow:告诉蜘蛛哪些页面或目录禁止抓取。
- Allow:指定允许蜘蛛抓取的内容。
别忘了,还可以在Robots文件中放置站点地图,方便蜘蛛快速找到。
三、如何编写Robot
- User-agent:定义蜘蛛名,如Baiduspider、Googlebot等。
- Disallow:列出不希望被抓取的页面或目录。
- Allow:指定可以被抓取的内容。
四、Robots的实际应
举几个例子:
- 禁止所有搜索引擎抓取所有页面。
- 只允许百度蜘蛛抓取所有页面。
- 禁止所有蜘蛛抓取特定目录和页面,其他允许。
五、Robots协议的大事
- 淘宝封杀百度爬虫。
- 京东屏蔽一淘网爬虫。
- BE拍卖公司因无视Ebay的Robots协议被告。
- 搜索被指违反Robots协议。
如果还有疑问,欢迎访问叠玉科技SEO博客留言或加入官方群,博主会为大家解答。更多SEO知识,尽在叠玉科技SEO博客,助你SEO之路一臂之力!