杭州seo【Baiduspider抓取涉及协议】百度搜索引擎工作原理三

- 百度官方教程+马慧SEO编辑 - 阅 396

杭州seo:百度搜索引擎工作原理系列转自百度官方,不做任何过多注解。

今天,小小课堂网为大家带来的是转自百度官方《百度搜索引擎工作原理三:Baiduspider抓取过程中涉及的网络协议》。杭州seo希望对大家有所帮助。

杭州seo

一、Baiduspider抓取过程中涉及的网络协议介绍

刚才提到百度搜索引擎会设计复杂的抓取策略,其实搜索引擎与资源提供者之间存在相互依赖的关系,其中搜索引擎需要站长为其提供资源,否则搜索引擎就无法满足用户检索需求;而站长需要通过搜索引擎将自己的 内容推广出去获取更多的受众。spider抓取系统直接涉及互联网资源提供者的利益,为了使搜素引擎与站长能够达到双赢,在抓取过程中双方必须遵守一定的 规范,以便于双方的数据处理及对接。这种过程中遵守的规范也就是日常中我们所说的一些网络协议。

二、协议简单列举

1、http协议

超文本传输协议,是互联网上应用最为广泛的一种网络协议,客户端和服务器端请求和应答的标准。客户端一般情况是指终端用户,服务器端即指网 站。终端用户通过浏览器、蜘蛛等向服务器指定端口发送http请求。发送http请求会返回对应的httpheader信息,可以看到包括是否成功、服务 器类型、网页最近更新时间等内容。

https协议:实际是加密版http,一种更加安全的数据传输协议。

2、UA属性

UAuser-agent,是http协议中的一个属性,代表了终端的身份,向服务器端表明我是谁来干嘛,进而服务器端可以根据不同的身份来做出不同的反馈结果。

3、robots协议

robots.txt是搜索引擎访问一个网站时要访问的第一个文件,用以来确定哪些是被允许抓取的哪些是被禁止抓取的。 robots.txt必须放在网站根目录下,且文件名要小写。详细的robots.txt写法可参考 http://www。robotstxt。org 。百度严格按照robots协议执行,另外,同样支持网页内容中添加的名为robotsmeta 签,indexfollownofollow等指令。

以上就是小小课堂网为大家带来的是转自百度官方《百度搜索引擎工作原理三:Baiduspider抓取过程中涉及的网络协议》。杭州seo感谢您的观看。网站优化seo培训认准小小课堂!

非特殊说明,本文为小小课堂SEO自学网原创,欢迎转载并保留版权 https://www.xxkt.org/

本站提供SEO培训、咨询、诊断,微信(电话):13722793092 微信公众号:xxktorg

一条回应:“杭州seo【Baiduspider抓取涉及协议】百度搜索引擎工作原理三”

  1. 马慧SEO说道:

    小小课堂SEO自学网(https://www.xxkt.org/ ),全网营销SEO概念提出者,提供SEO培训、全站优化诊断、顾问咨询为主的SEO服务。分享SEO实战经验,新站快速排名,单页面排名和三方平台推广等技术。电子书营销、论坛发帖推广、电子邮件营销、新媒体运营等网络营销教程。

发表评论

电子邮件地址不会被公开。 必填项已用*标注

相关文章!