Python爬虫分类知识点有哪些


这篇文章主要介绍了Python爬虫分类知识点有哪些的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇Python爬虫分类知识点有哪些文章都会有所收获,下面我们一起来看看吧。通用网络爬虫是搜索引擎抓取系统(Baidu、Google、Sogou等)的一个重要组成部分。主要目的是将互联网上的网页下载到本地,形成一个互联网内容的镜像备份。为搜索引擎提供搜索支持。第一步搜索引擎去成千上万个网站抓取数据。第二步搜索引擎通过爬虫爬取到的网页,将数据存入原始页面数据库(也就是文档库)。其中的页面数据与用户浏览器得到的HTML是完全—样的。第三步搜索引擎将爬虫抓取回来的页面,进行各种步骤的预处理:中文分词,消除噪音,索引处理。。。
搜索引擎在对信息进行组织和处理后,为用户提供关键字检索服务,将用户检索相关的信息展示给用户。展示的时候会进行排名。搜索引擎抓取的是整个网页,不是具体详细的信息。搜索引擎无法提供针对具体某个客户需求的搜索结果。聚焦爬虫针对通用爬虫的这些情况,聚焦爬虫技术得以广泛使用。聚焦爬虫,是”面向特定主题需求”的一种网络爬虫程序,它与通用搜索引擎爬虫的区别在于:聚焦爬虫在实施网页抓取时会对内容进行处理筛选,尽量保证只抓取与需求相关的网页数据。robots是网站跟爬虫间的协议,用简单直接的txt格式文本方式告诉对应的爬虫被允许的权限,也就是说robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。——百度百科Robots协议也叫爬虫协议、机器人协议等,全称是“网络爬虫排除标准”(Robots ExclusionProtocol),网站通过Robots免费云主机域名协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取,例如:淘宝:https://www.taobao.com/robots.txt
百度:https://www.baidu.com/robots.txt网络通信由两部分组成:客户端请求消息服务器响应消息浏览器发送HTTP请求的过程:1.当我们在浏览器输入URLhttps://www.baidu.com的时候,浏览器发送一个Request请求去
获取https://www.baidu.com的html文件,服务器把Response文件对象发送回给浏览器。2.浏览器分析Response中的HTML,发现其中引用了很多其他文件,比如Images文件,CSS文件,JS文件。浏览器会自动再次发送Request去获取图片,CSS文件,或者JS文件。3.当所有的文件都下载成功后,网页会根据HTML语法结构,完整的显示出来了。实际上我们通过学习爬虫技术爬取数据,也是向服务器请求数据,获取服务器响应数据的过程。关于“Python爬虫分类知识点有哪些”这篇文章的内容就介绍到这里,感谢各位的阅读!相信大家对“Python爬虫分类知识点有哪些”知识都有一定的了解,大家如果还想学习更多知识,欢迎关注百云主机行业资讯频道。

相关推荐: MySQL中InnoDB与MyISAM的对比分析

小编给大家分享一下MySQL中InnoDB与MyISAM的对比分析,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!MyISAM:每个MyISAM在磁盘上存储成三个文件。分别为:表定义文…

免责声明:本站发布的图片视频文字,以转载和分享为主,文章观点不代表本站立场,本站不承担相关法律责任;如果涉及侵权请联系邮箱:360163164@qq.com举报,并提供相关证据,经查实将立刻删除涉嫌侵权内容。

(0)
打赏 微信扫一扫 微信扫一扫
上一篇 09/10 10:38
下一篇 09/10 10:38

相关推荐