200字范文,内容丰富有趣,生活中的好帮手!
200字范文 > Python爬虫之网页采集器

Python爬虫之网页采集器

时间:2020-08-25 18:57:52

相关推荐

Python爬虫之网页采集器

文章目录

前言一、爬虫是什么?二、使用步骤1.引入库2.简单的页面爬取的四步流程1.获取url2.向url发送请求,并获取响应(需要http协议)3.如果从响应中提取url,则继续发送请求获取响应4.如果从响应中提取数据,则将数据进行保存 总结

前言

本文使用Python爬虫技术实现一个简单的网页采集器功能。

一、爬虫是什么?

网络爬虫(又被称为网页蜘蛛,网络机器人)就是模拟浏览器发送网络请求,接收请求响应,一种按照一定的规则,自动地抓取互联网信息的程序。

原则上,只要是浏览器(客户端)能做的事情,爬虫都能够做。

二、使用步骤

1.引入库

代码如下(示例):

import requests

2.简单的页面爬取的四步流程

1.获取url

2.向url发送请求,并获取响应(需要http协议)

3.如果从响应中提取url,则继续发送请求获取响应

4.如果从响应中提取数据,则将数据进行保存

以下是页面采集器的完整源代码:

import requestsif __name__ == "__main__":#UA伪装:将对应的User-Agent封装到一个字典中headers = {'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.121 Safari/537.36'}url = '/web'#处理url携带的参数:封装到字典中kw = input('enter a word:')param = {'query':kw}#对指定的url发起的请求对应的url是携带参数的,并且请求过程中处理了参数response = requests.get(url=url,params=param,headers=headers)page_text = response.textfileName = kw+'.html'with open(fileName,'w',encoding='utf-8') as fp:fp.write(page_text)print(fileName,'保存成功!!!')

在我们进行网页爬取的时候,要进行UA伪装,所谓UA就是User-Agent(请求载体的身份标识)UA伪装有什么作用呢?UA检测:门户网站的服务器会检测对应请求的载体身份标识,如果检测到请求的载体身份标识为某一款浏览器,说明该请求是一个正常的请求。但是,如果检测到请求的载体身份标识不是基于某一款浏览器的,则表示该请求为不正常的请求(爬虫),则服务器端就很有可能拒绝该次请求。

总结

以上就是今天要讲的内容,本文仅仅简单介绍了网页采集器的爬虫实现步骤,而我们学习提供了大量能使我们快速便捷地处理数据的方法。

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。