200字范文,内容丰富有趣,生活中的好帮手!
200字范文 > python爬虫浏览器伪装和设置代理ip

python爬虫浏览器伪装和设置代理ip

时间:2021-07-01 01:43:32

相关推荐

python爬虫浏览器伪装和设置代理ip

1.python爬虫浏览器伪装

#导入urllib.request模块import urllib.request#设置请求头headers=("User-Agent","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.221 Safari/537.36 SE 2.X MetaSr 1.0")#创建一个openeropener=urllib.request.build_opener()#将headers添加到opener中opener.addheaders=[headers]#将opener安装为全局urllib.request.install_opener(opener)#用urlopen打开网页data=urllib.request.urlopen(url).read().decode('utf-8','ignore')

2.python使用代理ip

#定义代理ip,多个代理ip,随机使用iplist = ['219.223.251.173:3128','203.174.112.13:3128','122.72.18.34:80']#设置代理proxy=urllib.request.ProxyHandle({'http':iplist[random.randint(0,len(iplist))]})#创建一个openeropener=urllib.request.build_opener(proxy,urllib.request.HTTPHandle)#将opener安装为全局urllib.request.install_opener(opener)#用urlopen打开网页data=urllib.request.urlopen(url).read().decode('utf-8','ignore')

3.python同时设置代理ip和浏览器模拟

'''使用代理访问'''import urllib.requestimport randomurl = '.tw'#创建一个iplist,随机使用ipiplist = ['219.223.251.173:3128','203.174.112.13:3128','122.72.18.34:80']#创建一个代理openerproxy_support = urllib.request.ProxyHandler({'http':iplist[random.randint(0, len(iplist))]})opener = urllib.request.build_opener(proxy_support)#添加浏览器的伪装头部opener.addheaders = [('User-Agent','Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:58.0) Gecko/0101 Firefox/58.0')]#使用代理opener访问urlresponse = opener.open(url)html = response.read().decode('utf-8')print(html)

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。