• 欢迎访问搞代码网站,推荐使用最新版火狐浏览器和Chrome浏览器访问本网站!
  • 如果您觉得本站非常有看点,那么赶紧使用Ctrl+D 收藏搞代码吧

python爬虫如何爬取get请求的页面数据?(附代码)

python 搞代码 4年前 (2022-01-09) 42次浏览 已收录 0个评论

本篇文章给大家带来的内容是关于python爬虫如何爬取get请求的页面数据(附代码),有一定的参考价值,有需要的朋友可以参考一下,希望对你有所帮助。

一.urllib库

urllib是Python自带的一个用于爬虫的库,其主要作用就是可以通过代码模拟浏览器发送请求。其常被用到的子模块在Python3中的为urllib.request和urllib.parse,在Python2中是urllib和urllib2。

二.由易到难的爬虫程序:

1.爬取百度首页面所有数据值

#!/usr/bin/env python # -*- coding:utf-8 -*-#导包import urllib.requestimpo<a>本文来源gao($daima.com搞@代@#码(网</a>rt urllib.parseif __name__ == "__main__":    #指定爬取的网页url    url = 'http://www.baidu.com/'    #通过urlopen函数向指定的url发起请求,返回响应对象    reponse = urllib.request.urlopen(url=url)    #通过调用响应对象中的read函数,返回响应回客户端的数据值(爬取到的数据)    data = reponse.read()#返回的数据为byte类型,并非字符串    print(data)#打印显示爬取到的数据值。

#补充说明
urlopen函数原型:

urllib.request.urlopen(url, data=None, timeout=<object object at 0x10af327d0>, *, cafile=None, capath=None, cadefault=False, context=None)

在上述案例中我们只使用了该函数中的第一个参数url。在日常开发中,我们能用的只有url和data这两个参数。

url参数:指定向哪个url发起请求

data参数:可以将post请求中携带的参数封装成字典的形式传递给该参数(暂时不需要理解,后期会讲)

urlopen函数返回的响应对象,相关函数调用介绍:

response.headers():获取响应头信息
response.getcode():获取响应状态码
response.geturl():获取请求的url
response.read():获取响应中的数据值(字节类型)

2.将爬取到百度新闻首页的数据值写入文件进行存储

#!/usr/bin/env python # -*- coding:utf-8 -*-import urllib.requestimport urllib.parseif __name__ == "__main__":    url = 'http://news.baidu.com/'    reponse = urllib.request.urlopen(url=url)    #decode()作用是将响应中字节(byte)类型的数据值转成字符串类型    data = reponse.read().decode()    #使用IO操作将data表示的数据值以'w'权限的方式写入到news.html文件中    with open('./news.html','w') as fp:        fp.write(data)    print('写入文件完毕')

3.爬取网络上某张图片数据,且存储到本地

#!/usr/bin/env python # -*- coding:utf-8 -*-import urllib.requestimport urllib.parse#如下两行代码表示忽略https证书,因为下面请求的url为https协议的请求,如果请求不是https则该两行代码可不用。import sslssl._create_default_https_context = ssl._create_unverified_contextif __name__ == "__main__":    #url是https协议的    url = 'https://timgsa.baidu.com/timg?image&quality=80&size=b9999_10000&sec=1536918978042&di=172c5a4583ca1d17a1a49dba2914cfb9&imgtype=0&src=http%3A%2F%2Fimgsrc.baidu.com%2Fimgad%2Fpic%2Fitem%2F0dd7912397dda144f04b5d9cb9b7d0a20cf48659.jpg'    reponse = urllib.request.urlopen(url=url)    data = reponse.read()#因为爬取的是图片数据值(二进制数据),则无需使用decode进行类型转换。    with open('./money.jpg','wb') as fp:        fp.write(data)    print('写入文件完毕')

4.url的特性:url必须为ASCII编码的数据值。所以我们在爬虫代码中编写url时,如果url中存在非ASCII编码的数据值,则必须对其进行ASCII编码后,该url方可被使用。

案例:爬取使用百度根据指定词条搜索到的页面数据(例如爬取词条为‘周杰伦’的页面数据)

#!/usr/bin/env python # -*- coding:utf-8 -*-import urllib.requestimport urllib.parseif __name__ == "__main__":    #原始url中存在非ASCII编码的值,则该url无法被使用。    #url = 'http://www.baidu.com/s?ie=utf-8&kw=周杰伦'    #处理url中存在的非ASCII数据值    url = 'http://www.baidu.com/s?'    #将带有非ASCII的数据封装到字典中,url中非ASCII的数据往往都是'?'后面键值形式的请求参数    param = {        'ie':'utf-8',        'wd':'周杰伦'    }    #使用parse子模块中的urlencode函数将封装好的字典中存在的非ASCII的数值进行ASCII编码    param = urllib.parse.urlencode(param)    #将编码后的数据和url进行整合拼接成一个完整可用的url    url = url + param    print(url)    response = urllib.request.urlopen(url=url)    data = response.read()    with open('./周杰伦.html','wb') as fp:        fp.write(data)    print('写入文件完毕')

搞代码网(gaodaima.com)提供的所有资源部分来自互联网,如果有侵犯您的版权或其他权益,请说明详细缘由并提供版权或权益证明然后发送到邮箱[email protected],我们会在看到邮件的第一时间内为您处理,或直接联系QQ:872152909。本网站采用BY-NC-SA协议进行授权
转载请注明原文链接:python爬虫如何爬取get请求的页面数据?(附代码)

喜欢 (0)
[搞代码]
分享 (0)
发表我的评论
取消评论

表情 贴图 加粗 删除线 居中 斜体 签到

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址