• 欢迎访问搞代码网站,推荐使用最新版火狐浏览器和Chrome浏览器访问本网站!
  • 如果您觉得本站非常有看点,那么赶紧使用Ctrl+D 收藏搞代码吧

Python爬虫包BeautifulSoup异常处理(二)

python 搞代码 4年前 (2022-01-08) 35次浏览 已收录 0个评论

这篇文章主要为大家详细介绍了Python爬虫包BeautifulSou来源gaodaimacom搞#代%码网p的异常处理,具有一定的参考价值,感兴趣的朋友可以参考一下

面对网络不稳定,页面更新等问题,很可能出现程序异常的问题,所以我们要对程序进行一些异常处理。大家可能觉得处理异常是一个比较麻烦的活,但在面对复杂网页和任务的时候,无疑成为一个很好的代码习惯。

网页‘404’、‘500’等问题

 try: html = urlopen('http://www.pmcaff.com/2221') except HTTPError as e: print(e) 

返回的是空网页

 if html is None: print('没有找到网页')

目标标签在网页中缺失

 try: #不存在的标签 content = bsObj.nonExistingTag.anotherTag except AttributeError as e: print('没有找到你想要的标签') else: if content == None: print('没有找到你想要的标签') else: print(content) 

实例

 if sys.version_info[0] == 2: from urllib2 import urlopen # Python 2 from urllib2 import HTTPError else: from urllib.request import urlopen # Python3 from urllib.error import HTTPError from bs4 import BeautifulSoup import sys def getTitle(url): try: html = urlopen(url) except HTTPError as e: print(e) return None try: bsObj = BeautifulSoup(html.read()) title = bsObj.body.h1 except AttributeError as e: return None return title title = getTitle("http://www.pythonscraping.com/exercises/exercise1.html") if title == None: print("Title could not be found") else: print(title)

以上就是Python爬虫包BeautifulSoup异常处理(二)的详细内容,更多请关注gaodaima搞代码网其它相关文章!


搞代码网(gaodaima.com)提供的所有资源部分来自互联网,如果有侵犯您的版权或其他权益,请说明详细缘由并提供版权或权益证明然后发送到邮箱[email protected],我们会在看到邮件的第一时间内为您处理,或直接联系QQ:872152909。本网站采用BY-NC-SA协议进行授权
转载请注明原文链接:Python爬虫包BeautifulSoup异常处理(二)
喜欢 (0)
[搞代码]
分享 (0)
发表我的评论
取消评论

表情 贴图 加粗 删除线 居中 斜体 签到

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址