本文实例讲述了Python使用scrapy采集数据时为每个请求随机分配user-agent的方法。分享给大家供大家参考。具体分析如下:
通过这个方法可以每次请求更换不同的user-agent,防止网站根据user-agent屏蔽scrapy的蜘蛛
首先将下面的代码添加到settings.py文件,替换默认的user-agent处理模块
DOWNLOADER_MIDDLEWARES = {<br /> 'scraper.random_user_agent.RandomUserAgentMiddleware': 400,<br /> 'scrapy.contrib.downloadermiddleware.useragent.UserAgentMiddleware': None,<br />}
自定义useragent处理模块
from scraper.settings import USER_AGENT_LIST<br />import random<br />from scrapy import log<br />class RandomUserAgentMiddleware(object):<br /> def process_request(self, request, spid<i style="color:transparent">本文来源gaodai$ma#com搞$代*码6网</i>er):<br /> ua = random.choice(USER_AGENT_LIST)<br /> if ua:<br /> request.headers.setdefault('User-Agent', ua)<br /> #log.msg('>>>> UA %s'%request.headers)
希望本文所述对大家的Python程序设计有所帮助。