• 欢迎访问搞代码网站,推荐使用最新版火狐浏览器和Chrome浏览器访问本网站!
  • 如果您觉得本站非常有看点,那么赶紧使用Ctrl+D 收藏搞代码吧

标签:scrapyd

python

Python3爬虫利器:Scrapyd API的安装(Scrapy分布式)

Python3爬虫利器:Scrapyd API的安装(Scrapy分布式)
安装好了Scrapyd之后,我们可以直接请求它提供的API来获取当前主机的Scrapy任务运行状况。比如,某台主机的IP为192.168.1.1,则可以直接运行如下命令获取当前主机的所有Scrapy项目:curl http://localhost:[email protected]继续阅读 »

搞java代码 3个月前 (05-24) 1浏览 0评论0个赞