• 欢迎访问搞代码网站,推荐使用最新版火狐浏览器和Chrome浏览器访问本网站!
  • 如果您觉得本站非常有看点,那么赶紧使用Ctrl+D 收藏搞代码吧

零基础写Java知乎爬虫之获取知乎编辑推荐内容

java 搞代码 4年前 (2022-01-05) 33次浏览 已收录 0个评论

上篇文章我们拿百度首页做了个小测试,今天我们来个复杂的,直接抓取知乎编辑推荐的内容,小伙伴们可算松了口气,终于进入正题了,哈哈。

知乎是一个真实的网络问答社区,社区氛围友好、理性、认真,连接各行各业的精英。他们分享着彼此的专业知识、经验和见解,为中文互联网源源不断地提供高质量的信息。

首先花个三五分钟设计一个Logo=。=作为一个程序员我一直有一颗做美工的心!

好吧做的有点小凑合,就先凑合着用咯。

接下来呢,我们开始制作知乎的爬虫。

首先,确定第一个目标:编辑推荐。

网页链接:http://www.zhihu.com/explore/recommendations

我们对上次的代码稍作修改,先实现能够获取该页面内容:

 import java.io.*;<br />import java.net.*;<br />import java.util.regex.*;<br />public class Main {<br /> static String SendGet(String url) {<br />  // 定义一个字符串用来存储网页内容<br />  String result = "";<br />  // 定义一个缓冲字符输入流<br />  BufferedReader in = null;<br />  try {<br />   // 将string转成url对象<br />   URL realUrl = new URL(url);<br />   // 初始化一个链接到那个url的连接<br />   URLConnection connection = realUrl.openConnection();<br />   // 开始实际的连接<br />   connection.connect();<br />   // 初始化 BufferedReader输入流来读取URL的响应<br />   in = new BufferedReader(new InputStreamReader(<br />     connection.getInputStream()));<br />   // 用来临时存储抓取到的每一行的数据<br />   String line;<br />   while ((line = in.readLine()) != null) {<br />    // 遍历抓取到的每一行并将其存储到result里面<br />    result += line;<br />   }<br />  } catch (Exception e) {<br />   System.out.println("发送GET请求出现异常!" + e);<br />   e.printStackTrace();<br />  }<br />  // 使用finally来关闭输入流<br />  finally {<br />   try {<br />    if (in != null) {<br />     in.close();<br />    }<br />   } catch (Exception e2) {<br />    e2.printStackTrace();<br />   }<br />  }<br />  return result;<br /> }<br /> static String RegexString(String targetStr, String patternStr) {<br />  // 定义一个样式模板,此中使用正则表达式,括号中是要抓的内容<br />  // 相当于埋好了陷阱匹配的地方就会掉下去<br />  Pattern pattern = Pattern.compile(patternStr);<br />  // 定义一个matcher用来做匹配<br />  Matcher matcher = pattern.matcher(targetStr);<br />  // 如果找到了<br />  if (matcher.find()) {<br />   // 打印出结果<br />   <b style="color:transparent">来源gao@dai!ma.com搞$代^码网</b>return matcher.group(1);<br />  }<br />  return "Nothing";<br /> }<br /> public static void main(String[] args) {<br />  // 定义即将访问的链接<br />  String url = "http://www.zhihu.com/explore/recommendations";<br />  // 访问链接并获取页面内容<br />  String result = SendGet(url);<br />  // 使用正则匹配图片的src内容<br />  //String imgSrc = RegexString(result, "src=\"(.+?)\"");<br />  // 打印结果<br />  System.out.println(result);<br /> }<br />}

运行一下木有问题,接下来就是一个正则匹配的问题了。

首先我们先来获取该页面的所有的问题。

右击标题,审查元素:

啊哈,可以看到标题其实是一个a标签,也就是一个超链接,而其中能够和其他超链接区分开的,应该就是那个class了,也就是类选择器。

于是我们的正则语句就出来了:question_link.+?href=\”(.+?)\”

调用RegexString函数,并给它传参:

  public static void main(String[] args) {<br />  // 定义即将访问的链接<br />  String url = "http://www.zhihu.com/explore/recommendations";<br />  // 访问链接并获取页面内容<br />  String result = SendGet(url);<br />  // 使用正则匹配图片的src内容<br />  String imgSrc = RegexString(result, "question_link.+?>(.+?)<");<br />  // 打印结果<br />  System.out.println(imgSrc);<br /> }

啊哈,可以看到我们成功抓到了一个标题(注意,只是一个):

等一下啊这一大堆的乱七八糟的是什么玩意?!

别紧张=。=它只是字符乱码而已。

编码问题可以参见:HTML字符集

一般来说,对中文支持较好的主流编码是UTF-8,GB2312和GBK编码。

网页可以通过meta标签的charset来设置网页编码,譬如:

 

我们右击,查看页面源代码:

可以看到,知乎采用的是UTF-8编码。

在这里和大家解释一下查看页面源代码和审查元素的区别。

查看页面源代码是显示整个页面的所有代码,没有按照HTML的标签进行排版,相当于是直接查看源码,这种方式对于查看整个网页的信息,比如meta比较有用。

审查元素,或者有的浏览器叫查看元素,是针对你右击的元素进行查看,比如一个div或者img,比较适用于单独查看某个对象的属性和标签。

好的,我们现在知道了问题出在了编码上,接下来就是对抓取到的内容进行编码转换了。

在java中实现很简单,只需要在InputStreamReader里面指定编码方式就行:

 // 初始化 BufferedReader输入流来读取URL的响应<br />   in = new BufferedReader(new InputStreamReader(<br />     connection.getInputStream(),"UTF-8"));<br />

此时再运行程序,便会发现可以正常显示标题了:

好的!非常好!

但是现在才只有一个标题,我们需要的是所有的标题。

我们将正则稍加修改,把搜索到的结果存储到一个ArrayList里面:

 import java.io.*;<br />import java.net.*;<br />import java.util.ArrayList;<br />import java.util.regex.*;<br />public class Main {<br /> static String SendGet(String url) {<br />  // 定义一个字符串用来存储网页内容<br />  String result = "";<br />  // 定义一个缓冲字符输入流<br />  BufferedReader in = null;<br />  try {<br />   // 将string转成url对象<br />   URL realUrl = new URL(url);<br />   // 初始化一个链接到那个url的连接<br />   URLConnection connection = realUrl.openConnection();<br />   // 开始实际的连接<br />   connection.connect();<br />   // 初始化 BufferedReader输入流来读取URL的响应<br />   in = new BufferedReader(new InputStreamReader(<br />     connection.getInputStream(), "UTF-8"));<br />   // 用来临时存储抓取到的每一行的数据<br />   String line;<br />   while ((line = in.readLine()) != null) {<br />    // 遍历抓取到的每一行并将其存储到result里面<br />    result += line;<br />   }<br />  } catch (Exception e) {<br />   System.out.println("发送GET请求出现异常!" + e);<br />   e.printStackTrace();<br />  }<br />  // 使用finally来关闭输入流<br />  finally {<br />   try {<br />    if (in != null) {<br />     in.close();<br />    }<br />   } catch (Exception e2) {<br />    e2.printStackTrace();<br />   }<br />  }<br />  return result;<br /> }<br /> static ArrayList RegexString(String targetStr, String patternStr) {<br />  // 预定义一个ArrayList来存储结果<br />  ArrayList results = new ArrayList();<br />  // 定义一个样式模板,此中使用正则表达式,括号中是要抓的内容<br />  Pattern pattern = Pattern.compile(patternStr);<br />  // 定义一个matcher用来做匹配<br />  Matcher matcher = pattern.matcher(targetStr);<br />  // 如果找到了<br />  boolean isFind = matcher.find();<br />  // 使用循环将句子里所有的kelvin找出并替换再将内容加到sb里<br />  while (isFind) {<br />   //添加成功匹配的结果<br />   results.add(matcher.group(1));<br />   // 继续查找下一个匹配对象<br />   isFind = matcher.find();<br />  }<br />  return results;<br /> }<br /> public static void main(String[] args) {<br />  // 定义即将访问的链接<br />  String url = "http://www.zhihu.com/explore/recommendations";<br />  // 访问链接并获取页面内容<br />  String result = SendGet(url);<br />  // 使用正则匹配图片的src内容<br />  ArrayList imgSrc = RegexString(result, "question_link.+?>(.+?)<");<br />  // 打印结果<br />  System.out.println(imgSrc);<br /> }<br />}

这样就能匹配到所有的结果了(因为直接打印了ArrayList所以会有一些中括号和逗号):

OK,这样就算是完成了知乎爬虫的第一步。

但是我们可以看出来,用这样的方式是没有办法抓到所有的问题和回答的。

我们需要设计一个Zhihu封装类,来存储所有抓取到的对象。

Zhihu.java源码:

 import java.util.ArrayList;<br />public class Zhihu {<br /> public String question;// 问题<br /> public String zhihuUrl;// 网页链接<br /> public ArrayList answers;// 存储所有回答的数组<br /> // 构造方法初始化数据<br /> public Zhihu() {<br />  question = "";<br />  zhihuUrl = "";<br />  answers = new ArrayList();<br /> }<br /> @Override<br /> public String toString() {<br />  return "问题:" + question + "\n链接:" + zhihuUrl + "\n回答:" + answers + "\n";<br /> }<br />}

再新建一个Spider类来存放一些爬虫常用的函数。

Spider.java源码:

 import java.io.BufferedReader;<br />import java.io.InputStreamReader;<br />import java.net.URL;<br />import java.net.URLConnection;<br />import java.util.ArrayList;<br />import java.util.regex.Matcher;<br />import java.util.regex.Pattern;<br />public class Spider {<br /> static String SendGet(String url) {<br />  // 定义一个字符串用来存储网页内容<br />  String result = "";<br />  // 定义一个缓冲字符输入流<br />  BufferedReader in = null;<br />  try {<br />   // 将string转成url对象<br />   URL realUrl = new URL(url);<br />   // 初始化一个链接到那个url的连接<br />   URLConnection connection = realUrl.openConnection();<br />   // 开始实际的连接<br />   connection.connect();<br />   // 初始化 BufferedReader输入流来读取URL的响应<br />   in = new BufferedReader(new InputStreamReader(<br />     connection.getInputStream(), "UTF-8"));<br />   // 用来临时存储抓取到的每一行的数据<br />   String line;<br />   while ((line = in.readLine()) != null) {<br />    // 遍历抓取到的每一行并将其存储到result里面<br />    result += line;<br />   }<br />  } catch (Exception e) {<br />   System.out.println("发送GET请求出现异常!" + e);<br />   e.printStackTrace();<br />  }<br />  // 使用finally来关闭输入流<br />  finally {<br />   try {<br />    if (in != null) {<br />     in.close();<br />    }<br />   } catch (Exception e2) {<br />    e2.printStackTrace();<br />   }<br />  }<br />  return result;<br /> }<br /> static ArrayList GetZhihu(String content) {<br />  // 预定义一个ArrayList来存储结果<br />  ArrayList results = new ArrayList();<br />  // 用来匹配标题<br />  Pattern questionPattern = Pattern.compile("question_link.+?>(.+?)<");<br />  Matcher questionMatcher = questionPattern.matcher(content);<br />  // 用来匹配url,也就是问题的链接<br />  Pattern urlPattern = Pattern.compile("question_link.+?href=\"(.+?)\"");<br />  Matcher urlMatcher = urlPattern.matcher(content);<br />  // 问题和链接要均能匹配到<br />  boolean isFind = questionMatcher.find() && urlMatcher.find();<br />  while (isFind) {<br />   // 定义一个知乎对象来存储抓取到的信息<br />   Zhihu zhuhuTemp = new Zhihu();<br />   zhuhuTemp.question = questionMatcher.group(1);<br />   zhuhuTemp.zhihuUrl = "http://www.zhihu.com" + urlMatcher.group(1);<br />   // 添加成功匹配的结果<br />   results.add(zhuhuTemp);<br />   // 继续查找下一个匹配对象<br />   isFind = questionMatcher.find() && urlMatcher.find();<br />  }<br />  return results;<br /> }<br />}

最后一个main方法负责调用。

 import java.util.ArrayList;<br />public class Main {<br /> public static void main(String[] args) {<br />  // 定义即将访问的链接<br />  String url = "http://www.zhihu.com/explore/recommendations";<br />  // 访问链接并获取页面内容<br />  String content = Spider.SendGet(url);<br />  // 获取该页面的所有的知乎对象<br />  ArrayList myZhihu = Spider.GetZhihu(content);<br />  // 打印结果<br />  System.out.println(myZhihu);<br /> }<br />}<br />

Ok这样就算搞定了。运行一下看看结果:

好的效果不错。

接下来就是访问链接然后获取到所有的答案了。

下一回我们再介绍。

好了,以上就是简单的介绍了如何使用java来抓取知乎的编辑推荐的内容的全部过程了,非常详尽,也很简单易懂,对吧,有需要的小伙伴可以参考下,自由扩展也没问题哈

以上就是零基础写Java知乎爬虫之获取知乎编辑推荐内容的详细内容,更多请关注gaodaima搞代码网其它相关文章!


搞代码网(gaodaima.com)提供的所有资源部分来自互联网,如果有侵犯您的版权或其他权益,请说明详细缘由并提供版权或权益证明然后发送到邮箱[email protected],我们会在看到邮件的第一时间内为您处理,或直接联系QQ:872152909。本网站采用BY-NC-SA协议进行授权
转载请注明原文链接:零基础写Java知乎爬虫之获取知乎编辑推荐内容

喜欢 (0)
[搞代码]
分享 (0)
发表我的评论
取消评论

表情 贴图 加粗 删除线 居中 斜体 签到

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址