IT博客汇
  • 首页
  • 精华
  • 技术
  • 设计
  • 资讯
  • 扯淡
  • 权利声明
  • 登录 注册

    python爬虫入门 实战(一)—爬糗事百科初窥XPath

    shendao发表于 2017-05-30 19:50:15
    love 0


    注:(此篇为切换Markdown编辑器调整了格式重发的……强迫症,原来用富文本编辑器写的太丑了)

    今天第一次尝试用python写爬虫,在w3shcool学习了一下XPath,用来找结点获取内容。过程中遇到几个小问题,在这里记录一下并分享给其他初学者。本文以爬取糗事百科为例,这里用的是python2.7。

    出现的问题:

    • socket.error: [Errno 10054]
    • xpath寻找结点的相对路径的写法

    糗事百科是一个很容易爬的网站,不需要登录。热门段子的URL是:http://www.qiushibaike.com/hot/page/2/

    发送请求获取html源码

    直接发送请求获取网页内容就好了,page后面的数字可以用来翻页。我们先来试一试直接发送请求并输出response的内容。注意请求要设置headers的内容,可以审查元素查看需要设置的内容。

    # -*- coding:utf-8 -*- import urllib import urllib2  page=1 url='http://www.qiushibaike.com/hot/page/'+str(page)  user_agent='Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0.2987.110 Safari/537.36' headers={'User-Agent':user_agent}  request=urllib2.Request(url,headers=headers) response=urllib2.urlopen(request) str_html= response.read() response.close()  print str_html

    运行没有问题,成功输出了网页源码内容。这里笔者出现一个疏忽,一开始因为没有close掉response,以至于远端主机重置了链接,出现socket.error: [Errno 10054] 。可能出现该错误的还有其他原因,具体可以参考这篇:python socket 超时设置 errno 10054

    用xpath解析并找到目标结点

    我们先尝试从简单的开始,把当前页面的所有段子的作者名字爬下来输出。首先先审查元素,看看页面的结构。

    python爬虫入门 实战(一)---爬糗事百科初窥XPath

    从上图可以看到,所有的段子以瀑布流的形式放在一个id="content-left"的div里面,段子有共同的特点class="article block untagged mb15"
    那我们先获取所有段子的整个div结点

    tree=html.fromstring(str_html) nodes=tree.xpath('//div[@id="content-left"]/div[@class="article block untagged mb15"]')

    xpath的语法可以参考w3shcool里的教程,或者其他资料。
    然后我们继续看段子的内容结构,如下图:

    python爬虫入门 实战(一)---爬糗事百科初窥XPath

    我们可以发现每个段子的第一个子div就是包含作者(用户)名字和头像信息的div,有共同的特点class=”author clearfix”,然后具体的名字信息在该div下的子元素第二个a标签里的h2标签里。
    了解了结构我们可以进行提取名字了。

    tree=html.fromstring(str_html) nodes=tree.xpath('//div[@id="content-left"]/div[@class="article block untagged mb15"]') for node in nodes:    res_author=node.xpath('//div[@class="author clearfix"]/a[2]/h2')[0].text    print res_author

    对于之前找到的每个段子结点,我们再找到class="author clearfix"的子div,再找到第二个a标签下的h2并获取其text内容,即可。但事实上上图是一个错误的写法,我们先运行一下看结果。

    python爬虫入门 实战(一)---爬糗事百科初窥XPath

    结果所有段子结点貌似都输出了同一个作者名字,但从页面看,只有第一个作者是这个名字。修改后的正确代码如下:

    python爬虫入门 实战(一)---爬糗事百科初窥XPath

    去掉了node.xpath路径的开头两个正斜杠,一切都正常了。这是什么原因呢。我又看了一下w3school上的教程,里面写到:

    python爬虫入门 实战(一)---爬糗事百科初窥XPath

    相对路径前面没有斜杠,而有两个斜杠是表示:

    python爬虫入门 实战(一)---爬糗事百科初窥XPath

    看起来有点拗口,但我猜测应该是用“//”都是从整个文档开始找的,除非在之前加个特定元素,才会在特定元素的所有后代中找。
    于是,我又测试了一下(下图),符合我的猜测,但可能是巧合,所以暂时先这么理解,如果有懂的同学看到这篇文章,希望可以给我讲解一下。

    python爬虫入门 实战(一)---爬糗事百科初窥XPath

    从上图结果看,用“//”果然可以从整个文档中找到所有的段子作者,所以之前的代码为什么会对所有的段子都输出同一个作者呢,(猜测)是因为每次循环都从整个文档找了一遍,而每次都是输出下标为[0]的作者名字,当然就是一样的。
    而修改后,变成了每个段子结点下的相对寻址,对于每个段子只有一个作者,所以下标为[0]的结果就是该条段子的作者名字了。

    爬取所有段子的主要信息(作者,内容,点赞和评论数)

    既然作者名字会爬,其他的文字信息也类似,都是用相对路径的写法找到。直接上完整代码:(本文只简单实现爬取文字内容,没有爬取图片。)

    # -*- coding:utf-8 -*- from lxml import html import urllib import urllib2  page=1 url='http://www.qiushibaike.com/hot/page/'+str(page)user_agent='Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0.2987.110 Safari/537.36' headers={'User-Agent':user_agent}  request=urllib2.Request(url,headers=headers) response=urllib2.urlopen(request) str_html= response.read() response.close()  tree=html.fromstring(str_html) nodes=tree.xpath('//div[@id="content-left"]/div[@class="article block untagged mb15"]')  #循环对每个段子结点进行输出 for node in nodes:    #解析每个段子   res_author=node.xpath('div[@class="author clearfix"]/a[2]/h2')[0].text    content=node.xpath('a[@class="contentHerf"]/div[@class="content"]/span')  [0].text    num_vote=node.xpath('div[@class="stats"]/span[@class="stats-vote"]/i')[0].text    num_comments=node.xpath('div[@class="stats"]/span[@class="stats-comments"]/a[@class="qiushi_comments"]/i')[0].text     #输出指定内容   print u"作者:"+res_author    print "---------------------------------------------------------"    print u"内容:"+content    print "---------------------------------------------------------"    print u"点赞:"+num_vote+u",评论:"+num_comments+"/n"

    运行结果截图:

    python爬虫入门 实战(一)---爬糗事百科初窥XPath

    本文参考:

    Python爬虫实战一之爬取糗事百科段子 | 静觅



沪ICP备19023445号-2号
友情链接