美文网首页爬虫生活不易 我用pythonPython 运维
简短Python爬虫爬取《人民的名义》豆瓣书评,附源代码和逐行解

简短Python爬虫爬取《人民的名义》豆瓣书评,附源代码和逐行解

作者: 河边放牛娃 | 来源:发表于2017-05-12 18:00 被阅读191次

    第一步,查看要爬取的网站:https://book.douban.com/subject/26952485/collections

    明确要爬取的信息,以及查看对应的xpath

    本爬虫提取如下的五条信息:

    1. 用户ID

    2. 用户所在城市

    3. 评论发布日期

    4. 用户评分

    5. 用户评论

    第二步,查询xpath,大家可以用浏览器的开发者工具提取对应的xpath,此处省略具体步骤一千字.......。

    第三步,分享代码,并附加逐行解释(井号之后为注释)。

    源代码百度网盘链接:http://pan.baidu.com/s/1o8I3UDs


    #下面这几步import是载入Python中对应的包,除了requests之外,其余都是常用的包。目前有些人写爬虫喜欢用scrapy,本人更喜欢用requests,简单粗暴,单刀直入。

    import requests 

    import time

    import json

    import csv

    import sys

    reload(sys)

    sys.setdefaultencoding("utf-8")

    from lxml import etree

    #下面这两步的意思是把爬取的数据存入csv文件,文件名为data.csv

    csvfile = file('data.csv', 'wb')

    writer = csv.writer(csvfile)

    #因为数据在csv文件里面是按列排放的,所以下面的这行的意思是在第一行放上每列数据所代表的意思,这五列分别对应我们在上述第一步里面提到的所需要爬取的五个信息。

    writer.writerow(["user_id","city","date","rating","comment"])

    #下面这一步我故意把循环弄成很多次,之为了翻页能翻到最后一页,下面有语句判断如果翻到最后一页,就自动终止这个循环

    for i in xrange(0,1000000,20):

    url = "https://book.douban.com/subject/26952485/collections?start=" + str(i) #每次i改变都代表翻到了新的一页

    r=requests.get(url) #用requests函数来发送请求

    content=r.content #读取网页内容

    page=etree.HTML(content) #这步是把读取的内容转为HTML 格式方便下面用xpath来提取信息

    table = page.xpath('//*[@id="collections_tab"]//tr') #因为评论是以表格的形式逐行排列的,所以这里先提取所有行的信息。

    #这下面意思是是如果没有翻到最后一页就提取每页的信息

    if table != []:

    for row in table: #用循环来提取每行的信息

    user_id = "".join(row.xpath('./td[2]/div/a/@href')) #提取用户ID

    city = "".join(row.xpath('./td[2]/div/a/span[2]/text()')) #提取用户所在城市

    date = "".join(row.xpath('./td[2]/p[1]/span[1]/text()')).strip() #提取评论发布时间

    rating = "".join(row.xpath('./td[2]/p[1]/span[2]/@class')) #提取评分

    #有时候评分之前会插上书签,所以会改变评分的xpath,下面是来判断,如果有书签的话,就换一个xpath来提取评分信息

    if rating == "":

    rating = "".join(row.xpath('./td[2]/p[1]/span[3]/@class'))

    comment = "".join(row.xpath('./td[2]/p[2]/text()')).strip() #提取具体评论

    writer.writerow([user_id,city,date,rating,comment]) #将提取的信息写入csv文件

    #下面这两步的作用是判断是否到了最后一页,如果到了最后一页,那么提取的内容就为空,那么就终止主循环

    else:

    break

    #下面这步是在屏幕上打印出具体翻到了那一页以及打印出具体的时间

    print 'page %d data was processed !!!'%i + time.strftime("%Y-%m-%d %H:%M:%S", time.localtime(time.time()))

    第四步,查看数据。爬虫运行完毕之后会在当前文件夹下生成一个data.csv的文件。打开之后看到的数据是这样的:

    咦?city和comment那两栏怎么会出现乱码呢?

    本人在网上搜索一番之后才发现,这是因为爬虫里面我指定的编码格式是UTF-8, 然后EXCEL的编码格式不是这样的,因为city和comment对应的数据是中文,所以会出现乱码。如果数据是英文,那么不会出现乱码。解决乱码的方法在第五步给出。

    第五步,解决乱码。右键点击data.csv,用记事本打开csv文件。见证奇迹的时刻到了,我们看到了漂亮的中文(如下第一图所示)。然后copy全部数据粘贴在excel里面按照逗号将数据分隔开就大功告成了(如下第二图所示)。

    相关文章

      网友评论

      本文标题:简短Python爬虫爬取《人民的名义》豆瓣书评,附源代码和逐行解

      本文链接:https://www.haomeiwen.com/subject/nmxtxxtx.html