2017/4/18爬虫作业

作者: Carpe | 来源:发表于2017-04-18 19:01 被阅读173次

    作业代码

    # -*- coding: utf-8 -*-
    import lxml
    import requests
    import re 
    import sys
    from bs4 import BeautifulSoup
    import csv
    reload(sys)
    sys.setdefaultencoding("utf-8")
    
    
    
    def get_data(link):
        headers = {"user-agent": "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/52.0.2743.116 Safari/537.36"}
        #link = 'http://www.jianshu.com/trending/weekly?utm_medium=index-banner-s&utm_source=desktop'
        html = requests.get(link, headers=headers)
        soup = BeautifulSoup(html.content, 'html.parser')
    
    
        total = []
        total_data = soup.findAll("div", {"class": "content"})
        for alone_data in total_data:
            alone = []
            author = alone_data.find("a", {"class": "blue-link"}).get_text()
            title = alone_data.find("a", {"class": "title"}).get_text()
            meta = alone_data.find("div", {"class": "meta"})
            read_num = meta.findAll("a", {"target": "_blank"})[0].get_text()
            comment_num = meta.findAll("a", {"target": "_blank"})[1].get_text()
            like_num = meta.findAll("span")[0].get_text()
            post_date = alone_data.span['data-shared-at']
            alone.append(post_date)
            alone.append(author)
            alone.append(title)
            alone.append(read_num)
            alone.append(comment_num)
            alone.append(like_num)
            try:
                money_num = meta.findAll("span")[1].get_text()
                alone.append(money_num)
            except:
                alone.append("没赞赏")
            total.append(alone)
        return total
    
    
    
        
    
    if __name__ == "__main__":
        f = file('jian.csv', 'wb')
        f.write('\xEF\xBB\xBF')
        writer = csv.writer(f)
        for i in range(1,6):
            link = 'http://www.jianshu.com/trending/weekly?&page=%s' %i
            print "正在处理" + str(i)
            p = get_data(link)
            for m in p:
                writer.writerow(m)
        f.close()
        print "处理完毕"
    

    作业结果

    作业结果 作业的结果

    作业的思路

    本来是打算用scrapy的,但是由于才刚开始看scrapy文档,就卡在输出item上了,就还是选择了老套路,单线程爬虫。
    思路比较简单,就是找标签,不过在异步加载这里卡了挺久的,由于做爬虫的经验也比较少,没有遇到过有异步加载的网站,只见过一个视频里有讲到过异步加载,也只是一笔带过,只记得是构造表单,经过一阵观察,只看到两个比较可能的地方
    可能一、

    page2
    看到这,想到了构造表单,但是发现有很多id,也没有办法来构造表单,无奈放弃,另找出路
    可能二、 注意page2

    这里也出现了一个page2,但是看到这么一长串的id号,实在是吓人,一开始不太相信,但是又看了下另一个page3

    注意page3

    于是联想,有没有这样一种可能,每个七天榜的id都是不一样的,id也许与页面无关,又尝试了一下,把id删了,只保留page=x,于是有

    分页展示

    接下来的事情就简单了...

    在作业中遇到的坑

    坑一、在调试的过程中,总是被return的位置所困扰,以至于得不到想要的结果,说明自己在逻辑判断这一块还是有所欠缺
    坑二、关于写入到csv文件中,在输出的到csv文件中,并转化成excel文件后,发现read_numcomment_num这两列无法排序,纠其原因,是无法选取其值,将他们复制下来到文本中,发现多了几个引号:

    无法显示值 多了引号

    想来想去,都不知道是什么原因,不知道如何改正,只能自己手动清洗一下

    要改进的地方

    1. 单线程爬虫还是太慢了,保存的方式也是有限的,更应该用scrapy来写,为日后大数据爬取打下基础
    2. 由于时间比较赶,也没有来得急进行分词,和统计并进行分析,也说明自己在写爬虫这一方面还是不太熟练,总是要翻文档

    相关文章

      网友评论

        本文标题:2017/4/18爬虫作业

        本文链接:https://www.haomeiwen.com/subject/vbrqzttx.html