python爬虫小结

作者: SCQ000 | 来源:发表于2016-10-24 08:54 被阅读56次

    这两天写了一两个爬虫程序,也逐渐熟悉了爬虫的基本知识。可以很方面地写一两个小程序,为自己服务O(∩_∩)O。比如,BT种子搜索

    什么是爬虫

    爬虫(spider),是利用程序对网络上信息进行采集的程序,通常是从大量网页或者特定的网站上爬取所需要的信息。

    爬虫工作原理

    写一个爬虫程序,主要可以分为三个部分:获取网页,匹配数据,输出结果。

    获取网页

    这一部分,你需要了解一些HTTP协议相关的知识。python程序中,有几个库可以为你完成这些工作:urllib,urlib2,requests。这里推荐使用requests,因为它真的很简单。

    import requests
    response = requests.get('https://github.com/timeline.json')
    print response.content
    

    从上面代码可以看出,我们利用requests工具,向服务器发送了一个get请求,随后,你就能获得一个response对象,很简单不是吗?这一部分,主要是要模拟浏览器发送用户请求,获取源码。如果网站比较复杂,比如需要登录或者特定的参数才能访问,你可能就需要通过构造请求头来进行了。

    匹配数据

    获取到网页的源码后,我们需要针对目标数据对网页进行过滤,获取有效数据。你可以使用BS4,当然还有万能的正则表达式。

    search_tip = BeautifulSoup(res.content).find_all(class_="search_tip")[0].get_text()
    

    如这一句,就是获取网页中类名为search_tip的第一个子元素的值。

    输出结果

    第三个步骤,你获取到你想要的数据后,就需要进行输出了。输出的方式多种多样,从最简单的控制台输出,到文件输出,再到复杂的数据库存储,你可以选择你自己喜欢的方式。

    #data 为获取到数据
    file = file("result.txt", "w+")
    file.write(data)
    

    说在最后

    其实,写高级的爬虫程序,要学的东西还挺多的,包括多线程、分布式、获取js动态加载网页数据等。如果你感兴趣,可以动手试一试呢!

    相关文章

      网友评论

        本文标题:python爬虫小结

        本文链接:https://www.haomeiwen.com/subject/kwpayttx.html