美文网首页
Python Web Scraping入门

Python Web Scraping入门

作者: 愿码生态技术团队 | 来源:发表于2019-04-22 17:48 被阅读0次
    image
    • 来源 | 愿码(ChainDesk.CN)内容编辑
    • 愿码Slogan | 连接每个程序员的故事
    • 网站 | http://chaindesk.cn
    • 愿码愿景 | 打造全学科IT系统免费课程,助力小白用户、初级工程师0成本免费系统学习、低成本进阶,帮助BAT一线资深工程师成长并利用自身优势创造睡后收入。
    • 官方公众号 | 愿码 | 愿码服务号 | 区块链部落
    • 免费加入愿码全思维工程师社群 | 任一公众号回复“愿码”两个字获取入群二维码

    本文阅读时长:12min

    网络上可用的数据量在数量和形式上都在不断增长。企业需要这些数据来做出决策,尤其是机器学习工具的爆炸性增长, 这些工具需要大量的数据用于培训。大部分数据都可以通过应用程序编程接口获得,但同时许多有价值的数据仍然只能通过网络抓取过程获得。

    对于许多构建系统来执行抓取的人来说,Python是编程语言的选择。它是一种易于使用的编程语言,具有丰富的工具生态系统,可用于其他任务。在本文中,我们将重点介绍设置抓取环境的基础知识,并使用多种交易工具执行基本的数据请求。

    设置Python开发环境

    如果您之前没有使用过Python,那么拥有一个可用的开发环境非常重要。本文将向您展示如何使用virtualenv设置独立的开发环境,并使用pip管理项目依赖性。

    准备

    我们将专门使用Python 3.x,在我的例子中是3.6.1。虽然Mac和 Linux通常安装了Python版本2,而Windows系统却没有。所以在任何情况下都可能需要安装Python 3。


    image

    pip随Python 3.x一起安装,因此我们将省略其安装说明。此外,本文中的所有命令行示例都在Mac上运行。对于 Linux用户,命令应该相同。在Windows上,有备用命令(如dir而不是ls),但不会涵盖这些备选方案。

    怎么做

    我们将用pip安装一些软件包。这些包安装在 Python环境中。通常可能存在与其他软件包的版本冲突,因此遵循本书中的方法的一个好方法是创建一个新的虚拟Python环境,我们将使用的软件包确保正常工作。
    虚拟Python环境使用virtualenv工具进行管理。可以使用以下命令安装它:

    ~ $ pip install virtualenv
    
    Collecting virtualenv
    
    Using cached virtualenv-15.1.0-py2.py3-none-any.whl
    
    Installing collected packages: virtualenv
    
    Successfully installed virtualenv-15.1.0
    

    现在我们可以使用virtualenv。但在此之前,让我们简要地看一下pip。此命令从PyPI安装Python包,PyPI是一个包含数十万个包的数据包存储库 。我们刚看到使用install子命令pip,这确保了一个软件包的安装。我们还可以看到所有当前安装的包带有pip列表:

    ~ $ pip list
    
    alabaster (0.7.9)
    
    amqp (1.4.9)
    
    anaconda-client (1.6.0)
    
    anaconda-navigator (1.5.3)
    
    anaconda-project (0.4.1)
    
    aniso8601 (1.3.0)
    

    也可以使用pip uninstall和包名称卸载软件包。使用virtualenv非常简单,用它来创建一个环境并从github安装代码。让我们来看看这些步骤:
    1.创建一个表示项目的目录并输入目录。

    ~ $ mkdir pywscb
    
    ~ $ cd pywscb
    

    2.初始化名为env的虚拟环境文件夹:

    pywscb $ virtualenv env
    
    Using base prefix '/Users/michaelheydt/anaconda'
    
    New python executable in /Users/michaelheydt/pywscb/env/bin/python
    
    copying /Users/michaelheydt/anaconda/bin/python =>
    
    /Users/michaelheydt/pywscb/env/bin/python
    
    copying /Users/michaelheydt/anaconda/bin/../lib/libpython3.6m.dylib
    
    => /Users/michaelheydt/pywscb/env/lib/libpython3. 6m.dylib
    
    Installing setuptools, pip, wheel...done.
    

    3.创建一个env文件夹。我们来看看安装的内容。

    pywscb $ ls -la env
    
    total 8
    
    drwxr-xr-x 6 michaelheydt staff 204 Jan 18 15:38 .
    
    drwxr-xr-x 3 michaelheydt staff 102 Jan 18 15:35 ..
    
    drwxr-xr-x 16 michaelheydt staff 544 Jan 18 15:38 bin
    
    drwxr-xr-x 3 michaelheydt staff 102 Jan 18 15:35 include
    
    drwxr-xr-x 4 michaelheydt staff 136 Jan 18 15:38 lib
    
    -rw-r--r-- 1 michaelheydt staff 60 Jan 18 15:38 pipselfcheck.
    
    json
    

    4.新建我们激活的虚拟环境。此命令使用 env文件夹中的内容来配置Python。在此之后,所有python活动都与此虚拟环境相关。

    pywscb $ source env/bin/activate
    
    (env) pywscb $
    

    5.我们可以使用以下命令检查python是否确实在使用此虚拟环境 :

    (env) pywscb $ which python
    
    /Users/michaelheydt/pywscb/env/bin/python
    

    创建我们的虚拟环境后,让我们克隆书籍示例代码并查看其结构。

    (env) pywscb $ git clone
    
    https://github.com/PacktBooks/PythonWebScrapingCookbook.git
    
    Cloning into 'PythonWebScrapingCookbook'...
    
    remote: Counting objects: 420, done.
    
    remote: Compressing objects: 100% (316/316), done.
    
    remote: Total 420 (delta 164), reused 344 (delta 88), pack-reused 0
    
    Receiving objects: 100% (420/420), 1.15 MiB | 250.00 KiB/s, done.
    
    Resolving deltas: 100% (164/164), done.
    
    Checking connectivity... done.
    

    这创建了一个PythonWebScrapingCookbook目录。

    (env) pywscb $ ls -l
    
    total 0
    
    drwxr-xr-x 9 michaelheydt staff 306 Jan 18 16:21 PythonWebScrapingCookbook
    
    drwxr-xr-x 6 michaelheydt staff 204 Jan 18 15:38 env
    

    让我们改变它并检查内容。

    (env) PythonWebScrapingCookbook $ ls -l
    
    total 0
    
    drwxr-xr-x 15 michaelheydt staff 510 Jan 18 16:21 py
    
    drwxr-xr-x 14 michaelheydt staff 476 Jan 18 16:21 www
    

    有两个目录。大多数Python代码是py目录。www包含一些web内容,我们将不时使用本地web服务器来使用这些内容。让我们看看py目录的内容:

    (env) py $ ls -l
    
    total 0
    
    drwxr-xr-x 9 michaelheydt staff 306 Jan 18 16:21 01
    
    drwxr-xr-x 25 michaelheydt staff 850 Jan 18 16:21 03
    
    drwxr-xr-x 21 michaelheydt staff 714 Jan 18 16:21 04
    
    drwxr-xr-x 10 michaelheydt staff 340 Jan 18 16:21 05
    
    drwxr-xr-x 14 michaelheydt staff 476 Jan 18 16:21 06
    
    drwxr-xr-x 25 michaelheydt staff 850 Jan 18 16:21 07
    
    drwxr-xr-x 14 michaelheydt staff 476 Jan 18 16:21 08
    
    drwxr-xr-x 7 michaelheydt staff 238 Jan 18 16:21 09
    
    drwxr-xr-x 7 michaelheydt staff 238 Jan 18 16:21 10
    
    drwxr-xr-x 9 michaelheydt staff 306 Jan 18 16:21 11
    
    drwxr-xr-x 8 michaelheydt staff 272 Jan 18 16:21 modules
    

    每章的代码都在与章节匹配的编号文件夹中(第2章没有代码,因为它都是交互式Python)。请注意,有一个modules文件夹。确保您的Python路径指向此文件夹。在Mac和Linux上, 您可以在.bash_profile文件(以及Windows 上的环境变量对话框)中设置此项 :

    Export PYTHONPATH="/users/michaelheydt/dropbox/packt/books/pywebscrcookbook/code/py/modules" export PYTHONPATH
    

    每个文件夹中的内容通常遵循与章节中的配方序列匹配的编号方案。以下是第6章文件夹的内容:

    (env) py $ ls -la 06
    
    total 96
    
    drwxr-xr-x 14 michaelheydt staff 476 Jan 18 16:21 .
    
    drwxr-xr-x 14 michaelheydt staff 476 Jan 18 16:26 ..
    
    -rw-r--r-- 1 michaelheydt staff 902 Jan 18 16:21 01_scrapy_retry.py
    
    -rw-r--r-- 1 michaelheydt staff 656 Jan 18 16:21 02_scrapy_redirects.py
    
    -rw-r--r-- 1 michaelheydt staff 1129 Jan 18 16:21 03_scrapy_pagination.py
    
    -rw-r--r-- 1 michaelheydt staff 488 Jan 18 16:21 04_press_and_wait.py
    
    -rw-r--r-- 1 michaelheydt staff 580 Jan 18 16:21 05_allowed_domains.py
    
    -rw-r--r-- 1 michaelheydt staff 826 Jan 18 16:21 06_scrapy_continuous.py
    
    -rw-r--r-- 1 michaelheydt staff 704 Jan 18 16:21
    
    07_scrape_continuous_twitter.py
    
    -rw-r--r-- 1 michaelheydt staff 1409 Jan 18 16:21 08_limit_depth.py
    
    -rw-r--r-- 1 michaelheydt staff 526 Jan 18 16:21 09_limit_length.py
    
    -rw-r--r-- 1 michaelheydt staff 1537 Jan 18 16:21 10_forms_auth.py
    
    -rw-r--r-- 1 michaelheydt staff 597 Jan 18 16:21 11_file_cache.py
    
    -rw-r--r-- 1 michaelheydt staff 1279 Jan 18 16:21
    
    12_parse_differently_based_on_rules.py
    

    我们将使用该脚本 /文件名>。如果您想退出Python虚拟环境,可以使用以下命令退出:

    (env) py $ deactivate
    
    py $
    
    And checking which python we can see it has switched back:
    
    py $ which python
    
    /Users/michaelheydt/anaconda/bin/python
    

    使用Requests和Beautiful Soup


    我们将安装Requests and Beautiful Soup 。我们将安装两个库并对它们有一些基本的熟悉程度 。

    准备

    https://www.python.org/events/pythonevents 中获取Python最新活动。下面是Python.org活动页面的一个例子(它经常变化,所以你的体验会有所不同):

    image

    我们需要确保安装了Requests和Beautiful Soup。我们可以通过以下方式做到这一点 :

    pywscb $ pip install requests
    
    Downloading/unpacking requests
    
    Downloading requests-2.18.4-py2.py3-none-any.whl (88kB): 88kB downloaded
    
    Downloading/unpacking certifi>=2017.4.17 (from requests)
    
    Downloading certifi-2018.1.18-py2.py3-none-any.whl (151kB): 151kB
    
    downloaded
    
    Downloading/unpacking idna>=2.5,=3.0.2,=1.21.1,
    
    怎么做

    现在让我们去学习一些事件。对于这个配方,我们将从使用交互式python 开始 。
    1.使用ipython命令启动它:

    $ ipython
    
    Python 3.6.1 |Anaconda custom (x86_64)| (default, Mar 22 2017,
    
    19:25:17)
    
    Type "copyright", "credits" or "license" for more information.
    
    IPython 5.1.0 -- An enhanced Interactive Python.
    
    ? -> Introduction and overview of IPython's features.
    
    %quickref -> Quick reference.
    
    help -> Python's own help system.
    
    object? -> Details about 'object', use 'object??' for extra
    
    details.
    
    In [1]:
    

    2.接下来我们导入请求

    In [1]: import requests
    

    3.我们现在使用请求通过发出GET请求为以下URL发出GET HTTP请求:https://www.python.org/events/ python-events /:

    In [2]: url = 'https://www.python.org/events/python-events/'
    
    In [3]: req = requests.get(url)
    

    4.下载了页面内容,但它存储在我们的请求对象req中。我们可以使用.text属性检索内容。这将打印前200个字符。

    req.text[:200]
    
    Out[4]: 'nnn
    

    相关文章

      网友评论

          本文标题:Python Web Scraping入门

          本文链接:https://www.haomeiwen.com/subject/ilyugqtx.html