美文网首页藏兵谷编程之美-Pyhonpython
5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

作者: 妄心xyx | 来源:发表于2018-11-07 22:34 被阅读680次

    Why?

    OCR(又叫光学字符识别)已经成为Python的一个常用工具。随着开源库Tesseract和Ocrad的出现,越来越多的程序员用OCR来编写自己的库文件和bot病毒。一个OCR的小例子,如用OCR直接从截图中提取文本,省去了重新键入的麻烦。

    本文福利:私信回复【PDF】可获取python电子书一套

    开始的步骤

    开始之前,我们需要开发一个后端服务层来表示OCR引擎的结果。这样你就可以用你喜欢的方式来向端用户表示你的结果。本文之后将会详细介绍。除此之外,我们还需要添加一点后端代码来生成HTML表格,以及一些使用这些API的前段代码。这部分本文没有讲,但是你可以参阅源代码。

    准备好开始吧!

    首先,需要安装一些依赖项。这个过程也是非常有趣的。

    本文已经在Ubuntu 14.04测试,但是12.x和13.x版本应该也可以。如果你用的是OSX系统,可以用VirtualBox,Docker(注意检查有没有包含Dockerfile和install guide),或者是DigitalOcean(推荐使用)来创建相应的环境。

    下载依赖项

    我们需要Tesseract及其所有依赖项,包括Leptonica及其他相关的包。

    注意:可以用_run.sh这个shell脚本来快速安装Leptonica和Tesseract的依赖包。如果这么做的话,可以直接跳到搭建Web服务器(跳转链接)部分。但是为了学习,如果你以前没有亲手构建过库文件的话,还是建议尝试一下。

    5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

    发生了什么?

    简单说,sudo apt-get update意思就是更新包列表。然后就能安装一些图像处理的包,如libtiff,libpng等等。除此之外,我们还需要安装Python 2.7,作为我们的编程语言,以及python-imaging库。

    说起图像,在将程序里面编辑图像之前我们还需要ImageMagick包。

    $ sudo apt-get install imagemagick
    
    # **构建Leptonica和Tesseract**
    

    再说一遍,如果你用_run.sh脚本已经安装过,就可以直接跳到搭建Web服务器(跳转链接)部分。

    Leptonica

    现在,开始安装Leptonica。

    5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

    如果这是你第一次用tar的话,按照如下步骤操作:

    1. 用wget下载Leptonica的二进制文件

    2. 解压

    3. 用cd进入解压后的文件夹

    4. 运行autobuild和configure脚本安装

    5. 执行make命令build

    6. Build后安装

    7. 执行ldconfig创建相关的链接

    OK,Leptonica创建好了,接下来就是Tesseract了。

    Tesseract

    现在下载并安装Tesseract吧。

    5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

    此处构建了一个Leptonica的映像,这部分的详细信息参考Leptonica的解释。

    环境变量

    我们需要设置一个环境变量来访问Tesseract数据:

    $ export TESSDATA_PREFIX=/usr/local/share/
    

    Tesseract包

    最后安装一下Tesseract相关的语言包:

    5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

    OK,Tesseract也安装好了,可以CLI来测试一下。更多的信息可以参考docs(超链接)。但是,我们还需要一个Python环境。所以,接下来安装一个能够接受以下两种请求的Flask服务器:

    1. 接受图像URL

    2. 能够对图像进行字符识别

    搭建Web服务器

    最有趣的事情来了!首先,我们需要构建一种通过Python和Tesseract交互的方式。我们可以使用popen,但是那不是python的风格。所以,我们可以使用一个非常小但是功能非常强大的Python包将Tesseract封装起来——pytesseract(超链接)。

    想要快点的话,就运行_app.sh脚本,否则,点击这里(超链接)获取代码/结构的模板,然后运行一下命令:

    5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

    注意:Flask模板(有Real Python(超链接)维护)是一个获取简单的具有Python风格的服务器的非常棒的库。本文将它用来作为基本程序。点击这里(超链接)获取更多信息。

    安装OCR引擎

    现在,我们需要用pytesseract来创建一个类来读取图片。在flask_server目录下创建一个新的文件ocr.py,写入如下代码:

    5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

    非常好!

    主方法process_image()的功能是锐化图像文本。

    现在,这个模块已经可以用了。

    可选项:为你的OCR引擎创建一个CLI工具

    做了这么多繁琐配置工作,让我们来创建一个CLI工具来调节一下心情吧。在flask_server目录下创建一个新的文件cli.py,写入如下代码:

    5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

    非常简单。之后我们就能看到从我们的OCR引擎中输出到标准输出STDOUT上的文本了。执行python flask_server/cli.py来试一下吧。

    回到服务器

    既然我们已经安装好了OCR引擎,接下来该准备输出了。讲下面的代码加入到

    app.py文件:

    5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

    确保引入的下列包是最新的:

    5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

    最后,添加一行API版本号:

    _VERSION = 1 # API version
    

    从代码中可以看到,我们以PIL中Image文件对象的方式把JSON的响应传入引擎的process_image()方法中。并且,就目前而言,它只支持.jpg图片。

    注意:如果PIL包没有安装的话,可以用Pillow包来代替。PIL有一些问题还没有解决,Python社区对它的看法也不统一,详细情况可以自行Google。

    测试

    运行你的程序:

    5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

    然后,在另外一个终端运行:

    $ curl -X POST http://localhost:5000/v1/ocr -d '{"image_url": "some_url"}' -H "Content-Type: application/json"
    

    例子

    5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

    前端

    现在后端OCR引擎的API已经准备好了,我们可以增加一个基本的前端来使用这些API,并将结果通过AJAX和jQuery添加到DOM中。这部分内容本文就不讲了,详见这里(超链接)。

    5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

    用下面的样本来测试一下:

    5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

    总结

    希望大家喜欢照片教程。

    相关文章

      网友评论

        本文标题:5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

        本文链接:https://www.haomeiwen.com/subject/rnwbxqtx.html