准备好开始吧!
首先,需要安装一些依赖项。这个过程也是非常有趣的。
本文已经在Ubuntu 14.04测试,但是12.x和13.x版本应该也可以。如果你用的是OSX系统,可以用VirtualBox,Docker(注意检查有没有包含Dockerfile和install guide),或者是DigitalOcean(推荐使用)来创建相应的环境。
下载依赖项
我们需要Tesseract及其所有依赖项,包括Leptonica及其他相关的包。
注意:可以用_run.sh这个shell脚本来快速安装Leptonica和Tesseract的依赖包。如果这么做的话,可以直接跳到搭建Web服务器(跳转链接)部分。但是为了学习,如果你以前没有亲手构建过库文件的话,还是建议尝试一下。
进群:548377875 即可获取数十套PDF以及大量的学习资料!
构建Leptonica和Tesseract
再说一遍,如果你用_run.sh脚本已经安装过,就可以直接跳到搭建Web服务器(跳转链接)部分。
Leptonica
现在,开始安装Leptonica。
如果这是你第一次用tar的话,按照如下步骤操作:
1. 用wget下载Leptonica的二进制文件
2. 解压
3. 用cd进入解压后的文件夹
4. 运行autobuild和configure脚本安装
5. 执行make命令build
6. Build后安装
7. 执行ldconfig创建相关的链接
OK,Leptonica创建好了,接下来就是Tesseract了。
Tesseract
现在下载并安装Tesseract吧。
此处构建了一个Leptonica的映像,这部分的详细信息参考Leptonica的解释。
环境变量
我们需要设置一个环境变量来访问Tesseract数据:
$ export TESSDATA_PREFIX=/usr/local/share/
Tesseract包
最后安装一下Tesseract相关的语言包:
OK,Tesseract也安装好了,可以CLI来测试一下。更多的信息可以参考docs(超链接)。但是,我们还需要一个Python环境。所以,接下来安装一个能够接受以下两种请求的Flask服务器:
1. 接受图像URL
2. 能够对图像进行字符识别
搭建Web服务器
最有趣的事情来了!首先,我们需要构建一种通过Python和Tesseract交互的方式。我们可以使用popen,但是那不是python的风格。所以,我们可以使用一个非常小但是功能非常强大的Python包将Tesseract封装起来——pytesseract(超链接)。
想要快点的话,就运行_app.sh脚本,否则,点击这里(超链接)获取代码/结构的模板,然后运行一下命令:
注意:Flask模板(有Real Python(超链接)维护)是一个获取简单的具有Python风格的服务器的非常棒的库。本文将它用来作为基本程序。点击这里(超链接)获取更多信息。
安装OCR引擎
现在,我们需要用pytesseract来创建一个类来读取图片。在flask_server目录下创建一个新的文件ocr.py,写入如下代码:
非常好!
主方法process_image()的功能是锐化图像文本。
现在,这个模块已经可以用了。
可选项:为你的OCR引擎创建一个CLI工具
做了这么多繁琐配置工作,让我们来创建一个CLI工具来调节一下心情吧。在flask_server目录下创建一个新的文件cli.py,写入如下代码:
非常简单。之后我们就能看到从我们的OCR引擎中输出到标准输出STDOUT上的文本了。执行python flask_server/cli.py来试一下吧。
回到服务器
既然我们已经安装好了OCR引擎,接下来该准备输出了。讲下面的代码加入到
确保引入的下列包是最新的:
import os
import logging
from logging import Formatter, FileHandler
from flask import Flask, request, jsonify
from ocr import process_image
最后,添加一行API版本号:
_VERSION = 1 # API version
从代码中可以看到,我们以PIL中Image文件对象的方式把JSON的响应传入引擎的process_image()方法中。并且,就目前而言,它只支持.jpg图片。
注意:如果PIL包没有安装的话,可以用Pillow包来代替。PIL有一些问题还没有解决,Python社区对它的看法也不统一,详细情况可以自行Google。
测试
前端
现在后端OCR引擎的API已经准备好了,我们可以增加一个基本的前端来使用这些API,并将结果通过AJAX和jQuery添加到DOM中。这部分内容本文就不讲了,详见这里(超链接)。
网友评论