做文字OCR首先需要做的是生成字符图片用于训练。没有训练集,一切机器学习都免谈了。因此,我们要做的第一件事情就是人工生成可用的数据集。
先引入我们需要的头文件:
from PIL import Image, ImageDraw, ImageFont
from io import StringIO
import random
import os
制作数据集,首先要做的是把字符变成图片。在网上找了很多资料,都是用Pygame生成字符图片,再用PIL来读入,进行对应的操作。因为Pygame不能直接转PIL,所以要存入磁盘,再用PIL读出。为了提高速率,直接在内存中进行操作,网上的资料都是把Pygame生成的图片读入StringIO里面,再读出。但是网上相关的博客,似乎都是复制了某个人的博客,而那份博客是用Python2写的。当我把其改成Python3的时候,StringIO的地方总是报错,让我很心烦。
后来我发现,PIL可以直接生成字符图片,并且博客上面所说的问题并没有出现,于是就可以毅然地抛弃Pygame了。
代码很简单:
# Create Image with text
def addText(text, font):
# 生成纯白的50*50的图片
im = Image.new("RGB", (50, 50), (255, 255, 255))
dr = ImageDraw.Draw(im)
area = (random.randint(10, 15), 10)
# 将字体画入图片
dr.text(area, text, font=font, fill="#000000")
return im
这里的area是字体的左上角的坐标。因为我们生成的字体后面需要进行一点的扭曲。因此在这里设置随机数就可以进行相应的平移操作。
这里需要传入font参数。font是这样生成的:
font = ImageFont.truetype(os.path.join("ttf", font_path), random.randint(18, 20))
os.path.join("ttf", font_path)
表示./ttf/font_path
。其中ttf
是我存字符文件的文件夹。因为最后要随机字符,因此字符的路径font_path
是在字符文件中随机抽取。后面是字体的大小。在这里使用随机数就可以直接实现字体的缩放了。
接下来对生成的图片进行处理。处理有旋转和扭曲。
需要注意的是,PIL的旋转默认黑色为底色,因此直接旋转的结果,就是四个角留下了黑色。而且PIL并没有提供对应的功能可以选择底色。因为我们想不留下黑色的四角,就只能在旋转之后把图片的边裁剪掉了。这就是为什么之前生成50*50的图片了,这样我们裁剪之后,就变成了30 * 30。
def imageProcess(image):
# 图像旋转
image = image.rotate(random.randint(-5, 5))
# 图像扭曲
params = [1 - float(random.randint(1, 2)) / 100,
0,
0,
0,
1 - float(random.randint(1, 10)) / 100,
float(random.randint(1, 2)) / 500,
0.001,
float(random.randint(1, 2)) / 500]
image = image.transform((50, 50), Image.PERSPECTIVE, params)
# 裁剪
image = image.crop([10, 10, 40, 40])
# 转灰度图
image = image.convert('L')
return image
图像扭曲里面的params
的参数,我到现在都没有找到文档把它弄清楚。但是按这样扭曲,出来的效果特别好。所以就不在意这些细节了。
如果我们需要把图片变成其他尺寸,可以使用PIL中的resize,例如在我需要100*100。我就可以:
image = image.resize((100, 100), Image.ANTIALIAS)
后面的参数默认是NEAREST。但是有NEAREST、BILINEAR、BICUBIC、ANTIALIAS。表示图片缩放的四种算法。ANTIALIAS效果是比较好的。
最后,我们对图片进行二值化。这一步是我额外加的一步。因为在我使用真实数据检验我的机器学习的模型的时候,我会对真实数据进行二值化。那么我在训练数据上面二值化,则它会更接近真实数据。
由于图片比较简单,直接二值化,阈值设置为200效果就很好了。
def binarizing(image, threshold=200):
pixdata = image.load()
w, h = image.size
for y in range(h):
for x in range(w):
if pixdata[x, y] < threshold:
pixdata[x, y] = 0
else:
pixdata[x, y] = 255
return image
一开始,我以为机器学习的速度的瓶颈在IO操作,因为我做了一件事。就是把2500个汉字,先把30 * 30的图片,一共2500张,组合成50 * 50的图片,再保存。这样读入2500个汉字只需要一次IO操作了。代码如下:
def saveImage(images, font_path):
width = 30 * 40
height = 30 * 50
merge_image = Image.new('L', (width, height), 0xffffff)
xPos, yPos = 0, 0
for image in images:
merge_image.paste(image, (xPos, yPos))
xPos = xPos + 30
if (xPos == width):
xPos = 0
yPos = yPos + 30
imageName = font_path + '.png'
merge_image.save(os.path.join('words', imageName))
也就是先生成一张纯白的图片,再一张张paste上去。但是后来发现,其实更大的瓶颈在于把这么大的图片分割。因为图片的操作,肯定会比直接IO慢嘛。所以我就放弃了这种方法。
但是生成的图片乍一看还是很好看的。
生成的结果参考资料:
Python 3 生成手写体数字数据集
网友评论