说明
笔者个人博客网站:https://hk-shao.github.io/
最新文章和更新都会在这里
从识别数字开始
MNIST文件中包含了几万个手写数字的灰度图片,这些图片尺寸是28x28,灰度值为[0, 256)。
机器学习有两个入门的“Hello World”,除了做散点图的回归直线外,就是识别手写数字,这个过程一般涉及三个神经网络层,输入层(28x28 = 784个神经元),隐藏层(神经元个数按需决定),输出层(10个神经元,代表10个可能的数字)。
所以将模型建好后,训练模型,优化所有的神经元权重和偏移,使得残差平方的平均值loss降到最低。得到的模型后,将含有784个数值的矩阵X(也就是手写的数字图片)输入到模型中,经过一层层神经元,最后映射到一个含有10个数值的矩阵Y(也就是 Y = f(X) ),这个矩阵有10个数值,每个数值代表相应数字的概率。
我们选取概率最大的那个,这样就实现了输入一张手写数字图片,输出这张图片上所写的数字。经过百万次训练,这个准确率可以达到95%以上。
image
创造数字?
因为笔者刚刚接触机器学习,技术还很水,GAN什么的还搞不懂,于是单纯的想创造个模型,输入[0, 9]之间的数字,输出一张“手写数字图片”。如果 x, y, z 分别表示像素横坐标,像素纵坐标和数字[0, 9],通过一个复杂的函数 f , 映射到像素灰度值y [0, 256), 也就是 y = f(x, y, z)。
我把函数设计的很简单:
要问为啥这样设计,其实我也不知道(笑,随便设计一个玩一下。
源代码
将MNIST文件中所有图片和对于标签保存成csv文件
x, y, c, l分别是像素横坐标,纵坐标,灰度值,数字标签,保存成文件有655MB大小。
import numpy as np
import struct
import csv
# 训练集文件
train_images_idx3_ubyte_file = 'MNIST_data/train-images.idx3-ubyte'
# 训练集标签文件
train_labels_idx1_ubyte_file = 'MNIST_data/train-labels.idx1-ubyte'
# 测试集文件
test_images_idx3_ubyte_file = 'MNIST_data/t10k-images.idx3-ubyte'
# 测试集标签文件
test_labels_idx1_ubyte_file = 'MNIST_data/t10k-labels.idx1-ubyte'
def decode_idx3_ubyte(idx3_ubyte_file):
"""
解析idx3文件的通用函数
:param idx3_ubyte_file: idx3文件路径
:return: 数据集
"""
# 读取二进制数据
bin_data = open(idx3_ubyte_file, 'rb').read()
# 解析文件头信息,依次为魔数、图片数量、每张图片高、每张图片宽
offset = 0
fmt_header = '>iiii' #因为数据结构中前4行的数据类型都是32位整型,所以采用i格式,但我们需要读取前4行数据,所以需要4个i。我们后面会看到标签集中,只使用2个ii。
magic_number, num_images, num_rows, num_cols = struct.unpack_from(fmt_header, bin_data, offset)
print('魔数:%d, 图片数量: %d张, 图片大小: %d*%d' % (magic_number, num_images, num_rows, num_cols))
# 解析数据集
image_size = num_rows * num_cols
offset += struct.calcsize(fmt_header) #获得数据在缓存中的指针位置,从前面介绍的数据结构可以看出,读取了前4行之后,指针位置(即偏移位置offset)指向0016。
print(offset)
fmt_image = '>' + str(image_size) + 'B' #图像数据像素值的类型为unsigned char型,对应的format格式为B。这里还有加上图像大小784,是为了读取784个B格式数据,如果没有则只会读取一个值(即一副图像中的一个像素值)
print(fmt_image,offset,struct.calcsize(fmt_image))
images = np.empty((num_images, num_rows, num_cols))
for i in range(num_images):
if (i + 1) % 10000 == 0:
print('已解析 %d' % (i + 1) + '张')
print(offset)
images[i] = np.array(struct.unpack_from(fmt_image, bin_data, offset)).reshape((num_rows, num_cols))
offset += struct.calcsize(fmt_image)
return images
def decode_idx1_ubyte(idx1_ubyte_file):
"""
解析idx1文件的通用函数
:param idx1_ubyte_file: idx1文件路径
:return: 数据集
"""
# 读取二进制数据
bin_data = open(idx1_ubyte_file, 'rb').read()
# 解析文件头信息,依次为魔数和标签数
offset = 0
fmt_header = '>ii'
magic_number, num_images = struct.unpack_from(fmt_header, bin_data, offset)
print('魔数:%d, 图片数量: %d张' % (magic_number, num_images))
# 解析数据集
offset += struct.calcsize(fmt_header)
fmt_image = '>B'
labels = np.empty(num_images)
for i in range(num_images):
if (i + 1) % 10000 == 0:
print ('已解析 %d' % (i + 1) + '张')
labels[i] = struct.unpack_from(fmt_image, bin_data, offset)[0]
offset += struct.calcsize(fmt_image)
return labels
def load_train_images(idx_ubyte_file=train_images_idx3_ubyte_file):
"""
TRAINING SET IMAGE FILE (train-images-idx3-ubyte):
[offset] [type] [value] [description]
0000 32 bit integer 0x00000803(2051) magic number
0004 32 bit integer 60000 number of images
0008 32 bit integer 28 number of rows
0012 32 bit integer 28 number of columns
0016 unsigned byte ?? pixel
0017 unsigned byte ?? pixel
........
xxxx unsigned byte ?? pixel
Pixels are organized row-wise. Pixel values are 0 to 255. 0 means background (white), 255 means foreground (black).
:param idx_ubyte_file: idx文件路径
:return: n*row*col维np.array对象,n为图片数量
"""
return decode_idx3_ubyte(idx_ubyte_file)
def load_train_labels(idx_ubyte_file=train_labels_idx1_ubyte_file):
"""
TRAINING SET LABEL FILE (train-labels-idx1-ubyte):
[offset] [type] [value] [description]
0000 32 bit integer 0x00000801(2049) magic number (MSB first)
0004 32 bit integer 60000 number of items
0008 unsigned byte ?? label
0009 unsigned byte ?? label
........
xxxx unsigned byte ?? label
The labels values are 0 to 9.
:param idx_ubyte_file: idx文件路径
:return: n*1维np.array对象,n为图片数量
"""
return decode_idx1_ubyte(idx_ubyte_file)
def load_test_images(idx_ubyte_file=test_images_idx3_ubyte_file):
"""
TEST SET IMAGE FILE (t10k-images-idx3-ubyte):
[offset] [type] [value] [description]
0000 32 bit integer 0x00000803(2051) magic number
0004 32 bit integer 10000 number of images
0008 32 bit integer 28 number of rows
0012 32 bit integer 28 number of columns
0016 unsigned byte ?? pixel
0017 unsigned byte ?? pixel
........
xxxx unsigned byte ?? pixel
Pixels are organized row-wise. Pixel values are 0 to 255. 0 means background (white), 255 means foreground (black).
:param idx_ubyte_file: idx文件路径
:return: n*row*col维np.array对象,n为图片数量
"""
return decode_idx3_ubyte(idx_ubyte_file)
def load_test_labels(idx_ubyte_file=test_labels_idx1_ubyte_file):
"""
TEST SET LABEL FILE (t10k-labels-idx1-ubyte):
[offset] [type] [value] [description]
0000 32 bit integer 0x00000801(2049) magic number (MSB first)
0004 32 bit integer 10000 number of items
0008 unsigned byte ?? label
0009 unsigned byte ?? label
........
xxxx unsigned byte ?? label
The labels values are 0 to 9.
:param idx_ubyte_file: idx文件路径
:return: n*1维np.array对象,n为图片数量
"""
return decode_idx1_ubyte(idx_ubyte_file)
if __name__ == '__main__':
train_images = load_train_images()
train_labels = load_train_labels()
csv_file = open('data.csv', 'w', newline='')
csv_write = csv.writer(csv_file)
for i in range(60000):
for x in range(28):
for y in range(28):
c = train_images[i, x, y]
l = train_labels[i]
csv_write.writerow([x, y, c, l])
csv_file.close()
读取csv并且使用TensorFlow训练
具体不多说了。
import tensorflow as tf
import numpy as np
import csv
csv_file = csv.reader(open('data.csv', encoding = 'utf-8')) # 以utf-8编码打开csv文件,然后用reader读取
x_data, y_data, c_data, l_data = [], [], [], [] # 分别是横坐标[0, 27]列表,纵坐标[0, 27]列表,灰度值[0, 256)列表,数字标签[0, 9]列表
n = 3000000 # 读取的数据个数
for data in csv_file:
if float(data[3]) == 5.0: # 选择数字标签是5的列表
x_data.append(float(data[0]))
y_data.append(float(data[1]))
c_data.append(float(data[2]))
l_data.append(float(data[3]))
n = n - 1
if n < 0:
break
# 构造模型
A = tf.Variable([[0.9454796, 1.388481, -0.11770888]])
B = tf.Variable([[-0.32141185, -0.32455823, 9.266867]])
C = tf.Variable([[2.0, 2.0, 2.0]])
a = tf.Variable([-4.138437])
b = tf.Variable([0.20216514])
def gm(x, y, z):
return tf.matmul(A, [x, y, z]) + a
def fm(x, y, z):
D = tf.concat([gm(tf.square(x),y,z) , gm(x,tf.square(y),z), gm(x,y,tf.square(z))], 0)
return tf.matmul(B, D) + tf.matmul(C, [x, y, z]) + b
col = fm(x_data, y_data, l_data)
# 最小化方差
loss = tf.reduce_mean(tf.square(c_data - col))
optimizer = tf.train.GradientDescentOptimizer(0.000005)
train = optimizer.minimize(loss)
# 初始化变量
init = tf.global_variables_initializer()
# 启动图 (graph)
sess = tf.Session()
sess.run(init)
# csv_file = open('run.csv', 'w')
# csv_write = csv.writer(csv_file)
# 拟合
for step in range(1000000001):
sess.run(train)
if step % 1000 == 0:
A1 = sess.run(A)
B1 = sess.run(B)
C1 = sess.run(C)
a1 = sess.run(a)
b1 = sess.run(b)
l = sess.run(loss)
print(step, A1, B1, C1, a1, b1, l)
# csv_write.writerow([step, A1[0][0], A1[0][1], A1[0][2], B1[0][0], B1[0][1], B1[0][2], a1[0], b1[0], l])
#csv_file.close()
绘制训练结果
就是代入函数,把结果绘制成28x28的图片。
import numpy as np
import matplotlib.pyplot as plt
A = [[ 0.6251115, -0.12684382, 0.06765108]]
B = [[-0.4705843, 0.75648606, 8.974574 ]]
C = [[2.0841398, 3.436537, 2.0050166]]
a = [-4.1374564]
b = [0.20316754]
def gm(x, y, z):
return np.matmul(A, [x, y, z]) + a
def fm(x, y, z):
D = np.concatenate([gm(np.square(x),y,z) , gm(x,np.square(y),z), gm(x,y,np.square(z))], 0)
return np.matmul(B, D) + np.matmul(C, [x, y, z]) + b
img = [[0] * 28] * 28
z = 5
for x in range(28):
for y in range(28):
img[x][y] = fm(x, y, z)[0]
print(img)
plt.imshow(img, cmap='gray')
plt.show()
结果
我的电脑没装独立显卡,CPU也比较烂,再加上学习率很初始值还没优化好,所以训练了一个晚上,loss的值波动在4959左右,我认为至少也要下降到2000以下才会有个可观的效果。下图是损失函数的可视化。
image目前效果是非常失败的,如下图,第二张图是模型输出的数字5。
image
image
我估计从方法上就有很大问题,应该用卷积什么的,所以这个算是彻底失败了,暂时搞不成了。
网友评论