学习机器学习的朋友,很多人应该已经跟着google的帮助手册进行了ml模型的搭建和训练,keras提供的高级API都是高度封装化的,初学者使用时,只是简单的调用几个函数,就可以完成模型训练了。我在学习过程中,就感觉到总是隔层纱的感觉,我认为初学时没有必要一定要用多么复杂庞大的数据集,所以这里采用自己创建的极简数据集,进行模型的搭建,不断调试和进行各种测试,这种收获感比直接调用现成数据集更强烈,可以作为初学者进步的一级阶梯。模型中会有很多不完善的地方,这里只是重在体验。
本文中将搭建两个keras模型,分别实现两个机器学习的经典功能:回归和分类。
首先使用简单神经网络拟合一次函数y=2x+6
import tensorflow as tf
import numpy as np
# 原始数据
train_data = np.array([[0,6],[1,8],[2,10],[3,12]])
test_data = np.array([[10,26],[15,36]])
# 训练集
x_train = train_data[:,0]
y_train = train_data[:,1]
# 测试集
x_test = test_data[:,0]
y_test = test_data[:,1]
# 模型创建
# 由于拟合线性函数,不涉及非线性,这里激活函数选择linear
model = tf.keras.models.Sequential([
tf.keras.layers.Dense(1,activation='linear',input_dim=1),
tf.keras.layers.Dense(5,activation='linear'),
tf.keras.layers.Dense(1,activation='linear')
])
# 模型编译
model.compile(optimizer='sgd',loss='mean_squared_error',metrics=['accuracy'])
# 模型训练
model.fit(x_train,y_train,epochs=10)
# 这里进行100轮训练,给出最后3轮的结果
Epoch 98/100
4/4 [==============================] - 0s 2ms/sample - loss: 4.1438e-08 - accuracy: 0.0000e+00
Epoch 99/100
4/4 [==============================] - 0s 500us/sample - loss: 3.5921e-08 - accuracy: 0.0000e+00
Epoch 100/100
4/4 [==============================] - 0s 750us/sample - loss: 3.0997e-08 - accuracy: 0.0000e+00
# 预测
model.predict([3.5])
array([[13.000215]], dtype=float32)
# 3.5*2+6=13
model.predict([1])
array([[7.999872]], dtype=float32)
# 1*2+6=8
可以看到,训练结果是非常准确的,当然,数据集也是没有误差的,哈哈。这也正印证了那句名言:数据的高度决定模型的高度。
下面进行二分类模型的搭建
这里输入的数据为(x,y)数据对,预测y大于还是小于x,即y点在y=x直线的上方或者下方。
下面是代码部分:
import tensorflow as tf
import numpy as np
# 数据格式为[x,y,label],y>x时label=1,y<x时,label=0
train_data = np.array([[1,2,1],[2,3,1],[3,5,1],[4,8,1],[5,6,1],
[1,0.5,0],[2,1,0],[3,2,0],[4,3,0],[5,4,0]])
test_data = np.array([[1.5,2,1],[2.5,4,1],
[3.5,3,0],[4.5,6,0]])
# 获取训练集和测试集数据
x_train = train_data[:,0:2]
y_train = train_data[:,2:]
x_test = test_data[:,0:2]
y_test = test_data[:,2:]
# 模型创建
# 这里直接参考网络上的二分类模型,原理以后再深入研究
model = tf.keras.models.Sequential([
tf.keras.layers.Dense(10,activation='relu',input_shape=(2,)),
tf.keras.layers.Dense(10,activation='relu'),
tf.keras.layers.Dense(1,activation='sigmoid')
])
# 模型编译
model.compile(optimizer=tf.keras.optimizers.RMSprop(lr=0.001), loss=tf.keras.losses.binary_crossentropy, metrics=[tf.keras.metrics.binary_accuracy])
# 模型训练
model.fit(x_train,y_train,epochs=100)
# 这里进行100轮训练,给出最后3轮的结果
Epoch 98/100
10/10 [==============================] - 0s 601us/sample - loss: 0.4678 - binary_accuracy: 1.0000
Epoch 99/100
10/10 [==============================] - 0s 300us/sample - loss: 0.4652 - binary_accuracy: 1.0000
Epoch 100/100
10/10 [==============================] - 0s 500us/sample - loss: 0.4626 - binary_accuracy: 1.0000
# 预测
model.predict([[1.1,3]])
array([[0.62891626]], dtype=float32)
model.predict([[11,31]])
array([[1.]], dtype=float32)
模型可以正确地对数据进行分类。
注意predict中数据需要两个[]括号,因为input_shape=(2,*)。
完成了上面两个模型的自主搭建,对建模过程有了更深入的了解,下一步就可以拿各种公开数据集进行更深入的学习了。
网友评论