很多机器学习和深度学习很多是多分类问题,例如mnist手写数字识别0~9,mnist fasion要是识别10种衣物类物品,cifar10/100要识别10或者100项物体。深度神经网络作为多分类模型,最后一层输出层要与分类个数相同,用交叉熵作为损失函数。
神经网络
定义神经网络最后一层,输出10个神经元。
y = slim.fully_connected(net, 10, activation_fn=None,
scope='full5', reuse=False)
经过softmax编码,计算loss。
y_softmax = tf.nn.softmax(y)
loss = tf.reduce_mean(-d*tf.log(y_softmax))
d
在图中定义了一个Tensor,直接读取数据集中的标签是整数储存的,通过one_hot编码后,才能用数组的方式计算损失函数。
label = tf.placeholder(dtype=tf.int32,[batch_size])
d = tf.one_hot(label,label_num)
...
sess.run(train_step,feed_dict={label:train_y})#一次迭代过程
测试代码
import tensorflow as tf
import numpy as np
np_labels = np.random.randint(0,5,32)
# set_labels = set(np_labels)
# print(set_labels)
# label_one_keras = tf.keras.utils.to_categorical(np_labels,num_classes=5)
print("label_one_keras:\n",label_one_keras)
labels = tf.placeholder(tf.int32,[32])
label_one = tf.one_hot(labels,depth=5)
sess = tf.Session()
print(sess.run(label_one,feed_dict={labels:np_labels}))
注,keras包中的to_categorical是numpy处理函数,不添加Tensor。
网友评论