softmax_cross_entropy_with_logits:
首先看输入logits,它的shape是[batch_size, num_classes] ,一般来讲,就是神经网络最后一层的输入z
另外一个输入是labels,它的shape也“应该是“”[batch_size, num_classes],就是我们神经网络期望的输出。
sparse_softmax_cross_entropy_with_logits
放宽了限制,labels参数只要是[batch_size]就可以,这样的话就是shape=(batch_size,)是[1,batch_size]的一维数组就行了,函数内部会转换以及one_hot来实现softmax_cross_entropy_with_logits计算
网友评论