这个最常见于GradientDescentOptimizer优化中。
原因是loss过大,导致训练困难。
![](https://img.haomeiwen.com/i14627277/095157ce23665fd0.png)
如图,这里batch_size是1000,reduce_sum则是reduce_mean的1000倍。
导致nan
这个最常见于GradientDescentOptimizer优化中。
原因是loss过大,导致训练困难。
如图,这里batch_size是1000,reduce_sum则是reduce_mean的1000倍。
导致nan
本文标题:tensorflow 训练 loss为nan
本文链接:https://www.haomeiwen.com/subject/jjtiuhtx.html
网友评论