传统的卷积神经网络CNN,在图像分类领域的准确性已经超过了人类。但是由于CNN可以拟合各种非线性数据点,因此它们需要大量的训练数据。这会导致CNN和一般的神经网络经常在每类具有少量的训练样例上造成过拟合。而过拟合的结果就是在神经网络模型在训练样例上的表现很好,但是却不能很好的预测未出现的数据。虽然我们可以用各种正则化的技巧来控制过拟合,但是当前神经网络模型中,仍然缺乏不确定性。
这种不确定性也是在一些场景中是非常重要的。例如在一些敏感的领域:医学诊断、安防领域以及欺诈性交易等。这些领域的数据集非常不平衡:在医学领域中,癌症阳性的概率只有5%。在这些场景下进行深度学习驯良往往会出现过拟合的现象,也就是说很模型很容易将待预测的数据判断错误。可偏偏这些场景中判错数据的后果也很严重。
因此我们需要将不确定性引入深度学习的模型中,这就需要贝叶斯方法。贝叶斯方法通过其参数以概率分布的形式进一步提供不确定性估计。这样深度学习模型就会在不确定的时候说不,而不是猜一个确定的值。例如,在一个猫狗图片识别的深度学习模型中,给出一个豹子图片来判断,使用贝叶斯方法的模型更可能会判断该图片为不知道,而不是将它判断为狗或者猫。
网友评论