机器学习中的基本问题——log损失与交叉熵的等价性
https://blog.csdn.net/google19890102/article/details/79496256
写的还挺好的,推导的也挺好的
值得一提的是 lr中logloss没有哪个函数的转换
后面实际中 比如在gbdt中,其实是将值通过sigmod函数进行了一次转换,所以才这样,这里面写的很清楚,还是很有意思的
机器学习中的基本问题——log损失与交叉熵的等价性
https://blog.csdn.net/google19890102/article/details/79496256
写的还挺好的,推导的也挺好的
值得一提的是 lr中logloss没有哪个函数的转换
后面实际中 比如在gbdt中,其实是将值通过sigmod函数进行了一次转换,所以才这样,这里面写的很清楚,还是很有意思的
本文标题:交叉熵和logloss等价的推导
本文链接:https://www.haomeiwen.com/subject/qtznlqtx.html
网友评论