两种交叉熵损失函数对比 2019-01-08 两种交叉熵损失函数对比 第一种该形式交叉熵损失函数对应神经网络的输出为$softmax$,即这N个$p(x)$加和为1. 第二种该形式交叉熵损失函数对应神经网络的输出为$sigmod$,即这N个$p(x)$加和不是1. 最后更新时间:2021-09-20 02:01:25 转载请标注:https://lingyixia.github.io/2019/01/08/TwoCrossEntropy/ 赏 Prev 不同特征值的特征向量线性无关 Next VimLearn