深度学习笔记

深度学习笔记

视频教程

损失函数

损失函数用于计算真实值和预测值之间的数值距离。在不同情况下,使用对应的损失函数会有更好的效果。

交叉熵损失函数用于分类场景,即对结果为独热码(one-hot)的时候比较好用。在回归场景下常使用这些损失函数:

详见

常见回归和分类损失函数比较

对应pytorch中函数:

pytorch 损失函数(平方损失、二分类损失、交叉熵损失等)

下采样

机器学习--下采样(under-sampling)

对于分类不均衡的数据集的处理。不均衡的分类数据可能造成对小分类的忽视,因为过于小的分类可能会被当做噪声。

解决数据分布不均衡的下采样的目的就从多数集中选出一部分数据与少数集重新组合成一个新的数据集。