损失函数的核心非常简单,它是一种评估算法对数据集建模程度的方法,简单来说,损失函数就是用于量化模型的性能好坏。如果预测是错误的,损失函数将输出更高的数字,如果预侧准确,它会输出一个较低的数字。
损失函数与模型准确性有关,模型准确性是人工智能和机器学习模型的关键组成部分 。
损失函数和优化器
损失函数提供的不仅仅是模型性能的静态表示,还能反映算法对数据的拟合程度。大多数机器学习算法在优化过程中会使用某种损失函数,来寻找最佳参数。而优化器也是同理,就像针对独特问题有不同的损失函数一样。本质上,损失函数和优化器是协同工作,以尽可能最好的方式来优化算法。
目前流行的损失函数
均方误差
均方误差(MSE)是基本损失函数的主力。它易于理解和实施,并且通常运行良好。要计算均方误差,需要计算预测与基本事实之间的差异,将其平方,然后在整个数据集中取平均值。
似然损失函数
似然损失函数也比较简单,常用于分类问题。该函数采用每个输入示例的预测概率并将它们相乘。尽管输出不能完全由人来解释,但它对于比较模型很有用。
交叉熵损失函数
交叉熵损失函数又叫对数损失函数,是一种在分类问题中也经常使用的损失函数。这其实和正则似然函数的公式一模一样,只是加了对数。可以看到当实际类为1时,函数后半部分消失,当实际类为0时,前半部分下降。
其中,深度学习分类模型最流行的损失函数是二元交叉熵和稀疏分类交叉熵。
二元交叉熵
二元交叉熵对于二元和多标签分类问题很有用。例如,预测移动物体是人还是车是一个二元分类问题,因为有两种可能的结果。
稀疏分类交叉熵
稀疏分类交叉熵对于多类分类问题很有用。这通常被定义为一对一的问题,其中为每个类训练一个二元分类器。例如,通过模型预测图像中是否存在汽车、人、建筑物和公园,需要构建额外的二元分类器来检测人、建筑物和公园。