监督学习是一种机器学习,其中算法在标记的示例上进行训练,并且能够对看不见的示例进行预测。监督学习的目标是学习将输入数据映射到输出标签的函数。
在监督学习中,算法提供了一个训练数据集,该数据集由输入示例及其相应的正确输出标签组成。算法使用此数据集来学习可以预测新示例的输出标签的函数。该算法的性能在单独的测试数据集上进行评估,该数据集用于验证学习函数的准确性。
1.线性回归
用于预测连续值,它假设特征和目标之间的关系是线性的。线性回归的目标是找到最佳拟合线,使预测值和真实值之间的误差平方和最小。它还可用于多项式回归,涉及将多项式曲线拟合到数据。
2.逻辑回归
该算法用于二进制分类(预测值为0或1)。它是一种回归算法,因为它预测连续值,但它用于分类,因为使用逻辑函数将预测值转换为概率。之所以称为“逻辑”回归,是因为它使用逻辑函数(也称为sigmoid函数)来预测样本属于某个类别的概率。
它的目标是使用优化算法(例如梯度下降)学习一组权重,这些权重可用于预测样本属于特定类别的概率。通过对预测概率进行阈值化来进行预测。
3.支持向量机(SVM)
支持向量机算法是一种线性分类器,试图在高维空间中找到最大程度分离两个类的超平面,用于分类和回归。
SVM通过学习一组定义超平面的权重来工作。选择超平面,使其最大程度地分离类,并与每个类的最近示例具有最大距离(称为边距)。一旦找到超平面,SVM就可以用于对新示例进行分类,方法是将它们投影到特征空间并根据它们落在超平面的哪一侧来预测类别。核函数可以是线性的,也可以是非线性的,它将数据转换到更高维的空间中,允许支持向量机在转换后的空间中找到线性边界。
SVM对于数据是高维且线性不可分的任务特别有用,因为它们可以通过将输入数据映射到高维空间(它可能是线性可分的)来学习非线性决策边界,然后学习该空间中的决策边界(也称为内核技巧)。
4.决策树
决策树算法是一种非线性分类器,它根据用于分类和回归的树结构进行预测。它的工作原理是根据特征值递归地将输入空间划分为多个区域。
决策树的工作原理是根据特征值递归地将输入空间划分为多个区域。在树中的每一步,算法都会根据基尼指数或信息增益等分割标准选择最能分割数据的特征。该过程一直持续到达到停止标准为止,例如树的最大深度或叶节点中示例的最小数量。
为了对新示例进行预测,该算法根据特征值跟踪树的分支,直到到达叶节点。然后根据叶节点中示例的多数类(对于分类任务)或叶节点中示例的平均值或中值(对于回归任务)进行预测。
决策树是一种简单且可解释的模型,并且易于实施。它们的训练和预测速度也很快,并且可以处理各种数据类型。然而,决策树可能容易过度拟合,尤其是当允许树长得非常深时。
5.K最近邻(KNN)
K最近邻算法是一种非参数方法,它根据给定测试示例的K最近示例的多数类进行预测,用于分类和回归。
KNN的工作原理是存储所有的训练样例,然后根据特征空间中最接近测试样例的K个样例进行预测。K的值是从业者选择的超参数。对于分类,基于K个最近示例的多数类进行预测。对于回归,根据K个最近示例的目标变量的平均值或中值进行预测。
KNN的计算量可能很大,因为该算法需要计算测试示例与所有训练示例之间的距离。它也可能对K和距离度量的选择敏感。它还用作与更高级算法进行比较的基线模型。
6.朴素贝叶斯
朴素贝叶斯算法是一种概率分类器,在给定某些特征存在的情况下,根据某些事件发生的概率进行预测。朴素贝叶斯做出“朴素”假设,即在给定类别标签的情况下,数据中的所有特征都相互独立。这个假设通常是不现实的,但尽管有这个假设,该算法在实践中仍然运行良好。
朴素贝叶斯算法有多种变体。高斯朴素贝叶斯用于连续特征,并假设特征服从正态分布。多项式朴素贝叶斯用于计数数据,并假设特征服从多项式分布。伯努利朴素贝叶斯用于二元特征,并假设特征服从伯努利分布。朴素贝叶斯是一种简单高效的算法,易于实现,训练和预测速度快。
7.神经网络
神经网络是一种受大脑结构和功能启发的机器学习算法。它们由分层连接在一起的人工神经元组成,称为节点或单元。神经网络可以学习执行范围广泛的任务,包括分类、回归和生成序列。它们特别适合需要学习输入数据和输出之间复杂关系的任务。
有许多不同类型的神经网络,包括前馈神经网络、卷积神经网络和递归神经网络。前馈神经网络是最基本的神经网络类型,由一个输入层、一个或多个隐藏层和一个输出层组成。卷积神经网络用于图像分类和对象检测等任务,它们旨在处理具有网格状结构的数据,例如图像。循环神经网络用于语言翻译和语音识别等任务,它们旨在处理顺序数据,例如时间序列或自然语言。
神经网络使用优化算法(例如随机梯度下降)进行训练,以最小化衡量预测输出与真实输出之间差异的损失函数。在训练期间调整节点之间连接的权重以最小化损失。
8.随机森林
随机森林算法是一种集成方法,将多个决策树的预测结合起来进行最终预测。通过在训练数据的不同子集上训练许多决策树,然后对各个树的预测进行平均来创建随机森林。这个过程称为自举,因为树是在数据的自举样本上训练的。bootstrapping过程将随机性引入到树训练过程中,这有助于减少过度拟合。
随机森林广泛用于分类、回归和特征选择等任务。它们以处理具有许多特征的大型数据集的能力以及在广泛任务中的良好表现而闻名。它们还可以抵抗过度拟合,这使它们成为许多机器学习应用程序的不错选择。
9.Boosting算法
Boosting是一种机器学习技术,涉及训练一系列弱模型并将它们的预测结合起来做出最终预测。在boosting中,弱模型被依次训练,每个模型都被训练来纠正前一个模型的错误。最终预测是通过使用加权多数票组合各个弱模型的预测来做出的。各个模型的权重通常是根据模型的准确性来选择的。Boosting通常用于分类和回归等任务。它以在广泛的任务上实现高精度的能力以及处理具有许多特征的大型数据集的能力而闻名。