机器学习中的多任务学习优化和用例

发布:2022-12-02 14:56:28
阅读:2102
作者:网络整理
分享:复制链接

多任务学习,是指为多个任务联合优化的模型,相关任务之间共享表示,模型将在原始任务上学习更好的决策边界。在多任务学习中,通常使用单个神经网络,同时解决多个任务。除了减少推理时间之外,联合而不是独立地解决一组任务在理论上还有其他好处,例如提高预测准确性、提高数据效率和减少训练时间。

什么是多任务学习模型?

顾名思义,多任务学习是指可以执行多个不同任务的单一共享机器学习模型。多任务学习具有提高数据效率、加快模型收敛以及由于共享表示而减少模型过度拟合等优势。

多任务学习比单任务学习更类似于人类学习的机制,因为人类经常学习可转移的技能。举个简单的例子,学习骑自行车以后会更容易学习骑摩托车。这一现象也被称为知识的归纳转移。

这种知识转移机制允许人类仅通过少量示例或没有示例来学习新概念,在机器学习中这又被分别称为“小样本学习”和“零样本学习”。

多任务学习的优化方法

并非所有任务都是相关的,数据集的不平衡、任务之间的差异、知识的负迁移,都对多任务学习提出了挑战。因此,任务的优化与选择合适的架构一样重要。接下来我们讨论多任务学习的优化策略。

1.损失建设

这是执行多任务优化的最直观方法之一,通过使用不同的加权方案平衡为单独任务定义的单个损失函数。该模型然后优化聚合损失函数,作为一次学习多个任务的一种方式。

比如使用不同的损失加权机制来帮助解决多任务问题。具体为各个损失函数分配的权重与各个任务的训练集大小成反比,以免让具有更多数据的任务主导优化。

2.硬参数共享

在硬参数共享中,神经网络的隐藏层被共享,同时保留一些特定于任务的输出层。为相关任务共享大部分层可以减少过度拟合的可能性。

共享模型同时学习的任务越多,就越需要找到一个能够捕获所有任务的表示,并且原始任务过度拟合的可能性就越小。

3.软参数共享

仅当任务密切相关时,硬参数共享才会表现良好。因此,软参数共享的重点是学习需要在任务之间共享的特征。软参数共享是指将各个模型的参数与整体训练目标之间的距离进行正则化,以鼓励不同任务之间使用相似的模型参数。它常用于多任务学习,因为这种正则化技术易于实现。

4.数据采样

机器学习数据集经常受到数据分布不平衡的影响,多任务学习使这个问题进一步复杂化。因为涉及具有不同大小和数据分布的多任务训练数据集。多任务模型更有可能从具有更大可用训练数据集的任务中采样数据点,从而导致潜在的过拟合。

为了处理这种数据不平衡,已经提出了各种数据采样技术来为多任务优化问题正确构建训练数据集。

5.智能任务调度

大多数多任务学习模型以非常简单的方式决定在一个时期内训练哪些任务,要么在每一步训练所有任务,要么随机抽取一部分任务进行训练。然而,智能优化的任务调度可以显着提高所有任务的整体模型性能。

6.梯度调制

大多数多任务学习方法都假设联合优化的各个任务密切相关。但是,每个任务并不一定会与所有可用任务密切相关。在这种情况下,与不相关的任务共享信息甚至可能会损害性能,这种现象称为“负迁移”。

从优化的角度来看,负迁移表现为存在冲突的任务梯度。当两个任务的梯度向量指向相反的方向时,当前任务的梯度会降低另一个任务的性能。遵循两个梯度的平均值意味着这两个任务都没有看到与单任务训练设置相同的改进。因此,任务梯度的调制是解决这个问题的潜在方法。

如果一个多任务模型在一组相关任务上进行训练,那么理想情况下,这些任务的梯度应该指向相似的方向。一种常见的梯度调制方式是通过对抗训练完成的。例如,梯度对抗训练(GREAT)方法通过在多任务模型训练中包含一个对抗性损失项来明确强制执行此条件,该训练鼓励来自不同来源的梯度具有统计上无法区分的分布。

7.知识蒸馏

知识蒸馏是一种机器学习范例,其中知识从计算量大的模型(“教师”模型)转移到较小的模型(“学生”模型),同时保持性能。

在多任务学习中,知识蒸馏最常见的用途是将知识从几个单独的单任务“教师”网络中提取到一个多任务“学生”网络中。有趣的是,学生网络的性能已被证明在某些领域超过了教师网络,这使得知识蒸馏成为一种理想的方法,不仅可以节省内存,还可以提高性能。

多任务学习的实际应用

人工智能所有领域的研究人员都使用多任务学习框架来开发资源优化模型,可靠的多任务模型可用于具有存储限制的多个应用领域,下面让我们看看这些模型在人工智能不同领域的最新应用。

1.计算机视觉

计算机视觉是人工智能的一个分支,处理图像分类、对象检测、视频检索等问题。大多数单任务计算机视觉模型的计算成本都非常高,使用多任务网络处理多个任务可以节省存储空间,并使其更容易部署在更多现实世界的问题中。此外,它有助于缓解模型训练需要大量标记数据的问题。

2.自然语言处理

自然语言处理(NLP)是人工智能的一个分支,处理自然的人类语言提示文本(任何语言)、语音等。它包括句子翻译、图像或视频字幕、情绪检测等多种应用。多任务学习广泛用于NLP问题,以通过辅助任务提高主要任务的性能。

3.推荐系统

个性化推荐已经成为帮助用户处理海量在线内容的主要技术。为了提高用户体验,推荐模型必须准确预测用户对物品的个人偏好。

多任务推荐系统的例子是CAML模型,该模型通过紧密耦合推​​荐任务和解释任务来提高可解释推荐的准确性和可解释性。

4.强化学习

强化学习是深度学习的范例,介于监督学习和无监督学习之间。在这种学习方案中,算法通过反复试验做出决策来学习,正确的决策会得到奖励,错误的决策会受到惩罚。它通常用于机器人应用。

由于许多强化学习问题不一定涉及复杂的感知,例如使用文字或像素,因此许多此类问题的架构要求并不高。因此,许多用于强化学习的深度网络都是简单的全连接、卷积或循环架构。然而,在多任务情况下,可利用任务之间的信息为强化学习创建改进的架构。

如CARE模型,使用混合编码器将输入观察编码为多种表示,对应于不同的技能或对象。然后允许学习代理使用上下文来决定它对任何给定任务使用哪种表示,从而使代理可以细粒度地控制跨任务共享哪些信息,从而减轻负迁移问题。

5.多模式学习

顾名思义,多模态学习涉及在多种数据模态,如音频、图像、视频、自然文本等上训练模型,这些模态可能相关也可能不相关。多任务学习广泛用于将多模态特征隐式注入单个模型。

扫码进群
微信群
免费体验AI服务