尽管微调很受欢迎,但它是一种常见的迁移学习方法,经常会遇到诸如过度拟合或预训练模型域与目标数据之间不一致等障碍,这种现象称为域转移。面对复杂的任务或有限的数据时,基本的迁移学习可能会遇到困难,导致适应不足。
为了克服这些挑战,出现了新一波先进的迁移学习技术,解决了领域差异、数据稀缺以及高效模型适应的需求。在本文中,我将探讨其中一些先进的迁移学习策略。
成为一名机器学习科学家
提升 Python 技能,成为一名机器学习科学家。
高级迁移学习技术的类型
传统方法(例如在大型数据集上进行预训练,然后在特定任务数据集上进行微调)是基础方法,但有时效果不佳。出现了更先进的方法来解决领域转换、数据稀缺和多任务学习的细微差别。
高级方法引入了额外的复杂性和灵活性。这些技术旨在在传统方法可能不够用的场景中提高模型性能。
领域适应
领域自适应技术旨在处理源(预训练)和目标(微调)域之间的差异。当预训练模型遇到与其训练数据存在很大差异的数据时,传统的微调通常会产生次优结果。领域自适应技术通过对齐数据分布来减少这种不匹配,确保模型可以在新环境中更好地泛化。
多任务学习(MTL)
MTL 允许模型同时在多个相关任务中学习。通过在任务之间共享知识,模型可以利用共性并提高所有任务的性能。当任务互补时,这种策略尤其有效,例如自然语言处理中的文本分类和情感分析的联合学习。MTL 通过引导模型关注共享模式来增强泛化并降低过度拟合的风险。
小样本学习
另一项关键技术是少样本学习,旨在用最少的标记数据训练模型。虽然传统方法需要大量标记数据,但少样本技术允许模型仅使用少量示例来传输知识。元学习和原型网络等方法可以快速适应新任务,这使得它们在个性化推荐或小众图像分类等领域具有无价的价值。
自监督学习(SSL)
SSL 使用未标记的数据来训练模型,在标记数据稀缺或不可用时,SSL 成为一种强大的工具。该技术从数据本身构建监督信号,解决诸如预测图像缺失部分或重建乱码文本等前置任务。使用 SSL 预训练的模型已在一系列应用中表现出很高的可迁移性。
零样本学习
零样本学习更进一步,它允许模型在没有任何标记数据的情况下处理全新的任务。这是通过语义关系或任务描述等辅助信息实现的,即使面对新类别,模型也能够进行泛化。这种能力在经常出现新类别的动态领域中非常重要,例如在处理新造术语或俚语的 NLP 应用程序中。
先进的迁移学习技术
使用 napkin.ai 生成的图表
领域适配技术
如前所述,领域适应是迁移学习的一个子领域,专注于处理用于训练模型的数据与部署模型的数据之间存在显著差异或“领域转移”的情况。
在典型的迁移学习中,人们假设源域和目标域具有相似的特征,但在许多现实场景中,这些域存在很大差异。最终,这可能会降低性能,因为在一组数据上训练的模型很难推广到新的条件。
领域自适应技术旨在弥补这一差距,通过最小化源数据和目标数据分布之间的差异,使在一个领域训练的模型能够在另一个领域有效执行。因此,当一个领域的标记数据丰富,而另一个领域的标记数据稀缺或不可用时,领域自适应更有价值。
已经开发了多种技术来应对领域自适应的挑战 truemoney 数据库 其中最常见的两种方法是对抗方法和领域不变特征学习。
对抗域适应
一种广泛使用的领域适应技术涉及对抗性学习。在这种情况下,训练模型来学习对目标任务有用的特征,同时确保这些特征在源域和目标域之间无法区分。
我们可以使用鉴别器(即负责区分源域数据和目标域数据的神经网络)来实现这一点。该模型以对抗方式进行训练,以便它学会“欺骗”鉴别器,使特征表示具有域不变性。如果这听起来很熟悉,那是因为这种技术受到了生成对抗网络 (GAN)的启发,后者使用类似的设置来生成逼真的合成数据。
领域不变特征学习
另一种方法侧重于学习不受特定领域变化影响的表示。这会将来自两个领域的输入数据转换为共享特征空间,其中源域和目标域更加紧密地对齐。最大均值差异 (MMD) 和 CORAL(相关性对齐)等技术有助于最大限度地减少该空间中的统计差异,确保模型在应用于目标域时能够更有效地泛化。
使用案例
领域自适应已被证明在各种不可避免的领域转移的实际应用中非常有用:
在 NLP 中,当将用一种语言或方言训练的模型转移到另一种语言或方言时,经常应用领域自适应。
例如,用英语训练的情感分析模型可能需要适应同一语言的地区方言,或者用正式文本训练的模型可能需要适应非正式的、口语化的语言,例如社交媒体数据。
在计算机视觉中,当训练数据和目标数据之间的图像特征存在差异时,通常使用领域自适应。
例如,在自然光照条件下对物体图像进行训练的模型可能需要适应在昏暗或人工照明下工作。
无论遇到哪个地理区域,自动驾驶系统都需要强大的性能,而这正是领域自适应再次证明其有用的地方。
在一个国家训练识别道路标志、行人或车辆的模型可能需要适应另一个地区略有不同的道路状况、天气模式甚至交通规则。
领域自适应技术的应用

多任务学习与迁移学习协同作用
随着机器学习任务变得越来越复杂,同时解决多个相关问题的能力可以显著提高模型的性能和效率。MTL 通过训练模型同时执行多个任务而不是孤立地专注于单个任务来解决这个问题。
什么是多任务学习?
MTL 的优势在于它能够利用任务之间的关系和共享结构,使模型能够学习更丰富的特征表示。从一项任务中获得的见解可以提高模型在另一项任务上的表现,从而提高整体学习效率。
在 MTL 中,主要使用两种策略:
硬参数共享:通过这种方法,模型可以在各个任务之间共享大部分参数,只有特定于任务的层是独立的。通过驱动模型学习能够很好地跨任务推广的表示,可以减少过度拟合。
软参数共享:在这里,每个任务都有自己的一组参数,但某种形式的正则化确保这些参数相似,鼓励共享学习而无需完全参数重叠。