零样本和少样本学习:用例和实例局限性

    随着机器学习模型的发展,对数据高效技术的需求不断增长。传统的监督学习需要大量的标记数据,这可能是昂贵的、耗时的,而且对于利基领域来说通常是不可行的。输入零样本和少样本学习范例,使模型能够泛化到新任务或类别,而几乎没有标记示例。在本文中,我们探讨了现实世界人工智能系统中零样本和少样本学习的概念、用例、架构和关键局限性。

    一、简介

    1.1 什么是零样本学习(ZSL)?

    零样本学习是指模型在训练过程中无需任何标记示例即可识别或执行未见过的类别或领域的任务的能力。相反,它利用语义关系、嵌入或文本描述或属性等辅助信息。

    1.2 什么是少样本学习(FSL)?

    少样本学习使模型能够使用数量非常有限的标记示例(通常为 1 到 100 个)执行任务。当标记数据稀缺时(例如在医学成像或低资源语言中),FSL 特别有用。

    1.3 为什么它们很重要

    • 减少对大型标记数据集的依赖
    • 更快地适应新领域
    • 更低的注释成本和时间
    • 支持罕见或边缘情况的学习场景

    2. 核心概念与技术

    2.1 嵌入和语义空间

    在 ZSL 中,输入数据和标签都使用嵌入投影到共享语义空间中。计算未见过的数据点和标签表示(例如,词向量)之间的相似性。

    2.2 迁移学习

    FSL 通常利用大型数据集(例如 ImageNet、GPT)上的预训练模型,并使用正则化和参数高效的调整策略在小型目标数据集上对其进行微调。

    2.3 元学习(�学会学习�)

    元学习算法经过多项任务的训练,因此可以通过很少的示例快速适应新任务。流行的方法包括:

    • MAML(与模型无关的元学习)
    • 原型网络
    • 连体网络
    • 关系网络

    2.4 快速工程

    GPT-4 和 PaLM 等大型语言模型 (LLM) 通过基于提示的调节执行小样本学习,其中示例嵌入在输入文本中(上下文学习)。

    3. 支持零样本和少样本学习的架构

    3.1 大型语言模型(LLM)

    GPT-3、GPT-4、LLaMA、Claude 和 PaLM 等模型在文本生成、分类、翻译和摘要等任务中表现出了出色的零样本和少样本能力。

    3.2 CLIP(对比语言-图像预训练)

    CLIP 联合学习视觉和文本嵌入,通过将图像特征与标签文本描述进行匹配来实现零样本图像分类。

    3.3 T5和FLAN-T5

    这些文本到文本模型将每个任务都视为文本生成,并通过多任务和指令调整表现出强大的少样本和零样本性能。

    3.4 多模态变压器

    Flamingo 和 Gato 等模型将零镜头/少镜头功能扩展到多种模式,例如视觉、文本和机器人动作。

    4. 实际用例

    4.1 零样本文本分类

    手动标记新文本类别的成本很高。法学硕士可以通过调整标签名称或描述来执行零样本分类,而无需重新训练。

    4.2 稀有类别中的视觉识别

    在野生动物监测中,零样本技术可以通过利用文本物种描述和视觉嵌入来识别稀有物种。

    4.3 医学影像

    在注释数据稀缺的医学领域,少样本学习至关重要。原型网络仅使用几个例子就可以对罕见疾病进行分类。

    4.4 跨语言任务

    mT5 和 XLM-R 等多语言法学硕士可实现跨低资源语言的零样本翻译和问答。

    4.5 客户支持自动化

    聊天机器人可以通过几次提示来处理新意图,从而改善用户体验,而无需完全重新培训。

    4.6 代码生成

    少量上下文学习允许 GitHub Copilot 等工具从最少的示例或描述生成样板代码。

    5. 局限性和挑战

    5.1 训练分布之外的泛化能力较差

    当看不见的任务或类在语义上与训练分布太不相似时,零样本方法可能会失败。

    5.2 对提示设计的敏感性

    几次法学硕士的表现在很大程度上取决于提示的措辞、顺序和格式。糟糕的提示会显着降低准确性。

    5.3 缺乏可解释性

    理解模型为何在零样本设置中做出特定预测很困难,这引起了法律或医疗保健等敏感领域的担忧。

    5.4 评估难点

    测量零样本模型的性能并非易事,尤其是当标签空间或任务动态演变时。

    5.5 少样本过拟合

    在低数据情况下,对提供的少数示例的过度拟合是一个严重的问题,特别是在没有良好的正则化技术的情况下。

    5.6 幻觉与虚构

    LLM 在零样本/少样本模式下可能会生成听起来合理但实际上不正确的输出。

    6. 最佳实践和缓解策略

    6.1 及时的工程指南

    • 使用清晰、一致的指令格式
    • 在几次提示中平衡类之间的示例
    • 避免模棱两可的任务或多义标签

    6.2 使用校准技术

    温度缩放、标签平滑或使用基于置信度的阈值等方法有助于减轻零样本偏差或过度自信。

    6.3 主动学习以实现更好的少样本采样

    使用不确定性采样或聚类等主动学习策略选择少数样本,以最大限度地提高信息量。

    6.4 事后评估和重新排名

    对零样本输出应用排名模型或重新分类,以提高高风险场景中的精度。

    6.5 与知识库结合

    整合符号知识或特定领域的规则,以事实为依据增强零/少样本预测。

    7. 未来的方向

    7.1 指令调整和对齐模型

    根据不同指令(例如 FLAN、InstructGPT)进行微调的模型在零/少样本设置中表现出增强的泛化能力。

    7.2 混合符号神经方法

    将神经模型与符号逻辑和规则相结合可以提高一致性、透明度和鲁棒性。

    7.3 持续和终身学习

    朝着不断从新任务中学习并在最少监督的情况下逐步适应的系统前进。

    7.4 少样本强化学习

    人们对在强化学习代理中使用少样本和元学习技术来快速适应任务产生了兴趣。

    八、结论

    零样本和少样本学习释放了人工智能系统的潜力,其泛化能力远远超出了最初的训练数据。从文本理解和图像识别到代码生成和低资源语言处理,这些技术减少了对大型注释数据集的依赖,并加速了现实环境中的模型部署。然而,它们在泛化性、可解释性和可靠性方面的局限性需要仔细处理和持续研究。随着模型规模和能力的增长,以及即时工程和指令调整等技术的成熟,零样本和少样本学习将成为下一代灵活、适应性强的人工智能系统的基础。

    FR
    DAY
    13
    HOURS
    47
    MINUTES
    18
    SECONDS