目前存在多种微调框架,它们主要用于提高模型在特定任务上的性能,同时尽量减少所需的计算资源。以下是一些较为热门且实用的微调框架:
-
LM-BFF:
- 由陈丹琦等人提出的小样本微调框架,适用于在少量标注数据上进行模型微调。
-
SWIFT:
- 魔搭社区提出的轻量级微调推理框架,支持多种参数高效的调优方法,如Adapter、Prefix Tuning等,并且具有易用性、灵活性、高效性和丰富的生态圈等特点。
-
LoRA (Low-Rank Adaptation):
- 参数高效微调策略之一,通过在模型内部添加低秩矩阵来适应特定任务,从而减少训练所需的参数数量。
-
LoRA-Dash:
- 比LoRA更高效的新方法,在特定任务微调中表现出色,可以在大幅度减少参数量的情况下达到与LoRA相似的效果。
-
FLoRA:
- 上海交通大学与上海AI实验室合作推出的高效微调框架,相较于LoRA,FLoRA能够在减少80%参数的情况下仍然保持甚至超越LoRA的效果。
-
SCEdit:
- 阿里巴巴通义实验室提出的图像生成微调框架,适用于编辑跳跃连接上的中间特征以实现高效微调。
这些框架各有特色,选择哪个框架取决于具体的任务需求、可用的数据量、计算资源以及期望达到的效果。随着研究的发展,可能会有更多的框架出现,因此建议关注最新的研究成果和技术文档。
目前一般常用都是用LoRA了。
网友评论