为什么SFT之后感觉LLM傻了

头像
Jillian
IP属地:湖北武汉
2024-07-29 16:17
浏览
236
1个回答
0
举报
举报
我来答
我来答
收藏问题
收藏问题
积分激励
在进⾏Supervised Fine-Tuning(SFT)之后,有时可能会观察到基座模型(如语⾔模型)的性能下降或产⽣⼀些“傻”的⾏为。
SFT
AI模型
语言模型
最新
最热
顾问回复
头像
Jillian
作者
4月前  湖北武汉
私信
+ 关注
1、数据偏移:SFT过程中使⽤的微调数据集可能与基座模型在预训练阶段接触到的数据分布有所不同。如果微调数据集与预训练数据集之间存在显著的差异,模型可能会在新任务上表现较差。这种数据偏移可能导致模型在新任务上出现错误的预测或不准确的输出。 2、⾮典型标注:微调数据集的标注可能存在错误或不准确的标签。这些错误的标签可能会对模型的性能产⽣负⾯影响,导致模型产⽣“傻”的⾏为。 3、过拟合:如果微调数据集相对较⼩,或者模型的容量(参数数量)较⼤,模型可能会过拟合微调数据,导致在新的输⼊上表现不佳。过拟合可能导致模型过于依赖微调数据的特定样本,⽽⽆法泛化到更⼴泛的输⼊。 4、缺乏多样性:微调数据集可能缺乏多样性,未能涵盖模型在新任务上可能遇到的各种输⼊情况。这可能导致模型在⾯对新的、与微调数据集不同的输⼊时出现困惑或错误的预测。 欢迎技术大佬一起探讨!
展开
0评论
0
回复
找不到答案?试试直接提问吧
Jillian
Jillian
湖北武汉
这个家伙很懒,没有介绍
咨询Ta