出现这篇文章也是最近回顾transformer ,看到了这两个词,其实道理很简单,只不过自己一直叫法跟这个不同。我一直都是在用后者,无非就是要不要冻住base 模型参数,冻住那就是Feature based,否则是后者。
过程:
把这个向量作为输入喂给一个简单的模型(如逻辑回归、SVM、MLP等)
优点:
不需要大量资源,适合小数据集和快速实验
缺点:
过程:
可以更好适应具体任务的需求
缺点:
需要更多计算资源
易过拟合,尤其在数据量较小时
方式 | 操作 | 参数是否可训练 | 使用场景 |
---|---|---|---|
Feature-based | 使用BERT提取文本的CLS向量,输入到逻辑回归模型中 | 否 | 快速构建、资源受限、小数据集 |
Fine-tuning | 在BERT模型上添加任务层(如分类器),联合训练全部参数 | 是 | 追求精度,资源充足,中/大数据集 |
Feature-based:像是“用现成的工具处理任务”,不改动工具本身;
Fine-tuning:像是“定制和优化工具”,让它更适合你的任务。