就是在已经练好的模型基础上进一步用新语料库训练?老丹回炉续炼?
对ChatGLM2-6B这样的大型语言模型来说,一般不建议在已经 经过p-tuning微调的模型上进行进一步的微调训练,因为在进行p-tuning微调时,已经使用了大量的训练数据和计算资源,将模型参数优化到相对最优的状态了~