ℹ️
如果你对 RWKV 不熟悉,建议先玩玩基础模型,再尝试微调。
很多情况下,用户想要实现的目标可以通过调整提示词(prompts)来完成,比微调要简单得多。
全量微调
你可以使用官方仓库的 RWKV 全量微调方法:
具体方法可以查看:全量微调入门版教程 (opens in a new tab)。
或者使用 infctx 训练器进行微调:
一般来说,使用官方仓库的训练器可以获得更好的性能,使用 infctx 可以牺牲一些速度换取 infctx 大小的支持。
其他微调方法
state tuning
ℹ️
RWKV 是纯 RNN,因此可以做 transformer 难以做到的事情。例如,RWKV 作为 RNN 有固定大小的 state,微调 RWKV 的初始 state,就相当于最彻底的 prompt tuning,甚至可以用于 alignment,因为迁移能力很强。
通过微调 RWKV 的 state ,可以使得 RWKV 模型更好地完成某类任务,或遵循某种风格。
state tuning 推荐尝试社区的 RWKV-PEFT (opens in a new tab) 项目。
具体微调方法可以查看:RWKV 微调教程 > State tuning 微调教程 (opens in a new tab)。
LoRA 微调
ℹ️
LORA(Low-Rank Adaptation)是一种针对大型预训练模型的微调技术。它不改变原始模型大部分参数,而是调整模型的部分权重,以此实现对特定任务的优化。
RWKV LoRA 微调方法可以查看:RWKV 微调教程 > LoRA 微调教程 (opens in a new tab)。
有关 RWKV 微调的详细文档,请转到RWKV 微调文档 (opens in a new tab)