关于 RWKV
RWKV 微调
ℹ️

如果你对 RWKV 不熟悉,建议先玩玩基础模型,再尝试微调。

很多情况下,用户想要实现的目标可以通过调整提示词(prompts)来完成,比微调要简单得多。

全量微调

你可以使用官方仓库的 RWKV 全量微调方法:

具体方法可以查看:全量微调入门版教程 (opens in a new tab)

或者使用 infctx 训练器进行微调:

一般来说,使用官方仓库的训练器可以获得更好的性能,使用 infctx 可以牺牲一些速度换取 infctx 大小的支持。

其他微调方法

state tuning

ℹ️

RWKV 是纯 RNN,因此可以做 transformer 难以做到的事情。例如,RWKV 作为 RNN 有固定大小的 state,微调 RWKV 的初始 state,就相当于最彻底的 prompt tuning,甚至可以用于 alignment,因为迁移能力很强。

通过微调 RWKV 的 state ,可以使得 RWKV 模型更好地完成某类任务,或遵循某种风格。

state tuning 推荐尝试社区的 RWKV-PEFT (opens in a new tab) 项目。

具体微调方法可以查看:RWKV 微调教程 > State tuning 微调教程 (opens in a new tab)

LoRA 微调

ℹ️

LORA(Low-Rank Adaptation)是一种针对大型预训练模型的微调技术。它不改变原始模型大部分参数,而是调整模型的部分权重,以此实现对特定任务的优化。

RWKV LoRA 微调方法可以查看:RWKV 微调教程 > LoRA 微调教程 (opens in a new tab)


有关 RWKV 微调的详细文档,请转到RWKV 微调文档 (opens in a new tab)