新一代大模型架构 超越Transformer
欢迎来到 RWKV 开源时代
我们希望创造一个世界上所有人都能使用的开源大语言模型
233
全世界 233 个国家和地区都能够自由地使用 RWKV 开源大模型,而不仅限于英语地区
100+
RWKV "World" 系列开源大模型支持全世界所有 100+ 种语言和编程代码
2000+
全世界 2000+ 种族都能够自由地使用 RWKV 开源大模型
为您介绍 RWKV
RWKV 结合了 RNN 和 Transformer 的所有优点,既可高效并行推理训练,亦可高效串行推理训练
RWKV 的测评成绩
"英文与多语言基准测试"涵盖多种评测类型(如 LAMBADA、PIQA 和 WinoGrande),评估模型在语言理解、推理和知识泛化能力方面的表现。
英文和多语言测评
Uncheatable 3B
Uncheatable 0.4B
lm-evaluation-harness
RWKV-7 "Goose" World-v3
Llama-3.2-3B (+emb = 3.61b)
Qwen2.5-3B (+emb = 3.40b)
stablelm-3b-4e1t
RWKV-6 'Finch' World-v2.1
lm-evaluation-harness
RWKV-7 "Goose" World-v3
SmolLM2-1.7B (+emb = 1.81b)
Qwen2.5-1.5B (+emb = 1.78b)
stablelm-2-1_6b
RWKV-6 'Finch' World-v2.1
Llama-3.2-1B (+emb = 1.50b)
lm-evaluation-harness
RWKV7-G1 "GooseOne" 20250324
SmolLM2-360M (+emb = 407m)
RWKV-7 "Goose" Pile
mamba-370m (+emb = 421m) Pile
lm-evaluation-harness
RWKV7-G1 "GooseOne" 20250307
SmolLM2-135M (+emb = 163m)
RWKV-7 "Goose" Pile
mamba-130m (+emb = 168m) Pile
我们拥有丰富的全球开发者生态
作为能效最高、表达力超越 attention,完全开源可商用的新型大模型架构,RWKV 广受开发者和爱好者们的好评。
目前 RWKV 开源社区的国内开发者超过 1 万人、海外开发者超过 8000 人、Github 上基于 RWKV 的开源项目超过 400 个。
目前 RWKV 开源社区的国内开发者超过 1 万人、海外开发者超过 8000 人、Github 上基于 RWKV 的开源项目超过 400 个。
我们有众多基于 RWKV 大模型的应用案例
RWKV 作曲家