中文LLaMA-2 & Alpaca-2大模型二期项目 + 64K超长上下文模型 (Chinese LLaMA-2 & Alpaca-2 LLMs with 64K long context models)
本次更新添加了新版GGUF模型(with imatrix)、AWQ模型,以及对YaRN模型的支持。
Full Changelog: https://github.com/ymcui/Chinese-LLaMA-Alpaca-2/compare/v4.0...v4.1
本次更新推出长上下文版模型Chinese-LLaMA-2-7B-64K和Chinese-Alpaca-2-7B-64K,可直接应用于各类长文本下游任务。推出人类偏好对齐版模型Chinese-Alpaca-2-1.3B-RLHF和Chinese-Alpaca-2-7B-RLHF,大幅提升正确价值观表达能力。
For English release note, please refer to Discussion.
本次更新推出小参数量基座/聊天模型Chinese-LLaMA-2-1.3B和Chinese-Alpaca-2-1.3B,以及对投机采样解码策略的支持
gradio_demo.py
和inference_hf.py
中添加了使用投机采样的参数。注意事项:小参数量模型可以像7B/13B模型一样直接用于推理,但结果会比大模型差,建议用于投机采样加速大模型推理。
本次更新推出长上下文版聊天/指令模型Chinese-Alpaca-2-7B-16K和Chinese-Alpaca-2-13B-16K,可直接应用于各类长文本下游任务。
--rope-scale 4
参数For English release note, please refer to Discussion.
本次更新推出长上下文版模型Chinese-LLaMA-2-7B-16K和Chinese-LLaMA-2-13B-16K。
--rope-scale 4
参数-eps
选项以适配GGUF新版模型(#162)For English release note, please refer to Discussion.
本次更新推出Chinese-LLaMA-2-13B和Chinese-Alpaca-2-13B模型,添加多种下游应用适配等。
相关使用文档请查阅📚 GitHub Wiki
system_prompt
)、反向提示语(negative prompt
)以及调整CFG强度(guidance_scale
),可以实现对模型输出的多样化控制。For English release note, please refer to Discussion.
本次以功能性更新为主,包括添加了FlashAttention-2支持脚本、vLLM支持、长回复模板等。
flash_attn
控制是否开启FlashAttention-2加速训练,具体可查看预训练脚本Wiki或指令精调脚本Wiki
gradio_demo.py
和inference_hf.py
中添加了对vLLM部署服务的支持。此外,也提供了vLLM作为后端的仿OpenAI API风格的服务器DEMO(openai_api_server_vllm.py
)alpaca-2-long.txt
系统提示语,可进一步提升回复长度(也可自行尝试修改)For English release note, please refer to Discussion.
很高兴地向大家宣布中文LLaMA-2-7B、Alpaca-2-7B大模型已正式发布。
为了更加直观地了解模型的生成效果,本项目仿照Fastchat Chatbot Arena推出了模型在线对战平台,可浏览和评测模型回复质量。对战平台提供了胜率、Elo评分等评测指标,并且可以查看两两模型的对战胜率等结果。测试模型包括:
📊 模型在线对战:http://chinese-alpaca-arena.ymcui.com/
客观评测选择了C-Eval进行评价,结果如下表。可以看到二代模型显著优于一代模型,且部分指标上甚至超过13B版本。
LLaMA系列模型之间对比:
模型 | Valid (zero-shot) | Valid (5-shot) | Test (zero-shot) | Test (5-shot) |
---|---|---|---|---|
Chinese-LLaMA-2-7B | 28.2 | 36.0 | 30.3 | 34.2 |
Chinese-LLaMA-Plus-13B | 27.3 | 34.0 | 27.8 | 33.3 |
Chinese-LLaMA-Plus-7B | 27.3 | 28.3 | 26.9 | 28.4 |
Alpaca系列模型之间对比:
模型 | Valid (zero-shot) | Valid (5-shot) | Test (zero-shot) | Test (5-shot) |
---|---|---|---|---|
Chinese-Alpaca-2-7B | 41.3 | 42.9 | 40.3 | 39.5 |
Chinese-Alpaca-Plus-13B | 43.3 | 42.4 | 41.5 | 39.9 |
Chinese-Alpaca-Plus-7B | 36.7 | 32.9 | 36.4 | 32.3 |