中文LLaMA&Alpaca大语言模型+本地CPU/GPU训练部署 (Chinese LLaMA & Alpaca LLMs)
本版本针对模型回复较短的问题进行升级,同时推出Plus-33B系列模型。
同时,我们也很高兴地向大家宣布新项目启动:中文LLaMA-2、Alpaca-2大模型🦙
在此特别感谢所有参与beta评测投票的各位社区成员。
对战地址:http://chinese-alpaca-arena.ymcui.com/
alpha
控制上下文扩展长度,支持指定数值和auto两种方式具体使用方法见 #743 中的说明。
repeat_penalty
默认值过高的问题(#760)本版本以功能性更新为主,包括新增8K上下文支持、支持Gradio Demo流式输出、支持仿OpenAI API形式调用等。
新增8K+上下文支持方法,无需对模型权重本身做出修改。
gradio_demo.py
, inference_hf.py
等(#705)gradio_demo.py
. Contribued by @sunyuhan19981208
do_sample
参数(#699)Contribued by @sunyuhan19981208
build_dataset.py
和run_clm_sft_with_peft.py
中的一处命名错误,优化log输出(#691、#692)vocab_size
更新问题(#703)本版本以功能性更新为主,包括更新技术报告、添加C-Eval预测脚本、添加低资源模型转换脚本等。
merge_llama_with_chinese_lora_low_mem.py
,大幅降低内存消耗本次重点发布了33B版本中文LLaMA和Alpaca模型。
具体评测结果和生成示例请参考效果评测。
C-Eval是近期推出的一个包含14K样本的选择型问答数据集,涵盖了52个不同的学科和四个难度级别。中文Alpaca-Plus-13B和Alpaca-33B模型在该测试集上达到了较好水平,甚至超越了LLaMA-65B、Bloomz-mt等参数量大几倍甚至十几倍的千亿级模型。
详细结果请参考:https://github.com/ymcui/Chinese-LLaMA-Alpaca/tree/main#客观效果评测
scripts
文件夹,使目录结构更清晰
本次以功能性更新为主,包括添加指令精调脚本、LangChain支持、基于Gradio的本地Demo等。
感谢@sunyuhan19981208 贡献的PR。
本次是针对Plus版本的更新,主要聚焦于以下几方面:
发布中文LLaMA-Plus, Alpaca-Plus 13B版本,改进点如下:
⚠️ 注意:Alpaca-Plus-7B/13B的模型合并流程稍有不同,请参考合并教程。
llama.cpp提供了多种量化方案,本次针对Alpaca-Plus-7B以及Alpaca-Plus-13B进行了综合评测。
-t
与物理核心数一致时速度最快,超过之后速度反而变慢详细结果见关于量化方法选择及推理速度。
比假期先到来的是我们的最新模型😄,本次更新主要聚焦于以下几方面:
推出中文LLaMA, Alpaca Plus版(7B),相比基础版本的改进点如下:
(Plus-13B在路上)
在原有的测试样例的基础上,进一步对评测样例、评测方法进行完善,请参考效果评测。
现在用户可以使用统一的merge_llama_with_chinese_lora.py对模型进行合并和转换了。
.pth
格式模型:用于后续llama.cpp等的量化和部署.bin
格式(huggingface)模型:用于进一步精调或其他训练目的提供了用于训练LLaMA的预训练脚本,基于🤗transformers中的run_clm.py。具体使用方法请参考Wiki中的相关教程。
本次更新主要聚焦于以下几方面:
现在用户可以利用脚本merge_tokenizers.py对原版LLaMA词表进行扩充。脚本使用说明:链接
LlamaChat提供了一种面向macOS系统的类LLaMA模型的图形交互界面。macOS用户可以使用LlamaChat软件加载PyTorch以及GGML版本的模型了。LlamaChat使用说明:链接
为了更系统地归档相关使用说明,从本版本起相关文档将在Wiki中进行更新。查看:本项目 GitHub Wiki
🚀 合并脚本更新,支持从HF格式LLaMA权重+Chinese-LLaMA/Alpaca LoRA权重合并到HF格式的模型权重
🚀 添加了两种新的部署方式:
⚠️ 移除了权重合并脚本中的--model_size
参数:合并模型时不再需要提供该参数,脚本将自动推测模型大小。