Baichuan2-13B-Chat本地部署
介绍如何下载以及在text generation webui中使用Baichuan2-13B-Chat大模型
下载
https://huggingface.co/baichuan-inc/Baichuan2-13B-Chat/tree/main
方法一:直接在Text generation webUI中进行下载
该方法的优点是操作简单步骤少,缺点是考验网络情况,很容易半路中断,毕竟三个模型文件加起来有将近30G的大小!
方法二:挨个复制文件的下载链接,用迅雷下载(开通会员下载速度快),然后在“\oobabooga_windows\text-generation-webui\models”目录下新建一个文件夹“baichuan-inc_Baichuan2-13B-Chat”,将所有下载下来的文件都放在该文件夹中!
该方法的优点是不容易半途中断导致文件损坏,缺点是操作步骤多。
方法三:从我打包到网盘的链接进行下载
点击下载:https://pan.quark.cn/s/206bf2c74b88
从网盘下载的速度基本上和迅雷下载差不多,可以一键下载不需要反复去复制下载链接。
使用
与其他的大模型在text generation webUI的使用方法一样,选择模型之后点击“load”加载该模型
本地使用截图:
原创文章,作者:朋远方,如若转载,请注明出处:https://caovan.com/baichuan2-13b-chat-baichuandamoxingyugpt3-5duibiceshijibendebushujiaocheng-youxiuguochandamoxing/.html
评论列表(2条)
ValueError: Loading models\baichuan-inc Baichuan2-7B-Chat-4bits requires you to execute the configuration file in that repo on your local machine. Make sure you have read the code there to avoid malicious use, then set the option to remove this error.trust_remote_code=True
@jian:看文章的倒数第二个图,“trust_remote_code”要点选