rt: 正如 llama/bloomz 都有对应的cpu运行加速方法。
llama.cpp 已支持 baichuan-7b.
chatglm.cpp 已支持 Baichuan-13B 和 Baichuan-13B-Chat 了
· Sign up or log in to comment