Update README_zh.md support llama.cpp

This commit is contained in:
Hongji Zhu
2024-05-23 22:29:05 +08:00
committed by GitHub
parent 62c684a5ad
commit 4b94ad6d14

View File

@@ -55,6 +55,7 @@
- [Mac 推理](#mac-推理) - [Mac 推理](#mac-推理)
- [手机端部署](#手机端部署) - [手机端部署](#手机端部署)
- [本地WebUI Demo部署](#本地webui-demo部署) - [本地WebUI Demo部署](#本地webui-demo部署)
- [llama.cpp部署](#llamacpp)
- [vLLM 部署 ](#vllm-部署-) - [vLLM 部署 ](#vllm-部署-)
- [微调](#微调) - [微调](#微调)
- [未来计划](#未来计划) - [未来计划](#未来计划)
@@ -600,6 +601,9 @@ PYTORCH_ENABLE_MPS_FALLBACK=1 python web_demo_2.5.py --device mps
``` ```
</details> </details>
### llama.cpp 部署<a id="llamacpp"></a>
MiniCPM-Llama3-V 2.5 现在支持llama.cpp啦! 用法请参考我们的fork [llama.cpp](https://github.com/OpenBMB/llama.cpp/tree/minicpm-v2.5/examples/minicpmv) .
### vLLM 部署 <a id='vllm'></a> ### vLLM 部署 <a id='vllm'></a>
<details> <details>
<summary>点击查看 vLLM 部署运行的方法</summary> <summary>点击查看 vLLM 部署运行的方法</summary>