Merge branch 'OpenBMB:main' into main

This commit is contained in:
LDLINGLINGLING
2024-07-23 14:34:20 +08:00
committed by GitHub
7 changed files with 47 additions and 106 deletions

View File

@@ -32,6 +32,7 @@
#### 📌 置顶
* [2024.07.19] MiniCPM-Llama3-V 2.5 现已支持[vLLM](#vllm)
* [2024.05.28] 💥 MiniCPM-Llama3-V 2.5 现在在 llama.cpp 和 ollama 中完全支持其功能!**请拉取我们最新的 fork 来使用**[llama.cpp](https://github.com/OpenBMB/llama.cpp/blob/minicpm-v2.5/examples/minicpmv/README.md) & [ollama](https://github.com/OpenBMB/ollama/tree/minicpm-v2.5/examples/minicpm-v2.5)。我们还发布了各种大小的 GGUF 版本,请点击[这里](https://huggingface.co/openbmb/MiniCPM-Llama3-V-2_5-gguf/tree/main)查看。请注意,**目前官方仓库尚未支持 MiniCPM-Llama3-V 2.5**,我们也正积极推进将这些功能合并到 llama.cpp & ollama 官方仓库,敬请关注!
* [2024.05.28] 💫 我们现在支持 MiniCPM-Llama3-V 2.5 的 LoRA 微调,更多内存使用统计信息可以在[这里](https://github.com/OpenBMB/MiniCPM-V/tree/main/finetune#model-fine-tuning-memory-usage-statistics)找到。
* [2024.05.23] 🔍 我们添加了Phi-3-vision-128k-instruct 与 MiniCPM-Llama3-V 2.5的全面对比,包括基准测试评估、多语言能力和推理效率 🌟📊🌍🚀。点击[这里](./docs/compare_with_phi-3_vision.md)查看详细信息。
@@ -651,7 +652,7 @@ MiniCPM-Llama3-V 2.5 现在支持llama.cpp啦! 用法请参考我们的fork [lla
### vLLM 部署 <a id='vllm'></a>
<details>
<summary>点击查看 MiniCPM-V 2.0 利用vLLM 部署运行的方法(MiniCPM-Llama3-V 2.5 支持vLLM将在近期推出)</summary>
<summary>点击查看 MiniCPM-V 2.0 MiniCPM-Llama3-V 2.5 利用vLLM 部署运行的方法</summary>
由于我们对 vLLM 提交的 PR 还在 review 中,因此目前我们 fork 了一个 vLLM 仓库以供测试使用。
1. 首先克隆我们 fork 的 vLLM 库:
@@ -661,6 +662,7 @@ git clone https://github.com/OpenBMB/vllm.git
2. 安装 vLLM 库:
```shell
cd vllm
git checkout minicpmv
pip install -e .
```
3. 安装 timm 库: