mirror of
https://github.com/OpenBMB/MiniCPM-V.git
synced 2026-02-05 02:09:20 +08:00
update readme (#790)
This commit is contained in:
16
README_zh.md
16
README_zh.md
@@ -36,6 +36,8 @@
|
||||
## 更新日志 <!-- omit in toc -->
|
||||
|
||||
#### 📌 置顶
|
||||
* [2025.01.23] 💡💡💡 MiniCPM-o 2.6 现在已被北大团队开发的 [Align-Anything](https://github.com/PKU-Alignment/align-anything),一个用于对齐全模态大模型的框架集成,支持 DPO 和 SFT 在视觉和音频模态上的微调。欢迎试用!
|
||||
|
||||
* [2025.01.19] 📢 **注意!** 我们正在努力将 MiniCPM-o 2.6 的支持合并到 llama.cpp、ollama、vLLM 的官方仓库,但还未完成。请大家暂时先使用我们提供的 fork 来进行部署:[llama.cpp](https://github.com/OpenBMB/llama.cpp/blob/minicpm-omni/examples/llava/README-minicpmo2.6.md)、[ollama](https://github.com/OpenBMB/ollama/blob/minicpm-v2.6/examples/minicpm-v2.6/README.md)、[vllm](https://github.com/OpenBMB/MiniCPM-o?tab=readme-ov-file#efficient-inference-with-llamacpp-ollama-vllm)。 **合并完成前,使用官方仓库可能会导致不可预期的问题**。
|
||||
|
||||
* [2025.01.19] ⭐️⭐️⭐️ MiniCPM-o 在 GitHub Trending 上登顶, Hugging Face Trending 上也达到了第二!
|
||||
@@ -2420,7 +2422,7 @@ ollama 用法请参考[我们的fork ollama](https://github.com/OpenBMB/ollama/b
|
||||
from vllm import LLM, SamplingParams
|
||||
|
||||
MODEL_NAME = "openbmb/MiniCPM-V-2_6"
|
||||
# MODEL_NAME = "openbmb/MiniCPM-O-2_6"
|
||||
# MODEL_NAME = "openbmb/MiniCPM-o-2_6"
|
||||
# Also available for previous models
|
||||
# MODEL_NAME = "openbmb/MiniCPM-Llama3-V-2_5"
|
||||
# MODEL_NAME = "HwwwH/MiniCPM-V-2"
|
||||
@@ -2499,11 +2501,19 @@ ollama 用法请参考[我们的fork ollama](https://github.com/OpenBMB/ollama/b
|
||||
|
||||
[参考文档](./finetune/readme.md)
|
||||
|
||||
|
||||
### 使用 Align-Anything <!-- omit in toc -->
|
||||
|
||||
我们支持使用北大团队开发的 [Align-Anything](https://github.com/PKU-Alignment/align-anything) 框架微调 MiniCPM-o 系列模型,同时支持 DPO 和 SFT 在视觉和音频模态上的微调。Align-Anything 是一个用于对齐全模态大模型的高度可扩展框架,开源了[数据集、模型和评测](https://huggingface.co/datasets/PKU-Alignment/align-anything)。它支持了 30+ 开源基准,40+ 模型,以及包含SFT、SimPO、RLHF在内的多种算法,并提供了 30+ 直接可运行的脚本,适合初学者快速上手。
|
||||
|
||||
最佳实践: [MiniCPM-o 2.6](https://github.com/PKU-Alignment/align-anything/tree/main/scripts).
|
||||
|
||||
|
||||
### 使用 LLaMA-Factory <!-- omit in toc -->
|
||||
|
||||
我们支持使用 LLaMA-Factory 微调 MiniCPM-o-2.6 和 MiniCPM-V 2.6。LLaMA-Factory 提供了一种灵活定制 200 多个大型语言模型(LLM)微调(Lora/Full/Qlora)解决方案,无需编写代码,通过内置的 Web 用户界面 LLaMABoard 即可实现训练/推理/评估。它支持多种训练方法,如 sft/ppo/dpo/kto,并且还支持如 Galore/BAdam/LLaMA-Pro/Pissa/LongLoRA 等高级算法。
|
||||
我们支持使用 LLaMA-Factory 微调 MiniCPM-o 2.6 和 MiniCPM-V 2.6。LLaMA-Factory 提供了一种灵活定制 200 多个大型语言模型(LLM)微调(Lora/Full/Qlora)解决方案,无需编写代码,通过内置的 Web 用户界面 LLaMABoard 即可实现训练/推理/评估。它支持多种训练方法,如 sft/ppo/dpo/kto,并且还支持如 Galore/BAdam/LLaMA-Pro/Pissa/LongLoRA 等高级算法。
|
||||
|
||||
最佳实践: [MiniCPM-o-2.6 | MiniCPM-V-2.6](./docs/llamafactory_train_and_infer.md).
|
||||
最佳实践: [MiniCPM-o 2.6 | MiniCPM-V 2.6](./docs/llamafactory_train_and_infer.md).
|
||||
|
||||
|
||||
### 使用 SWIFT 框架 <!-- omit in toc -->
|
||||
|
||||
Reference in New Issue
Block a user