mirror of
https://github.com/OpenBMB/MiniCPM-V.git
synced 2026-02-04 17:59:18 +08:00
Update README_zh.md
This commit is contained in:
@@ -578,6 +578,8 @@ print(answer)
|
||||
```
|
||||
|
||||
|
||||
### 多卡推理
|
||||
您可以通过将模型的层分布在多个低显存显卡(12 GB 或 16 GB)上,运行 MiniCPM-Llama3-V 2.5。请查看该[教程](https://github.com/OpenBMB/MiniCPM-V/blob/main/docs/inference_on_multiple_gpus.md),详细了解如何使用多张低显存显卡载入模型并进行推理。
|
||||
|
||||
|
||||
### Mac 推理
|
||||
|
||||
Reference in New Issue
Block a user