mirror of
https://github.com/OpenBMB/MiniCPM-V.git
synced 2026-02-05 18:29:18 +08:00
@@ -34,8 +34,8 @@ torchrun $DISTRIBUTED_ARGS finetune.py \
|
|||||||
--fp16_full_eval false \
|
--fp16_full_eval false \
|
||||||
--do_train \
|
--do_train \
|
||||||
--do_eval \
|
--do_eval \
|
||||||
--tune_vision false \
|
--tune_vision true \
|
||||||
--tune_llm false \
|
--tune_llm true \
|
||||||
--model_max_length 2048 \
|
--model_max_length 2048 \
|
||||||
--max_steps 10000 \
|
--max_steps 10000 \
|
||||||
--eval_steps 1000 \
|
--eval_steps 1000 \
|
||||||
|
|||||||
@@ -32,7 +32,7 @@ torchrun $DISTRIBUTED_ARGS finetune.py \
|
|||||||
--bf16_full_eval true \
|
--bf16_full_eval true \
|
||||||
--do_train \
|
--do_train \
|
||||||
--do_eval \
|
--do_eval \
|
||||||
--tune_vision false \
|
--tune_vision true \
|
||||||
--tune_llm false \
|
--tune_llm false \
|
||||||
--use_lora true \
|
--use_lora true \
|
||||||
--lora_target_modules "llm\..*layers\.\d+\.self_attn\.(q_proj|k_proj)" \
|
--lora_target_modules "llm\..*layers\.\d+\.self_attn\.(q_proj|k_proj)" \
|
||||||
|
|||||||
Reference in New Issue
Block a user