diff --git a/finetune/finetune_lora.sh b/finetune/finetune_lora.sh index 49c375b..22cf5a2 100644 --- a/finetune/finetune_lora.sh +++ b/finetune/finetune_lora.sh @@ -37,7 +37,7 @@ torchrun $DISTRIBUTED_ARGS finetune.py \ --tune_vision true \ --tune_llm false \ --use_lora true \ - --lora_target_modules "llm\..*layers\.\d+\.self_attn\.(q_proj|k_proj)" \ + --lora_target_modules "llm\..*layers\.\d+\.self_attn\.(q_proj|k_proj|v_proj|o_proj)" \ --model_max_length 2048 \ --max_slice_nums 9 \ --max_steps 10000 \