diff --git a/finetune/finetune_ds.sh b/finetune/finetune_ds.sh index 8d90f11..ecc6cd6 100644 --- a/finetune/finetune_ds.sh +++ b/finetune/finetune_ds.sh @@ -34,8 +34,8 @@ torchrun $DISTRIBUTED_ARGS finetune.py \ --fp16_full_eval false \ --do_train \ --do_eval \ - --tune_vision false \ - --tune_llm false \ + --tune_vision true \ + --tune_llm true \ --model_max_length 2048 \ --max_steps 10000 \ --eval_steps 1000 \ diff --git a/finetune/finetune_lora.sh b/finetune/finetune_lora.sh index be3fb38..deba0d5 100644 --- a/finetune/finetune_lora.sh +++ b/finetune/finetune_lora.sh @@ -32,7 +32,7 @@ torchrun $DISTRIBUTED_ARGS finetune.py \ --bf16_full_eval true \ --do_train \ --do_eval \ - --tune_vision false \ + --tune_vision true \ --tune_llm false \ --use_lora true \ --lora_target_modules "llm\..*layers\.\d+\.self_attn\.(q_proj|k_proj)" \