!python llama-recipes/llama_finetuning.py
--use_peft
--num_epochs 3
--peft_method lora
--run_validation false
--quantization
--dataset alpaca_dataset
--model_name meta-llama/Llama-2-7b-chat-hf
--save_model
--save_optimizer
--batch_size_training 12
--output_dir ./save