其他
训练自己的 ChatGPT,真香!
关注 AI 实战,开启智能生活!
推荐阅读:
一、为什么要训练自己的ChatGPT?
对我个人而言,这非常非常 cooooool ! 让模型能够讲我熟悉的语言 让模型替我写注释和测试代码 让模型学习产品文档,帮我回答用户提出的小白问题 ...
二、计划
第一步:准备数据集
像 Alpaca 一样,收集 input/output 生成 prompt 用于训练,让模型完成特定任务 语言填充,收集文本用于训练,让模型补全 prompt。
第二步:训练并 apply LoRA
第三步:合并模型(可选)
第四步:quantization(可选)
三、实践
四、准备
git clone git@github.com:tloen/alpaca-lora.git
wget https://github.com/LC1332/Chinese-alpaca-lora/blob/main/data/trans_chinese_alpaca_data.json
conda create -n alpaca python=3.9
conda activate alpaca
cd alpaca-lora
pip install -r requirements.txt
五、训练
python finetune.py \
--base_model 'decapoda-research/llama-7b-hf' \
--data_path '/path/to/trans_chinese_alpaca_data.json' \
--output_dir './lora-alpaca-zh'
WORLD_SIZE=2 CUDA_VISIBLE_DEVICES=0,1 torchrun \
--nproc_per_node=2 \
--master_port=1234 \
finetune.py \
--base_model 'decapoda-research/llama-7b-hf' \
--data_path '/path/to/trans_chinese_alpaca_data.json' \
--output_dir './lora-alpaca-zh'
--micro_batch_size 2
--num_epochs 2
六、推理
python generate.py --base_model "decapoda-research/llama-7b-hf" \
--lora_weights './lora-alpaca-zh' \
--load_8bit
七、加速推理
八、测试
Good Examples
Bad Examples
九、总结
1、加入即送一个超难注册的 ChatGPT 账号,个人独享,目前官方已经关闭注册,一号难求,我也只有最后不到 100 个了,送完即止。
2、不割韭菜,R哥是实实在在分享东西。星球分享了大量 ChatGPT 学习资料, 还输出了 40+ 篇保姆级教程,持续更新中,涉及方方面面,真正的高质量知识星球。
👇 点击阅读原文,即可加入星球!