整理:开源LLM,可微调的项目列表
转自 |于游的碎碎念
我们都知道openAI不open,昨天我还在TGO的AIGC讨论群里分享了,openai鲜有发布的关于llm下数学计算的论文。论文中,openAI把过程监督 代替结果监督模拟人类思维逻辑过程,用于数学推理。这也是大语言模型的训练趋势,整个人类社会都缺少过程的数据,大部分的数据都是结果数据。大胆预测一下,下一步,过程数据的整理和完善,会成为模型训练的重点。
这个虽然不是本文的重点,我还没时间完整阅读完这个论文,感兴趣的同学自取:
paper:https://cdn.openai.com/improving-mathematical-reasoning-with-process-supervision/Lets_Verify_Step_by_Step.pdf
blog: https://openai.com/research/improving-mathematical-reasoning-with-process-supervision
dataset: https://github.com/openai/prm800k
那我们今天要给大家总结一下,我所能总结出来的开源可微调的大语言模型项目,也希望大家不断讨论,补充。毕竟几天时间就出一个,已经测试不过来了。另外我没想明白,应该如何分类,参考了 国外的文章和知乎的帖子,如果大家有更好的分类方法 欢迎私信和我讨论。
上图来自于论文(https://arxiv.org/abs/2303.18223)大语言模型综述
LLaMA (Meta)系列衍生
项目 | 说明 | 地址 |
|
|
|
alpaca.cpp | 号称在本地设备可运行的LLM模型。也是来自于llama。案例可以跑在 M2 Macbook Air上。 |
|
alpaca-LoRA | 基于alpaca 的LoRA调试版本,而且代码还可以在树莓派上运行 |
|
Baize V2 | 也是一个fine-tuned with LoRA的版本,使用了100K的GPT数据,做自对话 ,还使用了Alpaca来提高性能,目前提供了7b,13b的版本 | Github: https://github.com/project-baize/baize-chatbo t |
Cabrita | 一个葡萄牙语fine-tuned的llama版本 | Github:https://github.com/22-hours/cabrita |
Chinese-LLaMA-Alpaca | LLaMA的基础上,扩展了中文词汇量,并使用中文数据进行二次预训练,进一步提高了对中文的基本语义理解。文档很全,支持推理。 | github:https://github.com/ymcui/Chinese-LLaMA-Alpaca/ |
Chinese-Vicuna | 可以在3090和2080上跑的7b和13B的中文模型, | Github:https://github.com/Facico/Chinese-Vicuna |
GPT4-x-Alpaca | LLaMA 13B 模型,使用 GPT4 对话集合 GPTeacher 进行了微调 | Hugging Face:https://huggingface.co/chavinlo/gpt4-x-alpaca |
Gorilla | UC伯克利和微软研究院的项目,用以使用开源的模型,做大语言模型的API Appstore值得好好看看项目 | 官网:https://gorilla.cs.berkeley.edu/ Github:https://github.com/ShishirPatil/gorilla 权重托管:https://huggingface.co/gorilla-llm |
gpt4-x-vicuna-13b | 进行了大约 180k 条指令,全部来自 GPT-4,的微调 | huggingface:https://huggingface.co/NousResearch/gpt4-x-vicuna-13b |
GPT4All | 基于 LLaMa 的约 800k GPT-3.5-Turbo进行了训练 | Github:https://github.com/nomic-ai/gpt4all |
Koala | LLaMA 之上微调的语言模 型 也是伯克利的一个实验项目 | blog:https://bair.berkeley.edu/blog/2023/04/03/koala/ Github:https://github.com/young-geng/EasyLM/blob/main/docs/koala.md |
OpenAlpaca | Apache 2.0 许可,旨在构建和共享基于 OpenLLaMA 的指令跟随模型 | https://github.com/yxuansu/OpenAlpaca |
Vicuna | 通过微调 LLaMA 对从 ShareGPT 收集的用户共享对话进行训练。使用 GPT-4 作为判断的初步评估表明,Vicuna-13B 达到了 OpenAI ChatGPT 和 Google Bard 90%* 以上的质量,同时在超过 90%* 的情况下优于 LLaMA 和 Stanford Alpaca 等其他 | 官网https://lmsys.org/blog/2023-03-30-vicuna/ |
StableVicuna | 通过强化学习人类反馈 (RHLF) 进行训练的大型开源聊天机器人 | 官网:https://stability.ai/blog/stablevicuna-open-source-rlhf-chatbot |
OpenLLaMA | RedPajama 数据集上训练的 Meta AI 的 LLaMA 7B 的许可开源复制品 | github:https://github.com/openlm-research/open_llama |
StableLM | StableVicuna 是Vicuna-13B v0的 RLHF 微调,它本身是LLaMA-13B的微调 | https://github.com/stability-AI/stableLM/ |
bloom生态
BLOOM | 它能够以 46 种语言和 13 种编程语言输出连贯的文本 | https://huggingface.co/bigscience/bloom |
BLOOMZ | 多任务微调版本的bloom,但是实际效果,从评测报告上并没有提升太多 | https://huggingface.co/bigscience/bloomz |
BLOOM-LoRA | Instruct-Tuning 数据集 | https://github.com/linhduongtuan/BLOOM-LORA |
Petals | 使用分布式 176B 参数BLOOM或BLOOMZ生成文本, | https://github.com/bigscience-workshop/petals |
google生态
PaLM | google没有开源,但是网友给了一个开源版本~~~ | https://github.com/conceptofmind/PaLM |
Flamingo — Pytorch | 在 Pytorch 中实现Flamingo | https://github.com/lucidrains/flamingo-pytorch |
OpenFlamingo | DeepMind Flamingo模型的开源版本 | https://github.com/mlfoundations/open_flamingo |
FLAN | 此存储库包含用于生成指令调整数据集集合的代码 | https://github.com/google-research/FLAN |
Flan-Alpaca | 该存储库包含用于将Stanford Alpaca 合成指令调优扩展到现有指令调优模型(例如Flan-T5)的代码 | https://github.com/declare-lab/flan-alpaca |
Flan-UL2 | Flan-UL2是基于该T5架构的编码解码器模型 | https://huggingface.co/google/flan-ul2 |
其他有趣的
ChatGLM-6B | ChatGLM-6B 使用类似于 ChatGPT 的技术,针对中文 QA 和对话进行了优化。该模型针对约 1T 的中英文语料库进行训练,并辅以监督微调、反馈引导和人类反馈强化学习。 | Github:https://github.com/THUDM/ChatGLM-6B |
GPT-J | 为了在TPUv3 上扩展至大约 40B 参数而设计 | https://github.com/kingoflolz/mesh-transformer-jax/#gpt-j-6b |
Dolly 2.0 | 可以商用的大模型 7B 3B | https://huggingface.co/databricks |
GPT-NeoX | 基于 NVIDIA 的Megatron 语言模型,并通过DeepSpeed的技术进行增强 | https://github.com/EleutherAI/gpt-neox |
RWKV | 是具有 Transformer 级 LLM 性能的 RNN。它可以像 GPT(可并行化)一样直接训练。因此,它结合了 RNN 和 Transformer 的优点——出色的性能、快速推理、节省 VRAM、快速训练、“无限”ctx_len 和自由句子嵌入。 | https://github.com/BlinkDL/RWKV-LM |
h2oGPT | 支持LangChain | https://github.com/h2oai/h2ogpt |
HuggingGPT | HuggingGPT 是一个协作系统,由作为控制器的 LLM 和作为协作执行者的众多专家模型组成(来自 HuggingFace Hub) | https://github.com/microsoft/JARVIS |
XrayGLM | x光片识别到GLM中 | https://github.com/WangRongsheng/XrayGLM |
这个列表参考了一些文章和知乎,说实话,整理这个比阅读论文 累多了……
最近关注的朋友越来越多,还有朋友问用 ChatGPT 能做什么?学了AI感觉没有地方可以用。AI 对我真的有红利吗?国内能不能用啊?
考虑到各种朋友们的问题,我联合了两位大咖,共同开发设计了:《AI启航实用变现手册》,提供各类AI工具使用教程及变现方法和路径。
同时还在筹备知识星球的建设,以及赠送给会员的福利AI产品:不用魔法,体验AI 智能聊天,AI 绘画,保证学会工具的使用后,可以上手实际操作。
我们的目标解决朋友们 AI 学习中的四个核心问题:信息差,认知差,执行差,人脉差。
手册初稿含两方面的内容:一、如何利用AI去提升效率;二、用AI变现指南。
变现部分是实际实打实的操作记录和赚钱过程拆解,初版就共15万字,内容将来还会持续更新,将来还会带领朋友们进行实际的操作。
这个是抖音的一个视频,上线一两天,23.8万的播放。
手册涵盖了目前市面上最全、最新的教程,价值 ¥199 元,
现开始阶段优惠, ¥39.9元。3天内不满意,可以无条件退款。后面随内容更新和销售增加,逐步恢复原价。
喜欢手册的朋友,也可以推荐给朋友,设置了分销比例45%,推荐两册,就相当于白得手册。
点下面👇二维码,长按识别,就可以购买了。
买了手册的朋友,加我微信 foghuang,拉你进AI学习交流群。
可以加入技术琐话读者群,请后台回复:读者群
技术琐话
以分布式设计、架构、体系思想为基础,兼论研发相关的点点滴滴,不限于代码、质量体系和研发管理。