查看原文
其他

整理:开源LLM,可微调的项目列表

于游 技术琐话 2023-11-10

转自 |于游的碎碎念

我们都知道openAI不open,昨天我还在TGO的AIGC讨论群里分享了,openai鲜有发布的关于llm下数学计算的论文。论文中,openAI把过程监督 代替结果监督模拟人类思维逻辑过程,用于数学推理。这也是大语言模型的训练趋势,整个人类社会都缺少过程的数据,大部分的数据都是结果数据。大胆预测一下,下一步,过程数据的整理和完善,会成为模型训练的重点。

这个虽然不是本文的重点,我还没时间完整阅读完这个论文,感兴趣的同学自取:

paper:https://cdn.openai.com/improving-mathematical-reasoning-with-process-supervision/Lets_Verify_Step_by_Step.pdf

blog: https://openai.com/research/improving-mathematical-reasoning-with-process-supervision

dataset: https://github.com/openai/prm800k

那我们今天要给大家总结一下,我所能总结出来的开源可微调的大语言模型项目,也希望大家不断讨论,补充。毕竟几天时间就出一个,已经测试不过来了。另外我没想明白,应该如何分类,参考了 国外的文章和知乎的帖子,如果大家有更好的分类方法 欢迎私信和我讨论。

上图来自于论文(https://arxiv.org/abs/2303.18223)大语言模型综述

LLaMA (Meta)系列衍生


项目
说明
地址
  • Stanford Alpaca:

  • 斯坦福的一个指令调优的LLAMA模型,效果惊艳,7B版本炒的比较火


  • LLaMA Website: Introducing LLaMA: A foundational, 65-billion-parameter language model (facebook.com)

  • Alpaca Website: https://crfm.stanford.edu/2023/03/13/alpaca.html

  • Alpaca GitHub: https://github.com/tatsu-lab/stanford_alpaca

  • 可否商用: No


alpaca.cpp
号称在本地设备可运行的LLM模型。也是来自于llama案例可以跑在 M2 Macbook Air上。
  • GitHub: https://github.com/antimatter15/alpaca.cpp    ‍

alpaca-LoRA基于alpaca 的LoRA调试版本,而且代码还可以在树莓派上运行


  • GitHub: https://github.com/tloen/alpaca-lora

  • Demo: https://huggingface.co/spaces/tloen/alpaca-lora



Baize V2

也是一个fine-tuned with LoRA的版本,使用了100K的GPT数据,做自对话 ,还使用了Alpaca来提高性能,目前提供了7b,13b的版本Github:

https://github.com/project-baize/baize-chatbo

t
paper:https://arxiv.org/pdf/2304.01196.pdf


Cabrita

一个葡萄牙语fine-tuned的llama版本
Github:https://github.com/22-hours/cabrita
Chinese-LLaMA-Alpaca

LLaMA的基础上,扩展了中文词汇量,并使用中文数据进行二次预训练,进一步提高了对中文的基本语义理解。文档很全,支持推理。github:https://github.com/ymcui/Chinese-LLaMA-Alpaca/

Chinese-Vicuna

可以在3090和2080上跑的7b和13B的中文模型,
Github:https://github.com/Facico/Chinese-Vicuna

GPT4-x-Alpaca

LLaMA 13B 模型,使用 GPT4 对话集合 GPTeacher 进行了微调

Hugging Face:https://huggingface.co/chavinlo/gpt4-x-alpaca

Gorilla

UC伯克利和微软研究院的项目,用以使用开源的模型,做大语言模型的

API Appstore

值得好好看看项目


官网:https://gorilla.cs.berkeley.edu/

Github:https://github.com/ShishirPatil/gorilla

权重托管:https://huggingface.co/gorilla-llm

gpt4-x-vicuna-13b

进行了大约 180k 条指令,全部来自 GPT-4,的微调huggingface:https://huggingface.co/NousResearch/gpt4-x-vicuna-13b

GPT4All

基于 LLaMa 的约 800k GPT-3.5-Turbo进行了训练

Githubhttps://github.com/nomic-ai/gpt4all


Koala

LLaMA 之上微调的语言模

也是伯克利的一个实验项目


blog:https://bair.berkeley.edu/blog/2023/04/03/koala/

Github:https://github.com/young-geng/EasyLM/blob/main/docs/koala.md


OpenAlpaca

Apache 2.0 许可,旨在构建和共享基于 OpenLLaMA 的指令跟随模型https://github.com/yxuansu/OpenAlpaca

Vicuna

通过微调 LLaMA 对从 ShareGPT 收集的用户共享对话进行训练。使用 GPT-4 作为判断的初步评估表明,Vicuna-13B 达到了 OpenAI ChatGPT 和 Google Bard 90%* 以上的质量,同时在超过 90%* 的情况下优于 LLaMA 和 Stanford Alpaca 等其他官网https://lmsys.org/blog/2023-03-30-vicuna/

StableVicuna

通过强化学习人类反馈 (RHLF) 进行训练的大型开源聊天机器人官网:https://stability.ai/blog/stablevicuna-open-source-rlhf-chatbot

OpenLLaMA

 RedPajama 数据集上训练的 Meta AI 的 LLaMA 7B 的许可开源复制品github:https://github.com/openlm-research/open_llama

StableLM

StableVicuna 是Vicuna-13B v0的 RLHF 微调,它本身是LLaMA-13B的微调https://github.com/stability-AI/stableLM/


  • bloom生态

BLOOM

它能够以 46 种语言和 13 种编程语言输出连贯的文本https://huggingface.co/bigscience/bloom

BLOOMZ

多任务微调版本的bloom,但是实际效果,从评测报告上并没有提升太多
https://huggingface.co/bigscience/bloomz

BLOOM-LoRA

 Instruct-Tuning 数据集

https://github.com/linhduongtuan/BLOOM-LORA

Petals

使用分布式 176B 参数BLOOM或BLOOMZ生成文本,https://github.com/bigscience-workshop/petals

google生态

PaLM

google没有开源,但是网友给了一个开源版本~~~
https://github.com/conceptofmind/PaLM

Flamingo — Pytorch


在 Pytorch 中实现Flamingohttps://github.com/lucidrains/flamingo-pytorch

OpenFlamingo

DeepMind Flamingo模型的开源版本https://github.com/mlfoundations/open_flamingo

FLAN 

此存储库包含用于生成指令调整数据集集合的代码https://github.com/google-research/FLAN

Flan-Alpaca

该存储库包含用于将Stanford Alpaca 合成指令调优扩展到现有指令调优模型(例如Flan-T5)的代码https://github.com/declare-lab/flan-alpaca

Flan-UL2

Flan-UL2是基于该T5架构的编码解码器模型https://huggingface.co/google/flan-ul2

其他有趣的

ChatGLM-6B

ChatGLM-6B 使用类似于 ChatGPT 的技术,针对中文 QA 和对话进行了优化。该模型针对约 1T 的中英文语料库进行训练,并辅以监督微调、反馈引导和人类反馈强化学习。Github:https://github.com/THUDM/ChatGLM-6B

GPT-J 

为了在TPUv3 上扩展至大约 40B 参数而设计https://github.com/kingoflolz/mesh-transformer-jax/#gpt-j-6b

Dolly 2.0

可以商用的大模型 7B 3B
https://huggingface.co/databricks

GPT-NeoX 

基于 NVIDIA 的Megatron 语言模型,并通过DeepSpeed的技术进行增强https://github.com/EleutherAI/gpt-neox
RWKV是具有 Transformer 级 LLM 性能的 RNN。它可以像 GPT(可并行化)一样直接训练。因此,它结合了 RNN 和 Transformer 的优点——出色的性能、快速推理、节省 VRAM、快速训练、“无限”ctx_len 和自由句子嵌入。https://github.com/BlinkDL/RWKV-LM
h2oGPT支持LangChainhttps://github.com/h2oai/h2ogpt
HuggingGPTHuggingGPT 是一个协作系统,由作为控制器的 LLM 和作为协作执行者的众多专家模型组成(来自 HuggingFace Hub)https://github.com/microsoft/JARVIS
XrayGLMx光片识别到GLM中
https://github.com/WangRongsheng/XrayGLM


这个列表参考了一些文章和知乎,说实话,整理这个比阅读论文 累多了……




最近关注的朋友越来越多,还有朋友问用 ChatGPT 能做什么?学了AI感觉没有地方可以用。AI 对我真的有红利吗?国内能不能用啊?


考虑到各种朋友们的问题,我联合了两位大咖,共同开发设计了:《AI启航实用变现手册》,提供各类AI工具使用教程及变现方法和路径。


同时还在筹备知识星球的建设,以及赠送给会员的福利AI产品:不用魔法,体验AI 智能聊天,AI 绘画,保证学会工具的使用后,可以上手实际操作。


我们的目标解决朋友们 AI 学习中的四个核心问题:信息差,认知差,执行差,人脉差。

手册初稿含两方面的内容:一、如何利用AI去提升效率;二、用AI变现指南

变现部分是实际实打实的操作记录和赚钱过程拆解,初版就共15万字,内容将来还会持续更新,将来还会带领朋友们进行实际的操作。

这个是抖音的一个视频,上线一两天,23.8万的播放。


手册涵盖了目前市面上最全、最新的教程,价值 ¥199 元,

现开始阶段优惠, ¥39.9元。3天内不满意,可以无条件退款。后面随内容更新和销售增加,逐步恢复原价。

喜欢手册的朋友,也可以推荐给朋友,设置了分销比例45%,推荐两册,就相当于白得手册。

点下面👇二维码,长按识别,就可以购买了。



买了手册的朋友,加我微信 foghuang,拉你进AI学习交流群。


可以加入技术琐话读者群,请后台回复:读者群


技术琐话 



以分布式设计、架构、体系思想为基础,兼论研发相关的点点滴滴,不限于代码、质量体系和研发管理。

继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存