gpt4all | 27.3k | 一个聊天机器人接受了大量干净的助手数据的训练,包括代码、故事和对话 | 1. 本地训练,调教 |
gpt4all-ui | 1k | gpt4all的ui界面 | 1. 使用ui界面本地训练,调教,使用 |
Open-Assistant | 22.0k | OpenAssistant是一个基于聊天的助手,可以理解任务,可以与第三方系统交互,并动态检索信息。 | Open Assistant 是一个旨在让每个人都能访问基于聊天的大型语言模型的项目。 |
stanford_alpaca | 19.8k | 斯坦福的羊驼模型(羊驼) | |
ChatGLM-6B | 16.0k | 清华大学研发的产品,ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型 | 1.62 亿参数2.用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存) |
minGPT | 14.3k | karpathy大神发布的一个 OpenAI GPT(生成预训练转换器)训练的最小 PyTorch 实现,代码十分简洁明了,适合用于动手学习 GPT 模型。 | |
FastChat | 12.5k | 一个用于训练、服务和评估基于大型语言模型的聊天机器人的开放平台。(小羊驼) | 1.斯坦福联手CMU、UC伯克利等机构的学者再次发布了130亿参数模型骆马(Vicuna),仅需300美元就能实现ChatGPT 90%的性能。 |
alpaca-lora | 9.2k | 轻量级 ChatGPT 的开源实现,小羊驼-lora | 1. 使用了LoRA轻量级模型2.只需要训练很小一部分参数就可以获得媲美 Standford Alpaca 模型的效果3.要RTX 4090才能玩 |
OpenChatKit | 7.5k | 前OpenAI团队打造,OpenChatKit提供了一个强大的开源基础,可以为各种应用程序创建专门的和通用的聊天机器人。 | 1.200亿参数的语言模型2.用户只需准备自己的数据集,并使用OpenChatKit的配方来微调模型即可获得高精度的结果。 |
text-generation-webui | 7.3k | 一个用于运行大型语言模型(如GPT-J 6B, OPT, GALACTICA, LLaMA和Pygmalion)的梯度web UI | |
PaLM-rlhf-pytorch | 6.3k | 在PaLM架构之上实现RLHF(带人类反馈的强化学习)。基本上是ChatGPT,但有PaLM。 | |
ChatRWKV | 5.7k | ChatRWKV是对标ChatGPT的开源项目,希望做"大规模语言模型的Stable Diffusion" | |
dolly | 4.4k | Databricks的Dolly是一个在Databricks机器学习平台上训练的大型语言模型 | 1.Dolly 使用 Alpaca 数据,对两年前的开源EleutherAI 60亿参数模型进行微调 |
Chinese-LLaMA-Alpaca | 4.1k | 中文LLaMA&Alpaca大语言模型+本地部署 | 1.🚀 开源了经过中文文本数据预训练的中文LLaMA大模型🚀 开源了进一步经过指令精调的中文Alpaca大模型🚀 快速地使用笔记本电脑(个人PC)本地部署和体验量化版大模型 |
BELLE | 3.7k | 开源中文对话大模型 | 1.现阶段本项目基于一些开源预训练大语言模型(如BLOOM、LAMMA等),针对中文做了优化,模型调优仅使用由ChatGPT生产的数据(不包含任何其他数据)。 |
trlx | 2.9k | 一个通过人类反馈强化学习(RLHF)对语言模型进行分布式训练的repo | 1.支持高达20b参数的在线RL和更大模型的离线RL。基本上就是你用来微调GPT到ChatGPT的项目 |
lit-llama | 2.4k | Lightning-AI 基于nanoGPT的LLaMA语言模型的实现。支持量化,LoRA微调,预训练。 | |
LLaMA-Adapter | 2.1k | 高效微调一个聊天机器人:LLaMA-Adapter🚀 | 1.LLaMA在1小时内按照指示和1.2M参数进行微调 |
KoboldAI-Client | 1.7k | KoboldAI-你通往GPT写作的大门 | 这是一个基于浏览器的前端I -辅助写作与多个本地和远程I模型 |
ChatYuan | 1.3k | 国产的支持中英双语的功能型对话语言大模型:ChatYuan | 1.ChatYuan-large-v2是ChatYuan系列中以轻量化实现高质量效果的模型之一,用户可以在消费级显卡、 PC甚至手机上进行推理(INT4 最低只需 400M )。 |
wenda | 801 | 闻达:一个大规模语言模型调用平台 | 1.目前支持模型:chatGLM-6B、chatRWKV、chatYuan。 |
| | 2.知识库自动查找 | |
| | 3.支持参数在线调整 | |
minChatGPT | 114 | 微型版ChatGPT,一个将语言模型与类似ChatGPT的RLHF对齐的最小示例 | |