GPT插件-第三方应用及开源平替机器人(建议收藏)

GPT是一种基于自然语言处理技术的预训练模型,可以用于生成文本、问答和机器翻译等任务。GPT插件通常是指将GPT模型集成到现有的软件或应用中,以实现自然语言处理的功能。例如,在聊天机器人、智能客服、智能写作和内容生成等领域,GPT插件可以用来生成文本、回答问题、进行翻译等任务。需要注意的是,GPT插件通常需要一定的硬件和软件资源支持,才能实现高效的自然语言处理能力。

file

GPT插件-第三方应用

名称 github地址 点赞数 简介 功能
编辑器-vscode插件 chatgpt-vscode 4.3k 一个允许你使用ChatGPT的VSCode扩展 1.使用编辑器中的代码片段通过侧栏中的输入框查询ChatGPT2.右键单击代码选择并运行其中一个上下文菜单快捷方式3.在编辑器旁边的面板中查看ChatGPT的响应
编辑器-Neovim插件 ChatGPT.nvim 1.5k 用于与OpenAI GPT-3聊天机器人交互的Neovim插件 1.命令打开交互窗口2.支持Awesome ChatGPT Prompts指令
编辑器-IDA Pro插件 Gepetto 2.1k 一个接入了ChatGPT接口的IDA Pro插件 1.支持解释函数2.支持重命名变量
编辑器-JetBrains插件 JetBrains-插件 679 支持ChatGPT在JetBrains系列IDE上运行的一款插件 1.使用编辑器中的代码片段通过侧栏中的输入框查询ChatGPT2.右键单击代码选择并运行其中一个上下文菜单快捷方式3.在编辑器旁边的面板中查看ChatGPT的响应
编辑器-intellij插件 intellij-chatgpt 96 一个将ChatGPT和其他第三方镜像网站整合到JetBrains IDEs 的插件。 1.集成免费的第三方镜像网站,并且更新方便。
效率工具-raycast插件 chatgpt-raycast 464 一个raycast的ChatGPT插件 1.使用Mac快捷键直接唤起ChatGPT进行对话2.自定义对话指令
谷歌文档插件 docGPT 501 ChatGPT直接在谷歌文档作为编辑器插件 1.ChatGPT直接集成到谷歌Docs中2.选中doc一键发送给chatgpt
Kubernetes插件-01 kubernetes-chatgpt-bot 542 使用ChatGPT解决Kubernetes问题 1.向ChatGPT直接发生Prometheus警报询问如何修复告警2.依赖可观测性神器robusta
Kubernetes插件-02 kubectl-ai 590 这个项目是一个kubectl插件,使用OpenAI GPT生成和应用Kubernetes清单 1.用自然语言生成Kubernetes配置
github插件-01 ChatGPT-CodeReview 1.4k github的代码审查机器人 1.让ChatGPT自动reviewCode2.让chatgpt检查你的PR
github插件-02 chatgpt-action 488 github的codeReview插件 1.让ChatGPT自动reviewCode2.让chatgpt检查你的PR
小爱插件 xiaogpt 2.7k 在小爱音响上接入ChatGPT 1.使用小米AI扬声器播放ChatGPT
3D软件Blender插件 BlenderGPT 3.2k 在Blender上接入ChatGPT 1.在只需要输入文本,即可快速构建3D模型
Siri插件 ChatGPT-Siri 2.6k 通过 Siri 启动「快捷指令」连接 ChatGPT API,让 Siri 变身 AI 聊天助手 1.支持连续对话2.配置系统prompt3.保存聊天记录

GPT开源平替机器人

github地址 点赞数 简介 功能
gpt4all 27.3k 一个聊天机器人接受了大量干净的助手数据的训练,包括代码、故事和对话 1. 本地训练,调教
gpt4all-ui 1k gpt4all的ui界面 1. 使用ui界面本地训练,调教,使用
Open-Assistant 22.0k OpenAssistant是一个基于聊天的助手,可以理解任务,可以与第三方系统交互,并动态检索信息。 Open Assistant 是一个旨在让每个人都能访问基于聊天的大型语言模型的项目。
stanford_alpaca 19.8k 斯坦福的羊驼模型(羊驼)
ChatGLM-6B 16.0k 清华大学研发的产品,ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型 1.62 亿参数2.用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)
minGPT 14.3k karpathy大神发布的一个 OpenAI GPT(生成预训练转换器)训练的最小 PyTorch 实现,代码十分简洁明了,适合用于动手学习 GPT 模型。
FastChat 12.5k 一个用于训练、服务和评估基于大型语言模型的聊天机器人的开放平台。(小羊驼) 1.斯坦福联手CMU、UC伯克利等机构的学者再次发布了130亿参数模型骆马(Vicuna),仅需300美元就能实现ChatGPT 90%的性能。
alpaca-lora 9.2k 轻量级 ChatGPT 的开源实现,小羊驼-lora 1. 使用了LoRA轻量级模型2.只需要训练很小一部分参数就可以获得媲美 Standford Alpaca 模型的效果3.要RTX 4090才能玩
OpenChatKit 7.5k 前OpenAI团队打造,OpenChatKit提供了一个强大的开源基础,可以为各种应用程序创建专门的和通用的聊天机器人。 1.200亿参数的语言模型2.用户只需准备自己的数据集,并使用OpenChatKit的配方来微调模型即可获得高精度的结果。
text-generation-webui 7.3k 一个用于运行大型语言模型(如GPT-J 6B, OPT, GALACTICA, LLaMA和Pygmalion)的梯度web UI
PaLM-rlhf-pytorch 6.3k 在PaLM架构之上实现RLHF(带人类反馈的强化学习)。基本上是ChatGPT,但有PaLM。
ChatRWKV 5.7k ChatRWKV是对标ChatGPT的开源项目,希望做"大规模语言模型的Stable Diffusion"
dolly 4.4k Databricks的Dolly是一个在Databricks机器学习平台上训练的大型语言模型 1.Dolly 使用 Alpaca 数据,对两年前的开源EleutherAI 60亿参数模型进行微调
Chinese-LLaMA-Alpaca 4.1k 中文LLaMA&Alpaca大语言模型+本地部署 1.🚀 开源了经过中文文本数据预训练的中文LLaMA大模型🚀 开源了进一步经过指令精调的中文Alpaca大模型🚀 快速地使用笔记本电脑(个人PC)本地部署和体验量化版大模型
BELLE 3.7k 开源中文对话大模型 1.现阶段本项目基于一些开源预训练大语言模型(如BLOOM、LAMMA等),针对中文做了优化,模型调优仅使用由ChatGPT生产的数据(不包含任何其他数据)。
trlx 2.9k 一个通过人类反馈强化学习(RLHF)对语言模型进行分布式训练的repo 1.支持高达20b参数的在线RL和更大模型的离线RL。基本上就是你用来微调GPT到ChatGPT的项目
lit-llama 2.4k Lightning-AI 基于nanoGPT的LLaMA语言模型的实现。支持量化,LoRA微调,预训练。
LLaMA-Adapter 2.1k 高效微调一个聊天机器人:LLaMA-Adapter🚀 1.LLaMA在1小时内按照指示和1.2M参数进行微调
KoboldAI-Client 1.7k KoboldAI-你通往GPT写作的大门 这是一个基于浏览器的前端I -辅助写作与多个本地和远程I模型
ChatYuan 1.3k 国产的支持中英双语的功能型对话语言大模型:ChatYuan 1.ChatYuan-large-v2是ChatYuan系列中以轻量化实现高质量效果的模型之一,用户可以在消费级显卡、 PC甚至手机上进行推理(INT4 最低只需 400M )。
wenda 801 闻达:一个大规模语言模型调用平台 1.目前支持模型:chatGLM-6B、chatRWKV、chatYuan。
2.知识库自动查找
3.支持参数在线调整
minChatGPT 114 微型版ChatGPT,一个将语言模型与类似ChatGPT的RLHF对齐的最小示例
解决百度统计被恶意刷垃圾广告搜索词行为
2023最新谷歌Google全球短信激活注册
标签:

发表我的评论

电子邮件地址不会被公开。 必填项已用*标注

76 + 10 =

ajax-loader