简体中文 | English
该项目的API接口兼容openai, 各类使用openai的开源项目能够非常方便适配, 此外我也呼吁大家使用相似的方式开发兼容性API接口, 便于相关应用的发展
前往release下载封装过的包
使用update.bat
更新本程序 (不含模型)
定义ngrok_token
环境变量以将API暴露到外网
前往 https://github.com/josStorer/chatGPTBox, 并切换至如下API模式即可快速体验:
-
- 8MB在线安装程序
- 百度网盘
- 前往RWKV-Runner查看详情介绍
-
- 离线包,
可选百度网盘
- 该包基于ChatGLM, 遵循Apache-2.0协议开源, 内置模型为 https://huggingface.co/silver/chatglm-6b-int4-slim 的裁切版
- 解压后直接双击对应模型文件运行, 例如
llama.bat
启动llama模型,chatglm.bat
启动chatglm模型
- 自托管
- 点击上方链接进入Huggingface, 复制空间, 将CPU切换到第二个八核进行快速体验,
此时API地址为,
你的名字-仓库名.hf.space
, 例如我复制后名字设为test
, 那么我的url就是https://josstorer-test.hf.space/chat/completions
- 点击上方链接进入Huggingface, 复制空间, 将CPU切换到第二个八核进行快速体验,
此时API地址为,
- 配合ChatGPTBox使用时, 需要将模型名设为
chatglm-6b-int4
- 离线包,
可选百度网盘
-
- 离线包,
可选百度网盘
- 该包基于llama.cpp, 内置命令行交互示例为我修改的版本, 以支持windows的unicode输入, 内置模型来自Chinese-LLaMA-Alpaca
- github离线包请自己在wsl或linux环境下, 执行
get_llama_model.sh
获取模型, 如果已有模型的, 直接替换models/llama.cpp/ggml-model-q4_0.bin
文件即可 - 百度网盘离线包, 解压后直接双击对应模型批处理文件运行, 例如
llama.bat
启动llama模型,chatglm.bat
启动chatglm模型
- 配合ChatGPTBox使用时, 需要将模型名设为
llama-7b-int4
- 离线包,
可选百度网盘
- stable-diffusion-webui
- 该项目自带了一键安装程序, 下载地址: https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/download/v1.0.0-pre/sd.webui.zip
- 其他系统安装说明: https://github.com/AUTOMATIC1111/stable-diffusion-webui#installation-and-running
- 对于windows, 下载了上述程序并解压后, 双击运行
update.bat
, 再运行run.bat
即可, 后续启动均直接运行run.bat
( 至少下载一个模型才能正常启动) - 你可以在 https://civitai.com/ 找到你想使用的模型, 并下载, 将模型放置在
webui\models\Stable-diffusion
路径下, 将VAE模型放置在webui\models\VAE
路径下 - 接着, 打开浏览器, 并访问
http://127.0.0.1:7860/
即可 - 你可能需要在
Settings -> Stable Diffusion -> SD VAE
设置你下载的VAE
- text-generation-webui
- 该项目自带了一键安装程序, 下载地址: https://github.com/oobabooga/text-generation-webui#one-click-installers, 选择你的系统对应的zip下载即可
- 闻达