ChatMemOllama 是一个 WeChat公众号 的聊天机器人项目,支持 AI 对话和管理员模式。 包含关键词匹配回答 - AI模式与关键词匹配模式切换 - 优化5秒超时处理 - 微信公众号使用在线/本地AI大模型回答用户 - 函数调用能力 - 目前状态:开发中
创造一个拥有持久记忆的私人AI数字人 像和其他人聊天一样,在微信上即可随时随地开聊
加入开发者群聊,共同进步 885986098
(这个函数调用属于个人用途,每个学校的格式可能有所不同,这里是通过抓包获取的课表信息 如果不会抓包可以试试直接套用我这个格式。)
doc/
chatmemollama/
ChatMemOllama_dev.py
config.json
LICENSE
README.md
Users/
docs/
zh_cn.md
images/
README/
LICENSE
Old_version/
ChatMemOllama.py
JustChat.py
readme.md
README.md
requirements.txt
正式版未发布-不提供具体的依赖安装指南
fastapi
wechatpy
uvicorn
requests
beautifulsoup4
mem0
tavily-Python
您可以使用以下命令安装依赖:
pip install -r
requirements.txt
关于配置的解释
{
"WECHAT_TOKEN": "your_wechat_token",
"APPID": "your_app_id",
"EncodingAESKey": "your_encoding_aes_key",
"AdminID": "your_admin_id",
"mem0config": "your_mem0_config",
"model": "your_model",
"verify_status": "False",
"Tavilykey": "your_tavily_key"
}
这是微信公众号的配置 -- 在URL/wechat 接收信息后转发给本地端口8000(默认)
您可以使用以下命令启动项目:
chatmemollama_dev.py
help
- 查看帮助sudo su
- 进入管理员模式(仅限管理员)AI
- 重新开启 AI 对话exit
- 退出 AI 对话
ps
- 列出正在运行的模型verify_status
- 确认身份(重启后对用户0免鉴权)list
- 列出已有模型models
- 切换模型pull
- 拉取模型exit
- 退出管理员模式help
- 查看管理员命令帮助
欢迎提交问题和贡献代码!请确保您的代码符合项目的编码规范。
本项目使用 Apache2.0 许可证