打工人救星:打造一个微信全能小助手
CoW是一个基于大模型搭建的聊天助理,支持微信、公众号、企业微信、飞书、钉钉等接入,可选择文心一言/讯飞星火/通义千问/Kimi/LinkAI等作为任务处理模型,能处理文本、语音和图片,访问操作系统和互联网,而且支持基于自有知识库进行定制。
最新版本支持的功能如下:
✅ 多端部署: 有多种部署方式可选择且功能完备,目前已支持微信生态下公众号、企业微信应用、飞书、钉钉等部署方式
✅ 基础对话: 私聊及群聊的消息智能回复,支持多轮会话上下文记忆,支持 文心一言, 讯飞星火, 通义千问,Kimi(月之暗面)等
✅ 语音能力: 可识别语音消息,通过文字或语音回复,支持 azure, baidu等多种语音模型
✅ 图像能力: 支持图片生成、图片识别、图生图(如照片修复),可选择当前已发布的多种模型
✅ 丰富插件: 支持个性化插件扩展,已实现多角色切换、词过滤、聊天记录总结、文档总结和对话、联网搜索等插件
✅ 知识库: 通过上传知识库文件自定义专属机器人,可作为数字分身、智能助手使用,基于 LinkAI 实现
一、准备
项目支持使用 LinkAI 接口,无需代理,可使用文心、讯飞等模型,支持定制化知识库、联网搜索、绘图、文档总结和对话等能力。修改配置即可一键切换,参考接入文档。
2.运行环境 支持 Linux、MacOS、Windows 系统(可在Linux服务器上长期运行),同时需安装 Python。
建议Python版本在 3.7.1~3.9.X 之间,推荐3.8版本,3.10及以上版本在 MacOS 可用,其他系统上不确定能否正常运行。
注意:Docker 部署无需安装python环境和下载源码。
(1) 克隆项目代码:
git clone https://github.com/zhayujie/chatgpt-on-wechat
cd chatgpt-on-wechat/
注: 如遇到网络问题可选择国内镜像 https://gitee.com/zhayujie/chatgpt-on-wechat
(2) 安装核心依赖 (必选):
能够使用itchat创建机器人,并具有文字交流功能所需的最小依赖集合。
pip3 install -r requirements.txt
(3) 拓展依赖 (可选,建议安装):
pip3 install -r requirements-optional.txt
如果某项依赖安装失败可注释掉对应的行再继续
二、配置 配置文件的模板在根目录的config-template.json中,需复制该模板创建最终生效的 config.json 文件:
cp config-template.json config.json
然后在config.json中填入配置,以下是对默认配置的说明,可根据需要进行自定义修改(注意实际使用时请去掉注释,保证JSON格式的完整):
config.json文件内容示例
配置说明:
1.个人聊天
个人聊天中,需要以 "bot"或"@bot" 为开头的内容触发机器人,对应配置项 single_chat_prefix (如果不需要以前缀触发可以填写 "single_chat_prefix": [""])
机器人回复的内容会以 "[bot] " 作为前缀, 以区分真人,对应的配置项为 single_chat_reply_prefix (如果不需要前缀可以填写 "single_chat_reply_prefix": "")
2.群组聊天
群组聊天中,群名称需配置在 group_name_white_list 中才能开启群聊自动回复。
如果想对所有群聊生效,可以直接填写 "group_name_white_list": ["ALL_GROUP"]
默认只要被人 @ 就会触发机器人自动回复;
另外群聊天中只要检测到以 "@bot" 开头的内容,同样会自动回复(方便自己触发),这对应配置项 group_chat_prefix
可选配置: group_name_keyword_white_list配置项支持模糊匹配群名称,group_chat_keyword配置项则支持模糊匹配群消息内容,用法与上述两个配置项相同。
group_chat_in_one_session:
使群聊共享一个会话上下文,配置 ["ALL_GROUP"] 则作用于所有群聊
3.语音识别
添加 "speech_recognition": true 将开启语音识别,将语音识别为文字,同时以文字回复,该参数仅支持私聊 (注意由于语音消息无法匹配前缀,一旦开启将对所有语音自动回复,支持语音触发画图);
添加 "group_speech_recognition": true 将开启群组语音识别,参数仅支持群聊 (会匹配group_chat_prefix和group_chat_keyword, 支持语音触发画图);
添加 "voice_reply_voice": true 将开启语音回复语音(同时作用于私聊和群聊),但是需要配置对应语音合成平台的key,由于itchat协议的限制,只能发送语音mp3文件,若使用wechaty则回复的是微信语音。
4.其他配置
model: 模型名称,目前支持wenxin ,xunfei, moonshot等
对于图像生成,在满足个人或群组触发条件外,还需要额外的关键词前缀来触发,对应配置 image_create_prefix
关于对话及图片接口的参数配置(内容自由度、回复字数限制、图片大小等),可以参考 对话接口 和 图像接口 文档,在config.py中检查哪些参数在本项目中是可配置的。
conversation_max_tokens:
表示能够记忆的上下文最大字数(一问一答为一组对话,如果累积的对话字数超出限制,就会优先移除最早的一组对话)
每分钟最高问答速率、画图速率,超速后排队按序处理。
clear_memory_commands: 对话内指令,主动清空前文记忆,字符串数组可自定义指令别名。
hot_reload: 程序退出后,暂存微信扫码状态,默认关闭。
character_desc 配置中保存着你对机器人说的一段话,他会记住这段话并作为他的设定,你可以为他定制任何人格 (关于会话上下文的更多内容可以查阅 issue)
subscribe_msg:
订阅消息,公众号和企业微信channel中请填写,当被订阅时会自动回复, 可使用特殊占位符。
目前支持的占位符有{trigger_prefix},在程序中它会自动替换成bot的触发词。
5.LinkAI配置 (可选)
use_linkai: 是否使用LinkAI接口,开启后可国内访问,使用知识库和 Midjourney 绘画, 参考 文档
linkai_api_key: LinkAI Api Key,可在 控制台 创建
linkai_app_code: LinkAI 应用code,选填
说明文档可能会未及时更新,当前所有可选的配置项均在该 config.py中列出。
三、运行
1.本地运行
如果 本地运行,直接在项目根目录下执行:
python3 app.py
windows环境下该命令通常为 python app.py
终端输出二维码后,使用微信进行扫码,当输出 "Start auto replying" 时表示自动回复程序已经成功运行了(注意:用于登录的微信需要在支付处已完成实名认证)。扫码登录后你的账号就成为机器人了,可以在手机端通过配置的关键词触发自动回复 (任意好友发送消息给你,或是自己发消息给好友),参考#142。
2.服务器部署 使用nohup命令在后台运行程序:
nohup python3 app.py & tail -f nohup.out # 在后台运行程序并通过日志输出二维码
扫码登录后程序即可运行于服务器后台,此时可通过 ctrl+c 关闭日志,不会影响后台程序的运行。使用 ps -ef | grep app.py | grep -v grep 命令可查看运行于后台的进程,如果想要重新启动程序可以先 kill 掉对应的进程。日志关闭后如果想要再次打开只需输入 tail -f nohup.out。此外,scripts 目录下有一键运行、关闭程序的脚本供使用。
多账号支持: 将项目复制多份,分别启动程序,用不同账号扫码登录即可实现同时运行。
特殊指令: 用户向机器人发送 #reset 即可清空该用户的上下文记忆。
3.Docker部署
使用docker部署无需下载源码和安装依赖,只需要获取 docker-compose.yml 配置文件并启动容器即可。
前提是需要安装好 docker 及 docker-compose,安装成功的表现是执行 docker -v 和 docker-compose version (或 docker compose version) 可以查看到版本号,可前往 docker官网 进行下载。
(1) 下载 docker-compose.yml 文件
wget https://open-1317903499.cos.ap-guangzhou.myqcloud.com/docker-compose.yml
下载完成后打开 docker-compose.yml 修改所需配置,如 OPEN_AI_API_KEY 和 GROUP_NAME_WHITE_LIST 等。
(2) 启动容器
在 docker-compose.yml 所在目录下执行以下命令启动容器:
docker compose up -d
运行 docker ps 能查看到 NAMES 为 chatgpt-on-wechat 的容器即表示运行成功。
注意:
如果 docker-compose 是 1.X 版本 则需要执行 docker-compose up -d 来启动容器
该命令会自动去 docker hub 拉取 latest 版本的镜像,latest 镜像会在每次项目 release 新的版本时生成
最后运行以下命令可查看容器运行日志,扫描日志中的二维码即可完成登录:
docker logs -f chatgpt-on-wechat
(3) 插件使用
如果需要在docker容器中修改插件配置,可通过挂载的方式完成,将 插件配置文件 重命名为 config.json,放置于 docker-compose.yml 相同目录下,并在 docker-compose.yml 中的 chatgpt-on-wechat 部分下添加 volumes 映射:
volumes:
./config.json:/app/plugins/config.json
作者声明本文无利益相关,欢迎值友理性交流,和谐讨论~
隔壁唠王
LinkAI-3.5: 1 积分 = 120 token
LinkAI-4o: 1 积分 = 15 token
LinkAI-4-turbo: 1 积分 = 8 token
LinkAI-4: 1 积分 = 5 token
文心一言: 1 积分 = 120 token
文心一言 V4.0: 1 积分 = 12 token
GLM-4 1 积分 = 12 token
讯飞星火 V3.5: 1 积分 = 50 token
Kimi 8K 1 积分 = 100 token
Kimi 32K 1 积分 = 50 token
Kimi 128K 1 积分 = 20 token
Claude3 Haiku 1 积分 = 150 token
Claude3 Sonnet 1 积分 = 15 token
Claude3 Opus 1 积分 = 5 token
校验提示文案
隔壁唠王
LinkAI-3.5: 1 积分 = 120 token
LinkAI-4o: 1 积分 = 15 token
LinkAI-4-turbo: 1 积分 = 8 token
LinkAI-4: 1 积分 = 5 token
文心一言: 1 积分 = 120 token
文心一言 V4.0: 1 积分 = 12 token
GLM-4 1 积分 = 12 token
讯飞星火 V3.5: 1 积分 = 50 token
Kimi 8K 1 积分 = 100 token
Kimi 32K 1 积分 = 50 token
Kimi 128K 1 积分 = 20 token
Claude3 Haiku 1 积分 = 150 token
Claude3 Sonnet 1 积分 = 15 token
Claude3 Opus 1 积分 = 5 token
校验提示文案