之前我曾写过一篇关于如何基于 LobeHub 部署个人知识库的文章。有朋友反馈上手难度较高,因此今天我想再推荐一款非常适合我们国人的 AI 助手——Cherry Studio。
这款工具非常易于使用,现已基本完成对 LobeHub 的替代。为什么我现在选择使用它呢?我觉得主要有以下几个优点:
客户端支持
:兼容 macOS 和 Windows 系统,下载安装后便可直接使用,无需复杂的服务部署。数据私有化
:非 SaaS 服务,数据管理更加安全。数据备份
,让信息管理更顺畅相较于 LobeHub,Cherry Studio 唯一不足之处在于多客户端之间的记录同步和合并。但我相信,有了 AI 的加持,这些问题在后续都将迎刃而解(这里先给大家埋个伏笔!)
总之,Cherry Studio 上手简单且功能强大。如果你在寻找一款优秀的 AI 终端应用,我毫不犹豫地推荐它,真的是 YYDS!
打开 Cherry Studio 官方下载页面 https://cherry-ai.com/download,根据你的操作系统进行下载。如果是 macOS 系统,M 系列用户请下载 Apple 芯片版本。
当然,如果你有相关技术,还可以通过官方 GitHub 开源项目下载 CherryHQ/cherry-studio
下载完成后,点击进行安装,过程非常简单。安装完成后,启动 Cherry Studio,开始配置。
Cherry Studio 支持主流大模型服务,配置过程也大同小异,界面上还有相关引导。
以深度求索的 DeepSeek 模型为例进行演示
在第五步这里,是验证你的大模型和 Token 配置正常,如果请求成功,则可以设置启用
整体流程与上述类似,唯一的区别是 Token 地址为空;下图示范的模型是我本地经常进行测试的模型。
需要注意的一点,添加完模型后需要管理,将模型添加上,上面显示的是已经附加了的模型
在许多场景下,我们经常使用中转服务商提供的 AI 网关,以解决特殊因素导致的非必要问题。
大部分 AI 网关支持通用的 OpenAI 格式 AI 请求,因此我在这里选择 OpenAI 进行配置。
整体流程与其他模型相似,同样需要在管理页添加所需使用的模型。
Cherry Studio 允许为不同对话设置不同模型,我们可以在设置中定义默认助手模型。我这里配置的是 GPT-4o-mini
。主要这个模型便宜的很,日常使用没有特别大的问题。
在聊天过程中,当然也可以随时切换不同的模型。
强烈推荐使用搜索引擎,可以免费获取实时信息资讯,配置也相对简单。
这里简单给大家实操一下, 查询北京明天天气情况
虽说是智能体,但更多像单一 Agent 哈,只是内置了相关提词。
生成网页也是轻轻松松, 预览效果如下
默认只能用硅基流动,通常不用它。可以使用 gpt-4o-image 模型生图
Cherry Studio 的个人知识库功能非常实用,下面是配置流程的简要说明:
点击知识库,添加一个知识库
随便添加一些文本
编辑默认助手,勾选知识库
在使用过程中,系统有时能够命中知识库的信息,效果相当不错。
Cherry Studio 支持多种数据备份方式,我推荐使用 WebDAV。如果你有飞牛,可以直接开启 WebDAV 服务;如果没有,也可以用 Docker 部署一个 WebDAV 服务。
docker run -d -e USERNAME=test -e PASSWORD=test -v /data/webdav:/var/webdav -p 8888:80 morrisjobke/webdav
顺便提一句,我利用 AI 解决了 WebDAV 的两个问题:
关于 MCP 部分的内容,下次再分享哈。