几天前看到 @歸藏 分享“如何用 Ollama 在 Mac 本地跑 LLM,并且用在 Obsidian 上处理自己的笔记和内容”。教程步骤简洁清晰,无任何报错顺利上手 💪
ollama run mistral
,等待下载完成即可对话(更多模型见项目仓库)但,第三步 Obsidian Ollama 插件不给力!
遂,自己动手,丰衣足食:
「Obsidian Ollama 折腾版」:https://github.com/lmm214/obsidian-ollama
mistral
OLLAMA_ORIGINS=*,app://obsidian.md* OLLAMA_HOST=127.0.0.1:11435 ollama serve
command + P
模型大小是 4.1GB,运行时内存占用也差不多6G,Mac mini M2 16G 下,解释一个概念、翻译一句话等待 10+ 秒,总结千字文等待约 1~2 分钟。
搭配另一个插件一起使用也不错 BMO Chatbot for Obsidian ,它可以在侧边栏中对当前文档进行对话。