发现各种软件替代方案,找到更适合您的选择
Alpaca 是一个 Ollama 客户端,可用来管理并对话多个模型,它为本地 AI 的交互提供了一种简单且对初学者友好的方式。
提供 119 个替代方案
Cherry Studio 是一个桌面客户端,支持多个大模型提供商,适用于 Windows、Mac 和 Linux。
提供 33 个替代方案
提供本地24/7屏幕和麦克风录制,用于离线AI使用,支持自动化、知识提取和自定义工作流。确保数据完全隐私,兼容Ollama,可在沙箱环境中集成JavaScript插件,并让用户拥有自己的信息。
提供 17 个替代方案
一个开源平台,用于工程任务的无缝自动化,支持本地执行与控制。可与任意大语言模型定制集成,提升自主性,帮助开发者高效完成从调试到部署的任务,同时保障隐私。
提供 83 个替代方案
Maid 是一个跨平台的 Flutter 应用,可本地连接 GGUF / llama.cpp 模型,以及远程连接 Ollama 和 OpenAI 模型。
提供 42 个替代方案
功能最直接的本地托管(或API托管)AI代码补全插件,适用于 Visual Studio Code,如 GitHub Copilot 一般好用,但完全免费且完全私密。
提供 56 个替代方案
获取AI驱动的网站创建工具,轻松创建博客和网站。支持Windows、macOS和Linux。
提供 23 个替代方案
你需要在本地主机上运行 Ollama 并加载某个模型。Ollama 启动后,可从 Follamac 或命令行拉取模型。在命令行中输入类似以下内容:Ollama pull llama3 若希望从 Follamac 拉取,可在“模型名称”处输入 llama3
提供 69 个替代方案
Witsy 是一个 BYOK(自带密钥)AI 应用:这意味着您需要拥有想要使用的 LLM 服务提供商的 API 密钥。或者,您可以使用 Ollama 在本地免费运行模型,并在 Witsy 中使用它们。
提供 47 个替代方案
为LLM研究人员和爱好者提供无缝控制自托管模型的工具。远程连接、自定义提示、管理对话、微调配置,尽在一款直观的应用程序中。
提供 68 个替代方案
Vinaya Journal 是一款跨平台的日记桌面应用,通过 Ollama 集成本地 AI,并利用 ChromaDB 实现检索增强生成(RAG)流程。它专为离线优先、注重隐私的AI日记设计,确保你的想法始终保存在设备上。
提供 71 个替代方案
Camel Chat 是一个功能丰富的 Flutter 应用程序,旨在为通过 Ollama 服务器提供的大型语言模型(LLMs)提供无缝的通信界面。它为在您自己的硬件上使用开源 AI 模型提供了友好的交互方式。
提供 6 个替代方案
Catalyst 是一款智能的、以桌面为中心、以本地优先的待办事项应用,利用人工智能和艾森豪威尔矩阵帮助您轻松 prioritizing 任务并高效完成工作。
提供 21 个替代方案
Alice 是一个使用 Vue.js、Vite 和 Electron 构建的智能桌面 AI 助手应用。具备先进的记忆系统、函数调用、MCP 支持,可选完全本地运行等特性。















