发现各种软件替代方案,找到更适合您的选择

5

开源的AI代码编辑器。使用最佳的AI工具编写代码,可选用任意模型,并完全掌控您的数据。

提供 67 个替代方案

5

Alpaca 是一个 Ollama 客户端,可用来管理并对话多个模型,它为本地 AI 的交互提供了一种简单且对初学者友好的方式。

提供 119 个替代方案

5

Cherry Studio 是一个桌面客户端,支持多个大模型提供商,适用于 Windows、Mac 和 Linux。

提供 33 个替代方案

5

提供本地24/7屏幕和麦克风录制,用于离线AI使用,支持自动化、知识提取和自定义工作流。确保数据完全隐私,兼容Ollama,可在沙箱环境中集成JavaScript插件,并让用户拥有自己的信息。

提供 17 个替代方案

BrowserOS 是一个开源的代理浏览器,可在本地运行 AI 代理。您隐私优先的 Perplexity Comet 替代方案。

提供 11 个替代方案

5

一个开源平台,用于工程任务的无缝自动化,支持本地执行与控制。可与任意大语言模型定制集成,提升自主性,帮助开发者高效完成从调试到部署的任务,同时保障隐私。

提供 83 个替代方案

Maid 是一个跨平台的 Flutter 应用,可本地连接 GGUF / llama.cpp 模型,以及远程连接 Ollama 和 OpenAI 模型。

提供 42 个替代方案

5

功能最直接的本地托管(或API托管)AI代码补全插件,适用于 Visual Studio Code,如 GitHub Copilot 一般好用,但完全免费且完全私密。

提供 56 个替代方案

获取AI驱动的网站创建工具,轻松创建博客和网站。支持Windows、macOS和Linux。

提供 23 个替代方案

你需要在本地主机上运行 Ollama 并加载某个模型。Ollama 启动后,可从 Follamac 或命令行拉取模型。在命令行中输入类似以下内容:Ollama pull llama3 若希望从 Follamac 拉取,可在“模型名称”处输入 llama3

提供 69 个替代方案

Witsy 是一个 BYOK(自带密钥)AI 应用:这意味着您需要拥有想要使用的 LLM 服务提供商的 API 密钥。或者,您可以使用 Ollama 在本地免费运行模型,并在 Witsy 中使用它们。

提供 47 个替代方案

5

为LLM研究人员和爱好者提供无缝控制自托管模型的工具。远程连接、自定义提示、管理对话、微调配置,尽在一款直观的应用程序中。

提供 68 个替代方案

Vinaya Journal 是一款跨平台的日记桌面应用,通过 Ollama 集成本地 AI,并利用 ChromaDB 实现检索增强生成(RAG)流程。它专为离线优先、注重隐私的AI日记设计,确保你的想法始终保存在设备上。

提供 71 个替代方案

Camel Chat 是一个功能丰富的 Flutter 应用程序,旨在为通过 Ollama 服务器提供的大型语言模型(LLMs)提供无缝的通信界面。它为在您自己的硬件上使用开源 AI 模型提供了友好的交互方式。

提供 6 个替代方案

Catalyst 是一款智能的、以桌面为中心、以本地优先的待办事项应用,利用人工智能和艾森豪威尔矩阵帮助您轻松 prioritizing 任务并高效完成工作。

提供 21 个替代方案

ScribePal 是一款开源的智能浏览器扩展,利用人工智能为您提供上下文洞察、内容摘要以及浏览时的互动功能,从而提升您的网络体验。

Alice 是一个使用 Vue.js、Vite 和 Electron 构建的智能桌面 AI 助手应用。具备先进的记忆系统、函数调用、MCP 支持,可选完全本地运行等特性。

5

Shinkai 是一款双击安装的应用程序,通过简单的用户界面,可在5分钟内或更短时间内创建本地AI代理。支持:MCP、远程和本地AI、加密货币与支付。