发现各种软件替代方案,找到更适合您的选择

筛选条件

展开

排序方式

热度排序评价排序名称排序最新排序
Farfalle
Farfalle

5

开源的AI驱动问答引擎。

提供 103 个替代方案

Open WebUI
Open WebUI

,

4

Open WebUI 是一个可扩展、功能丰富且易于使用的本地自托管 AI 平台,可完全离线运行。它支持 Ollama 等多种大语言模型运行器以及与 OpenAI 兼容的 API,内置 RAG 的推理引擎,使其成为强大的 AI 部署解决方案。

提供 27 个替代方案

AnythingLLM
AnythingLLM

,

2.3

适用于任何大语言模型和向量数据库的多用户 ChatGPT。在一个注重隐私的应用程序中,支持无限文档、消息和存储。现已推出桌面应用程序!

提供 152 个替代方案

Alpaca - Ollama Client
Alpaca - Ollama Client

,

5

Alpaca 是一个 Ollama 客户端,你可以通过它管理并和多个模型进行交互。Alpaca 为与本地人工智能进行互动提供了一种简单且对初学者友好的方式。

提供 113 个替代方案

Void
Void

,

5

开源的AI代码编辑器。使用最优秀的AI工具编写代码,可选用任意模型,并始终对您的数据保持完全控制。

提供 64 个替代方案

Cherry Studio
Cherry Studio

,

4.7

Cherry Studio 是一个桌面客户端,支持多种大语言模型提供商,可在 Windows、Mac 和 Linux 系统上使用。

提供 32 个替代方案

screenpipe
screenpipe

,

5

提供本地全天候屏幕和麦克风录制,用于离线AI使用,支持自动化、知识提取和自定义工作流。确保数据完全隐私,兼容Ollama,可在沙箱环境中集成JavaScript插件,并让用户拥有自己的信息。

提供 17 个替代方案

Ollama App
Ollama App

,

Ollama 的一款现代且易于使用的客户端。

提供 80 个替代方案

BrowserOS
BrowserOS

BrowserOS 是一个开源的智能浏览器,可在本地运行 AI 助手。Perplexity Comet 的隐私优先替代方案。

提供 10 个替代方案

codename goose
codename goose

5

一个开源平台,可实现工程任务的无缝自动化,支持本地执行与控制。可通过任意大语言模型进行定制,提升自主性,使开发者能够高效处理从调试到部署的全流程任务,同时保障隐私安全。

Maid (AI)
Maid (AI)

,

Maid 是一个跨平台的 Flutter 应用,可用于本地连接 GGUF/llama.cpp 模型,也可远程连接 Ollama 和 OpenAI 模型。

Onit AI Copilot
Onit AI Copilot

Onit AI Copilot 提供了一款功能全面的桌面人工智能聊天助手,支持本地处理和多服务商接入。该产品完全在设备端运行,无需联网,优先保障定制化、可扩展性以及用户隐私,确保数据安全。

Paperless AI
Paperless AI

,

一个用于 Paperless-ngx 的自动化文档分析器,利用 OpenAI API、Ollama、Deepseek-r1、Azure 以及所有兼容 OpenAI API 的服务,自动分析并标记您的文档。

LLMChat
LLMChat

,

4

LLMChat 提供了一个多功能平台,可与各种 AI 模型互动,通过插件提升您的体验,并创建定制助手。

Twinny
Twinny

5

适用于 Visual Studio Code 的最务实的本地运行(或 API 运行)AI 代码补全插件,类似于 GitHub Copilot,但完全免费且完全私有。

PRSS Site Creator
PRSS Site Creator

获取由人工智能驱动的网站创建工具。轻松搭建博客和网站。支持 Windows、macOS 和 Linux 系统。

Alter
Alter

,

您的多功能人工智能伙伴,专为提升 macOS 系统下的工作效率和简化任务而设计。

Apollo AI
Apollo AI

,

支持私有设备上AI模型聊天的可定制界面,支持开源和闭源LLM连接,支持OpenRouter,支持自定义后端,实现无需依赖单一提供商的语言模型统一访问,确保隐私性和灵活性。

MindMac
MindMac

,

1

专为 macOS 用户设计的、以用户友好、注重隐私和高度可定制为特点的原生 ChatGPT 应用。支持 OpenAI、Azure OpenAI、Anthropic Claude 及 OpenRouter。通过 Ollama 实现本地大语言模型。

Follamac
Follamac

,

你需要在本地主机上运行 Ollama,并加载一个模型。Ollama 启动后,模型可以从 Follamac 或命令行中拉取。通过命令行输入类似以下内容:Ollama pull llama3。如果你希望从 Follamac 中拉取模型,可以在“模型名称到...”处输入 llama3。

1-20 / 38