发现各种软件替代方案,找到更适合您的选择
★5
Alpaca 是一个 Ollama 客户端,可用来管理并对话多个模型,它为本地 AI 的交互提供了一种简单且对初学者友好的方式。
提供 119 个替代方案
★5
Cherry Studio 是一个桌面客户端,支持多个大模型提供商,适用于 Windows、Mac 和 Linux。
提供 33 个替代方案
★5
一个开源平台,用于工程任务的无缝自动化,支持本地执行与控制。可与任意大语言模型定制集成,提升自主性,帮助开发者高效完成从调试到部署的任务,同时保障隐私。
提供 83 个替代方案
★5
功能最直接的本地托管(或API托管)AI代码补全插件,适用于 Visual Studio Code,如 GitHub Copilot 一般好用,但完全免费且完全私密。
提供 56 个替代方案
你需要在本地主机上运行 Ollama 并加载某个模型。Ollama 启动后,可从 Follamac 或命令行拉取模型。在命令行中输入类似以下内容:Ollama pull llama3 若希望从 Follamac 拉取,可在“模型名称”处输入 llama3
提供 69 个替代方案
★5
为LLM研究人员和爱好者提供无缝控制自托管模型的工具。远程连接、自定义提示、管理对话、微调配置,尽在一款直观的应用程序中。
提供 68 个替代方案
Camel Chat 是一个功能丰富的 Flutter 应用程序,旨在为通过 Ollama 服务器提供的大型语言模型(LLMs)提供无缝的通信界面。它为在您自己的硬件上使用开源 AI 模型提供了友好的交互方式。
提供 6 个替代方案





