发现各种软件替代方案,找到更适合您的选择

原生仅支持 Apple Silicon 的本地 LLM 服务器。类似于 Ollama,但基于 Apple 的 MLX 构建,以在 M 系列芯片上实现最佳性能。使用 SwiftUI 应用和 SwiftNIO 服务器,提供兼容 OpenAI 的接口。

一个智能的,不,是聪明的,好的,不笨的智能栏用于 Ollama。