LocalAI

软件描述

即插即用的 OpenAI 替代方案,本地设备运行,以本地为中心,可生成文本、图像、语音、音乐等。后端无关:(llama.cpp、diffusers、bark.cpp 等),可选分布式推理(点对点/联邦学习)。

官方网站

访问软件的官方网站了解更多信息

官方认证

localai.io

安全链接HTTPS

什么是 LocalAI?

OpenAI API 的即插即用替代方案,可在消费级硬件上实现本地或私有部署推理,支持多种模型家族和后端,兼容 GGUF 等标准格式。
简而言之:

本地部署、可直接替代 OpenAI 的 REST API。你完全拥有你的数据。

无需 GPU,支持本地/设备端推理(离线运行)。

可选地,支持在兼容 llama.cpp 的 LLM 中启用 GPU/NPU 加速。详情请参见构建部分。

模型推理管道/后端无关!(可通过 Gallery WebUI 或命令行安装推理后端)

支持的任务类型:

文本生成(支持 llama.cpp、transformers、vllm、exllama2、gpt4all.cpp 等)

文本转音频:

声音/音乐生成(transformers-musicgen)

语音生成(whisper、bark、piper、bark.cpp)

语音转文本(即转录,支持 whisper.cpp 等)

图像生成(使用 diffusers/stable-diffusion.cpp,支持文本生成图像、图像生成图像等)

文本嵌入(支持 sentencetransformers、transformers)

文本重排序(支持 rerankers、sentencetransformers)

首次加载后,模型将被保留在内存中,以实现更快的推理速度。

支持分布式推理(联邦学习和点对点模式)

附加说明:

不同推理管道的性能/吞吐量可能有所差异。你可以选择基于 C/C++ 的推理管道(如 llama.cpp)以获得更快的推理速度和更好的性能。更多最新信息,请参阅 LocalAI 文档。

评分3 / 5.0

下载与相关链接

安全提示
⚠️

安全提醒

点击下方链接将跳转到第三方网站,请确保来源安全,建议优先从官方网站下载。