Follamac
软件描述
你需要在本地主机上运行 Ollama 并加载某个模型。Ollama 启动后,可从 Follamac 或命令行拉取模型。在命令行中输入类似以下内容:Ollama pull llama3 若希望从 Follamac 拉取,可在“模型名称”处输入 llama3
官方网站
访问软件的官方网站了解更多信息
官方认证
pejuko.github.io
安全链接HTTPS
什么是 Follamac?
你需要在本地运行 Ollama 并加载某个模型。Ollama 启动后,可从 Follamac 或命令行拉取模型。在命令行中输入类似以下内容:ollama pull llama3。若要从 Follamac 拉取,可在“要拉取的模型名称”输入框中输入 llama3,然后点击 PULL 按钮。
Follamac 是一款桌面应用程序,可方便地与 Ollama 及大语言模型(LLMs)协作,具备以下功能:
- 拉取/删除模型
- 向 Ollama 发送提示(聊天或生成)
- 聊天模式下选择消息角色,生成模式下可发送系统消息——基础选项(温度、线程数)
- 显示所选模型的基本信息
- 代码高亮
- 多个聊天会话
- 编辑/删除聊天记录
- 编辑/删除消息
- 将代码或整条消息复制到剪贴板
- 浅色和深色主题(默认跟随系统设置)
🔄 替代方案
69 个选择
node-llama-cpp
使用 node.js 绑定在本地机器上运行 AI 模型(llama.cpp)。在生成阶段强制模型输出符合 JSON 模式。

Clearbrief
使用人工智能核实法律写作内容的真实性。
Jellybox
在本地完全离线运行AI模型。

Cloudflare Workers AI
Cloudflare Workers AI 提供无服务器平台,可在其网络中利用 GPU 执行 AI 模型,无需基础设施。可访问 50 多个开源模型,使用 AI Gateway 控制应用,并通过 Vectorize、R2 和 D1 等工具实现全球部署。



