什么是 Frona?
Frona 是一个开源的个人 AI 助手。你创建自主代理,这些代理在沙盒环境中浏览网页、运行代码、构建应用程序、打电话、委派工作、记忆对话上下文,所有这些都在沙盒环境中,对你的文件、网络和凭证有受控访问权。你给他们一个任务,他们自己想办法完成。
主要特点
- 自主 AI 智能体:智能体能够自主决定使用哪些工具,并执行多步骤任务
- 浏览器自动化:通过无头
Chrome 浏览网站、填写表单和提取数据
- 网络搜索:内置
SearXNG、Tavily 或 Brave Search 支持
- 代码执行:沙盒化的
shell 命令,带有文件系统、网络和资源限制
- 应用部署:智能体可以构建和部署
Web 应用程序
- 技能系统:安装共享技能或创建智能体特定的指令包
- 定时任务:通过
cron 表达式设置周期性任务
- 语音通话:通过
Twilio 拨打和接听电话
- 持久记忆:智能体跨对话记住事实
- 智能体间委托:智能体可以将任务委托给其他专业智能体
- 实时流式传输:通过
Server-Sent Events 进行令牌级响应流式传输
- SSO 支持:
OpenID Connect 支持 Google、Keycloak 等
- 单容器后端:整个后端(
API 服务器、嵌入式数据库、调度器、工具执行)在一个无根 OCI 容器中运行
- 安全优先:在沙盒环境中运行,隔离文件系统访问、控制网络访问、执行超时限制
- 凭据保险库:智能体需要凭据时实时审批,支持
1Password、Bitwarden、HashiCorp Vault、KeePass 等
- 开源免费:基于
Business Source License 1.1 协议开源
应用场景
- 个人 AI 助手:创建专属 AI 助手帮您处理日常任务
- 自动化工作流:让智能体自动执行重复性任务
- 研究助手:智能体可以搜索互联网、分析信息、生成报告
- 开发者助手:智能体可以帮助编写代码、部署应用
- 多智能体协作:不同智能体分工合作完成复杂任务

总的来说,Frona 是一个功能强大的自托管 AI 助手平台,让您在自己的基础设施上运行 AI智能体,完全掌控您的数据。
安装部署
在群晖上以 Docker 方式安装。
Frona 镜像托管在 ghcr.io,群晖 Docker 套件无法直接搜索。

该项目包含多个服务(Frona 主服务、browserless 浏览器服务、SearXNG 搜索服务),需要使用 docker-compose 部署,可以自动处理服务间的依赖关系。
searxng-settings.yml 配置
首先创建 searxng-settings.yml 配置文件:
use_default_settings: true
search:
formats:
- html
- json
docker-compose.yml
将下面的内容保存为 docker-compose.yml 文件:
services:
frona:
image: ghcr.io/fronalabs/frona:latest
container_name: frona-web
restart: unless-stopped
ports:
- "3771:3001"
volumes:
- ./data:/app/data
environment:
- FRONA_BROWSER_WS_URL=ws://browserless:3333
- FRONA_SEARCH_SEARXNG_BASE_URL=http://searxng:8080
security_opt:
- seccomp:unconfined
depends_on:
- browserless
- searxng
browserless:
image: ghcr.io/browserless/chromium:latest
container_name: frona-browserless
restart: unless-stopped
volumes:
- ./data/browser_profiles:/profiles
environment:
- MAX_CONCURRENT_SESSIONS=10
- PREBOOT_CHROME=true
searxng:
image: searxng/searxng:latest
container_name: frona-searxng
restart: unless-stopped
volumes:
- ./searxng-settings.yml:/etc/searxng/settings.yml:ro
environment:
- SEARXNG_BASE_URL=http://searxng:8080
- SEARXNG_SECRET=change-me-to-something-random
部署
然后通过 SSH 登录到您的群晖,执行下面的命令:
# 新建文件夹 frona 和子目录
mkdir -p /volume1/docker/frona/data/browser_profiles
# 进入 frona 目录
cd /volume1/docker/frona
# 修改目录权限
chmod a+rw data
# 将 docker-compose.yml 和 searxng-settings.yml 放入当前目录
# 一键启动
docker-compose up -d

初始设置与使用
在浏览器中访问 http://<群晖IP>:3771 即可进入注册界面。
密码不能少于 8 个字符

安装向导会引导您完成初始配置。第一步需要设置 AI 提供商。

必须启用至少一个。以 OpenAI 为例,可以使用 硅基流动 这类兼容API服务。
API Key:硅基流动 的 API Key
Base URL:硅基流动的地址是 https://api.siliconflow.cn/v1

接下来设置模型组。
Primary:主要模型
Reasoning:推理模型
Coding:编码模型

可以根据需要进行设置。不过在实际测试中,如果使用某些第三方API,模型名称的拼接可能导致错误。例如,模型名称可能被自动加上 Provider 前缀,变成 OpenAI/Pro/zai-org/GLM-5.1 而导致调用失败。
如果遇到类似问题或API速率限制,也可以考虑使用 Ollama 服务来提供模型。

受限于机器性能,可以不使用本地模型,而是连接云端模型如 minimax-m2.7:cloud。

其他的设置(如凭据保险库等),可根据需要进行调整,或者使用默认值也可以。

所有设置会保存到 config.yaml 文件中。

点击 Restart Server 重启服务后,就会看到主界面。

现在就可以开始使用了。例如,可以让它执行一个简单的任务:
查看今天的IT新闻,并做成卡片

可以看到,它像调用工具一样,委派“研究员”去搜索并生成了格式化的报告。
注意事项
- API Key 安全:请妥善保管您的
LLM API Key
- 网络要求:
Frona 需要访问互联网来使用 LLM API 和网络搜索功能
- 资源要求:
browserless 浏览器服务需要较多资源,建议至少 4GB 内存
- 数据持久化:
./data 目录包含所有数据,请定期备份
- 安全配置:生产环境建议配置
HTTPS 和适当的访问控制
- 凭据管理:智能体需要凭据时会请求您审批,确保凭据安全
- 版本更新:建议定期更新镜像以获取最新功能和安全修复
作为一款功能全面的开源项目,Frona 为希望在私有环境中部署自主AI助手的用户提供了一个强大的选择。它的模块化设计和安全沙盒机制,让实验和生产部署都变得更加可控。
参考文档
Frona: Personal AI Assistant - 开源项目主页
地址:https://github.com/fronalabs/frona
Frona 官方文档
地址:https://docs.frona.ai
frona - Docker 图像 | GitHub Container Registry
地址:https://ghcr.io/fronalabs/frona
Frona Quickstart - 官方快速入门指南
地址:https://docs.frona.ai/platform/quickstart.html