找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

4498

积分

0

好友

587

主题
发表于 2 小时前 | 查看: 3| 回复: 0

我刚在云栈社区看到 Mano-P 这个项目时,先停了一下。

不是因为它又在讲什么 Agent,也不是因为它说自己能自动操作电脑。现在这类话已经太多了。让我多看两眼的是另一件事:它不吃 DOM,不走系统 API,就直接看屏幕截图,然后点、拖、输、切,按界面长什么样来做事。这个味道一下就不一样了。

Mano-P 1.0 发布架构图:Agent Skill、Model、Training Method 三模块

过去很多所谓“自动化”,本质还是在读结构化信息。网页能跑,是因为有 DOM;桌面端能接一部分,是因为系统愿意给 API;但你一旦把场景换到原生软件、各种奇怪客户端、甚至改版过的 App,那套东西就开始飘。元素识别错位,按钮层级乱掉,脚本一长,后面全崩。所以很多 Agent 看着很能干,实际上活动范围没出浏览器。

Mano-P 1.0 是从另一个方向切进去的。它不要求目标软件给接口,也不要求你提前适配什么协议,就是把当前屏幕当成唯一输入。看到哪里是输入框,哪里是菜单,哪里该点下一步,完全按视觉来理解。说直白点,它不是“调用系统能力去操作界面”,而是把自己放到一个真实用户的位置上。

Mano-P 与传统方案 CUA 对比表格

这件事一旦成立,边界就会突然宽很多。网页、桌面软件、各类 App,理论上都能进同一套操作逻辑里。你不用再为每个界面单独写一层解析,也不用一改版就回去补规则。界面变了,结构可能全变,但只要视觉上还能看懂,它就还能继续干活。我觉得这才是它最值钱的地方,不是“能操作”,而是少了一层很重的维护。

看 GitHub 介绍时,还有个点挺实际:它已经能接到 Claude Code、OpenClaw 这类 Agent 工具里。这个组合很像是把前面会想、会拆任务的脑子,接上了后面真的能落到屏幕上的手。很多以前只能停在“我建议你点击这里”的流程,现在可以往前再走一步。而且它不是只做两三步演示。项目里提到,复杂任务可以拉到数十步、上百步。这就不是 demo 感了。

多个模型在基准测试集上的性能对比柱状图

另一个让我有点在意的是它坚持本地推理。数据不出设备,这对企业场景尤其重要。很多界面自动化一碰内网系统、财务后台、客户资料就卡住,不是不能做,是不敢把屏幕和操作过程往外送。Mano-P 这类纯本地方案,至少把这道坎先跨过去了。部署也没有想象中那么重。M4 芯片、32GB 内存的 Mac,上 4B 量化版本就能直接跑。看到这里,大概能明白它为什么会被不少人盯上:不是那种必须堆大卡、远程服务、专门环境才能碰的东西。

它离“真正可用”还差多远,肯定还得看长任务稳定性、误操作率,还有不同分辨率和复杂 UI 下的表现。但至少有一点已经很清楚了:AI 自动操作这件事,终于开始从“读网页代码”往“直接看屏幕做事”走了。Mano-P 1.0 值得看的,不只是又一个 GUI Agent,而是它把路线换了。

Mano-P GitHub 仓库文件列表截图

GitHub 地址:MININGLAMP-AI/MANO-P




上一篇:算法题深度解析:最大回文数乘积高效解法,Python剪枝优化思路
下一篇:梯度分析与对抗验证码构造:VLM和ddddocr防御实测
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-4-27 20:28 , Processed in 0.647254 second(s), 42 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表