
AideaStation R1产品概述
作为希未在2025年推出的迷你AI算力中心,AideaStation R1在仅4L的体积内实现了桌面级AI超算性能。该设备搭载AMD锐龙AI Max+ 395处理器,支持高达96GB动态分配显存,集成性能媲美RTX 4060的Radeon 8060S核显,并配备50 TOPS算力的NPU,旨在流畅运行本地大模型,兼顾专业生产力与紧凑设计。

开箱与外观设计
产品包装采用纯黑设计,正面印有“SEAVIV AideaStation R1”型号标识。

包装侧面标注了设备参数。本次评测的顶配版搭载AMD AI Max+ 395处理器,配备128GB内存与2TB固态硬盘。

开箱后首先看到的是一封黑色信封,提升了开箱仪式感。

信封内附赠一张NFC卡片,用于VIP身份认证,可解锁后续线下活动权益。

随附的用户手册清晰介绍了设备接口用途,并说明了进入BIOS与切换引导盘的方法。

包装下层为独立的配件盒。

配件包含一根常规电源线。

以及一条带屏蔽磁环的HDMI线,抗干扰能力优于普通线材。

主机本体被牢固地固定在包装中央。哑光灰金属外壳配合边缘的亮面切边倒角,增添了层次感。

正面接口排列整齐,从左至右依次为:电源键、性能模式键、SD卡槽、Type-C(USB4)接口、两个USB 3.2接口、3.5mm音频插孔。

侧面设计有大量散热开孔,结合HyperCryo散热架构与双CPU风扇,可有效导出内部热量,保障高负载任务长时间稳定运行。

设备体积仅为4L(247.5×188.4×96.5mm),裸机重量约3kg,便携性出色。

背面接口丰富,包括:两个USB 2.0接口、HDMI 2.1接口、DP 1.4接口、Type-C(USB4/DP1.4)接口、USB 3.2接口、2.5G RJ45网口、二合一音频接口及电源接口。

设备支持“4K·4屏·4显”输出,多任务处理效率显著提升。

设备内置350W Flex电源,配合140W散热设计,确保AMD AI Max+ 395处理器性能充分释放。

底部四周配有防滑脚垫,既垫高机身利于底部散热,也能保证放置稳固。

机身上的金色贴纸明确标识了其搭载AMD RYZEN AI MAX+处理器。
性能测试
硬件配置概览
设备预装Windows 11系统,开机即可使用。

系统信息中,最突出的是64GB显存(可调整)与AMD锐龙AI Max+ 395处理器。

网络方面,支持2.5G有线网口、Wi-Fi 7无线网络与蓝牙5.4。

AMD锐龙AI MAX+ 395处理器拥有16核32线程,应对多任务与模型推理游刃有余。

128GB大内存可动态分配最多96GB作为显存,为本地大模型部署提供了充足资源,足以流畅运行700亿参数模型。

集成的NPU基于AMD XDNA架构,支持FP16精度计算,擅长高效运行本地轻量模型。

集成的Radeon 8060S核显性能对标RTX 4060独显,且可分配显存远超后者,有效避免AI运算中的显存瓶颈。
基准跑分与散热
CPU-Z测试显示,处理器单核得分761.0,多核得分15065.4。

在室温19.6℃环境下,进行FPU+GPU双烤压力测试10分钟,CPU温度稳定在78℃左右,风扇噪音控制良好。

热成像显示热量集中于出风口,外壳仅温热,散热效率高。

功耗情况:待机约31W,双烤时约236W。

鲁大师跑分表现亮眼,其中核显分数超越许多独显,印证了其作为AI算力中心的潜力。
本地AI应用实测
SEAVIV AI 助手
系统内置的“希未同学”AI助手易于上手,提供本地与云端模型选择。

云端可免费调用DeepSeek-V3、R1等模型,响应迅速。

本地运行QwQ-32B模型,问答几乎秒回。

DeepSeek-R1-32B模型能处理复杂数学问题。

内置多种技能(如思维导图生成、文档总结、联网搜索、知识库构建),提升工作效率。知识库功能特别适合企业本地化部署,保障数据安全。

内置应用商店聚合了多种模型服务。
Ollama 大模型部署测试
Ollama现已提供图形界面,操作更直观。

测试了从Qwen3-32B到GPT-OSS-120B等多种大语言模型,大部分能正常调用核显进行推理。具体数据如下:
| 模型名称 |
参数类型 |
显存需求(GB) |
推理速度(t/s) |
运行状态 |
| qwen3:32b |
dense |
23.5 |
9.63 |
✅ 正常 |
| deepseek-r1:70b |
dense |
46.0 |
4.52 |
✅ 正常 |
| qwen3:30b-a3b |
MoE |
20.4 |
61.12 |
✅ 正常 |
| qwen3:235b-a22b |
MoE |
64.7 |
1.50 |
⚠ 有问题 |
| gpt-oss:20b |
MoE |
14.8 |
47.56 |
✅ 正常 |
| gpt-oss:120b |
MoE |
63.0 |
34.32 |
✅ 正常 |

Qwen3-32B模型运行情况
LM Studio 测试
LM Studio提供了更友好的图形界面,方便模型管理与对话。

测试中,选择ROCm作为运行环境。同样测试了多个模型,结果如下:
| 模型名称 |
参数类型 |
显存需求(GB) |
推理速度(t/s) |
运行状态 |
| qwen3:32b |
dense |
19.0 |
65.86 |
✅ 正常 |
| deepseek-r1-70b |
dense |
38.3 |
5.35 |
✅ 正常 |
| qwen3-30b-a3b |
MoE |
15.7 |
65.86 |
✅ 正常 |
| qwen3-next-80b-a3b |
MoE |
47.1 |
14.58 |
✅ 正常 |
| qwen3:235b-a22b |
MoE |
63.9 |
5.51 |
⚠ 有问题 |
| gpt-oss-20b |
MoE |
13.7 |
61.54 |
✅ 正常 |
| gpt-oss-120b |
MoE |
61.7 |
44.61 |
✅ 正常 |
Amuse (AI绘画与视频生成)
Amuse针对AMD硬件优化,支持文生图、图生图、视频生成。

测试了从SD1.5到SD3.5多个规模的图像生成模型。SD3-Medium及以上模型生成质量更稳定,SD3.5-Large模型单图生成时间约70秒。

Stable Diffusion 3 Medium 生成示例
视频生成功能测试中,生成一段数秒的视频约需28秒。
绘世启动器 (SD WebUI)
使用针对AMD优化的绘世启动器版本进行测试。

在高级设置中可正常识别Radeon 8060S核显。测试了多款常用模型,生成速度与质量均表现正常。

模型生成示例 (12.7秒)
游戏性能测试
利用性能对标RTX 4060的Radeon 8060S核显,测试了两款游戏。
《绝地求生 (PUBG)》
在1080P分辨率下将所有画质设置调至“超高”。
- 跳伞场景:CPU占用22%,GPU占用40%,帧率71 FPS。
- 地面跑图:CPU占用20%,GPU占用68%,帧率140 FPS。
- 游戏过程中帧率稳定,无明显卡顿。
《绝区零》
在1080P分辨率下,将渲染精度、阴影、特效等调至高档。
- 日常跑图场景:CPU占用12-14%,GPU占用32-37%,帧率稳定在75 FPS。
- 战斗场景:帧率基本维持75 FPS,偶有降至60 FPS,整体流畅。
进阶设置与系统兼容性
BIOS设置96GB显存
默认GPU显存为64GB。开机按F2进入BIOS,在Advanced -> GFX Configuration中,将UMA Frame Buffer Size设置为UMA_SPECIFIED,并在下方调整至96GB。保存重启后,任务管理器显示专用GPU内存为96GB。

BIOS中调整显存分配
注意:设置为96GB显存后,部分AI应用(如Ollama、LM Studio)可能出现兼容性问题,运行70B及以下参数模型已足够流畅。
NAS系统兼容性测试
尝试安装UNRAID与FnOS系统测试硬件兼容性。
- UNRAID:可识别M.2固态、2.5G网卡,但核显、无线网卡、处理器传感器无法正常识别或驱动。
- FnOS:可识别处理器、内存、GPU型号,但GPU硬件解码、无线网卡、传感器信息同样无法正常工作。播放4K视频转码时依靠CPU软件解码,缓冲时间较长但播放尚算流畅。
总结
希未AideaStation R1成功将强大的AMD AI Max+ 395处理器、高性能核显、大内存与NPU整合进4L迷你机身,实现了“桌面AI超算”的构想。其在本地大模型部署、AI绘画、游戏娱乐等方面表现均衡,接口扩展能力与散热静音控制出色。
该设备非常适合需要强大本地AI算力的开发者、内容创作者、研究团队及中小企业,在保障数据隐私与低延迟的同时,提供可靠的性能支持。作为生产力工具,其投入对于提升效率具有显著价值。