随着AI的快速发展,各行各业都在推进AI转型,很多项目如果不涉及AI,往往很难获得预算和落地机会。因此,大量企业开始提出AI私有化需求。在这个过程中,我们的售前团队需要在不同企业之间频繁沟通,收集各类需求;而这些需求汇总到产研侧后,就需要快速评估这些项目是否在我们的能力范围内、是否可做,以及具体应该如何做。对产研来说,这带来了很大的压力。
当前的核心瓶颈,已经不再是技术能力是否足够,而是我们是否有足够的带宽去评估这些项目。在这样的情况下,研发节奏会受到明显干扰。最开始大家还会比较耐心地参与评估,与非技术同学沟通,但随着时间推移,这种耐心会逐渐下降,沟通质量和研发体验也会受到影响。
从实际情况来看,评估环节主要面临几个问题:
首先,需求和产品相关的数据量都非常大,每个新需求都需要在很短时间内完成判断和方案设计;其次,公司的知识是分散的,包括已有产品、过往案例以及技术能力,售前和销售同学很难全面掌握,只能频繁依赖研发;最后,在客户沟通和投标过程中,涉及大量细节,进一步增加了协作成本。这些问题共同导致,售前和研发都承受较大压力,评估效率和沟通质量也受到影响。
我们的解决思路是,通过一个Agent来帮助分析客户需求,自动生成相对完整的解决方案,并进一步生成标书。
解决方案更多是面向内部的,当我们希望推进一个项目时,需要先在公司内部完成立项论证,证明这件事情能不能做、以及具体怎么做。在这个过程中,通常需要明确会选择哪些产品进行组合、各个产品的能力覆盖范围如何、是否涉及定制开发,以及整体的成本情况,这些内容主要是用于支撑内部决策。
而标书则是面向客户的交付材料。在标书中,很多内部细节是不会体现的,例如某些能力如果无法通过标准产品满足、需要进行定制开发,这类信息一般不会直接写入标书。
因此,我们的解决方案Agent主要聚焦两个方向:一方面是生成解决方案,用于支持内部的立项与评估;另一方面是在此基础上生成标书,用于对外投标。
构建供需适配的自动化中枢
在构建“解决方案智能体”的过程中,首要任务是明确其底层的数据支撑体系,即整合现有的产品清单、核心技术能力、历史成功案例及交付成果,并深度对接由招标文件或前期售前调研所获取的客户原始需求。
从产品经理的视角出发,该 Solution Agent 的核心定位是帮助售前项目经理、交付负责人及咨询顾问等业务人员,通过自动化手段协助其精准评估需求,并产出高可靠性的解决方案与投标材料。需要明确的是,Agent 设计边界聚焦于支撑项目立项、评审及投标等商务决策环节,而非生成可直接执行或编写代码的落地方案。
在核心功能模块的设计层面,系统将聚焦于对客户需求的精准洞察以及对自有产品矩阵的深度解析,对比分析实现供需双向的适配性校验,然后自动输出详尽的可行性评估报告,并最终生成解决方案与投标文件。

在整体方案设计上,首先通过提取产品说明书核心信息构建产品知识库,并将用户需求转化为结构化的需求清单,其次进行供需匹配分析,随后基于匹配结果生成解决方案与投标材料。最后,引入 AI 审核机制,根据评审意见对输出内容进行重新修改。
产品和需求文档分析
在关键技术实现上,系统首先需对 Word、PDF 及 Excel 等多格式的产品与需求文档进行深度解析。针对资料特性的不同,采取差异化的权重处理策略:将 One-page 视为核心宏观定义,功能清单作为概括性信息,而详尽的图文手册则作为细粒度支撑。通过信息提取与维度对齐,系统对产品功能进行分级建模,将复杂的多级功能点转化为结构化的数据描述,最终构建形成标准化的产品功能库并入库。
在技术实现层面,针对结构化较好的 Excel 资料,通过文本切片结合大模型提取,即可获得理想效果,而 Word 或 PDF 等文档因功能层级模糊、内容分散,需预先进行标题树与节点分析以重构层级逻辑,从而确保功能抽取的准确性。在提取核心功能的同时,系统会同步抽取部署需求、国产化支持等元数据,实现功能的聚合。
随后,我们对产品清单实施“先分类、后聚类”的策略,将产品划分为 IaaS(算力与云管)、PaaS(模型管理与部署)及应用层(终端应用)三个维度,并针对品类繁杂的应用层进行层内聚类,最终构建起一套“分层 + 聚类”的标准化产品清单,为后续的需求精准对标提供核心支撑。
本方案的核心关键点包括:首先,必须强化产品手册的目录解析,以确保功能抽取的逻辑性并提升后续匹配的精准度;其次,应对产品实施“先分层、后聚类”的体系化分类;同时,需精准提取业务约束与元信息;最后,通过构建知识持久化管理机制,实现知识库的高效复用。
在实验场景下,处理一份约 50 页的产品文档需消耗约 30 万 Token,处理耗时约 15 分钟,资源与时间成本较高。
需求文档 的处理流程与产品文档基本一致,但无需聚类,侧重于直接解析。此外,基于内部实践经验,系统需针对项目周期、预算等关键要素对需求清单进行深度追问与澄清,以规避因信息缺失导致的后续迭代风险。通过在前期引入这种澄清机制,解决方案智能体能够更精准地洞察需求,从而输出更高质量的解决方案。

输出展示层面如上图所示,左侧呈现需求解析结果,包含元数据及逐项提取的功能层级,以规避匹配过程中的层级错位;右侧展示基于 IaaS 层、MaaS 层及应用层的产品聚类方案,旨在为每类功能精准推荐最优产品。
为实现工程化落地与产品化复用,系统引入了完善的知识管理机制:产品数据被纳入知识库进行持久化管理,而用户需求则通过临时缓存处理,在保障数据隐私的同时,通过复用既有计算结果提升对重复需求的响应效率,最终形成“产品入库、需求缓存”的高效数据管理模式。
在技术实现的代码层面,我们选用了 LazyLLM 框架以支持知识库的产品文档复用,该框架具备逻辑简洁且直观的优势;通过其内置的 JSON extractor 结合提示词引导,系统能够精准提取所需的 JSON 字段,并配合自定义节点组完成数据入库操作。
产品与需求的数据匹配和分析
基于已构建的产品知识库,系统进入数据分析与匹配阶段。首先根据产品分类与聚类逻辑,将需求清单拆解至对应的技术层级,并在各层级内部通过功能清单匹配进行量化评分,从而筛选出各层权重最高的最优候选产品。
这样做的好处尤为明显,那就是即便面对跨层级的复杂需求,系统也能通过极简的产品组合实现全功能覆盖,有效避免了因选择过多零散产品而导致的方案冗余与架构碎裂化。
在匹配逻辑的关键点上,系统首先依据产品分类对需求进行维度切分,并逐层开展精准匹配以选定最优产品;同时,通过提取需求与产品元数据,系统能够实现前置过滤机制,例如当产品无法满足国产化等硬性约束需求时,该产品将在匹配阶段被直接排除,从而确保候选方案的合规性。
此外,系统还结合能力清单进行定制化开发评估,量化产出研发周期与人力成本估算。根据实验统计,单次完整匹配流程约消耗 50 万 Token,耗时约 30 分钟,其输出成果直观展示了产品的综合评分摘要及详细的功能匹配度分析清单。
在工程化层面,鉴于产品文档具备动态增删与实时更新的特性,系统未对多源文档进行整体聚合,而是采用了基于优先级的顺序匹配策略。在匹配过程中,系统会依据文档权重进行逐级检索:优先在高优先级文档中确认功能满足度,若未命中,则按序顺延至低优先级文档,直至完成功能对标。
数据驱动的智能生成
在智能生成维度,行业实践证明单次生成长文本易导致数值偏差,进而质量失控。为此,我们进行了子问题的拆解,通过合并长文本的多级标题来构建独立的子生成任务,并由独立智能体驱动执行。
根据任务需求,智能体可灵活调用直接填充、RAG检索增强、联网搜索,或利用具备自我规划与代码生成能力的复合型 Agent 进行深度处理,确保了产出结果的专业性与可靠性。
在智能生成的关键点中,系统首先利用 Planner 生成子问题,并通过工具集协同解决;针对长篇幅的技术方案,采取标题合并策略将大标题与子标题整合为单一子任务,递归调用生成器产出文段,并在精炼处理后完成文本回填。
在效率表现上,生成 10 万字标书与 4 万字解决方案分别约耗时 2.5 小时与 2 小时,耗时主要集中在子问题的生成与解决环节。尽管系统已引入并行处理策略,但整体生成周期仍较长。
在该场景下,我们复用前述通用生成能力,通过严格的逻辑组织确保方案与标书契合标准化模板要求,并坚持有据可依以保障数据真实性。同时,引入风格转换机制使生成内容符合行业标准书面语范式。在工程实现上,为避免针对特定场景产生不可复用的冗余代码,我们采取“通用能力构建结合场景化适配”策略。

如上图在成果展示中,左边是模板,右边是生成内容,系统通过对标模板进行自动化内容填充。另外针对大模型原生输出往往存在的信息冗余或非必要的社交辞令,系统会通过该机制结合上下文对内容进行去冗与重构,确保最终生成的语言组织严谨,且符合标书及解决方案的专业标准。
数据约束的文案校验
在审核机制的设计上,系统将其划分为基础审核与场景审核两大部分:前者涵盖语法语义、错别字、标点符号及上下文一致性,并包含通用能力支撑下的场景化合规审计;
为提升审核效能,系统利用节点树将文本拆分为全文、段落、句子等多粒度节点,并依据审计类型灵活匹配。针对特定业务场景,系统重点加强了对“废标项”的合规响应审查及功能点真实性的闭环校验,严禁虚假应标。
在审核环节,系统遵循“非必要不使用大模型”的原则,针对字词、语法及标点符号等基础检查,优先利用传统工具以规避大模型在准确度及响应速度上的局限性,而将大模型的核心能力应用于上下文一致性、合规性及废标项识别等复杂维度。针对 Pycorrector 库在语法审核中误报率较高的挑战,系统引入了大模型复审机制,通过对初步检索结果进行二次校验与去伪,有效剔除了虚假错误项,最终确保产出高质量且精准的问题清单。
审核流程的关键点是系统首先通过构建多粒度的节点树以支持差异化审计需求,并配合多维度并行审核策略提升处理效能;同时,在强化场景审核以确保内容准确性的基础上,引入大模型复审机制以保障审核结果的可靠度。经实验测算,针对 10 万字规模的投标文件,全流程审核任务约需消耗 200 万 Token,总耗时约 1.1 小时。

如上图为输出展示,审核展示的数据结构涵盖了问题类型、描述、重要程度、原文定位及修改建议等。
以具体案例说明,当标书中出现“AI 龙头企业”等违反《广告法》的表述时,合规审查模块将精准拦截该违规项,并提示将其修改为“支柱企业”或“政府重点扶持企业”等符合法律规范的描述,从而确保投标材料的合规严谨。
基于审核反馈的迭代优化
在校对改写环节,系统首先对审核意见进行分类处理:针对附带明确修改建议的意见,直接调用大模型润色回填;对于复杂改写需求,则复用生成逻辑,通过子问题拆解与迭代生成完成内容重构。
改写完成后进入全文复核阶段,利用大模型对文档的层级结构、数据连贯性、引用一致性及过渡衔接进行统一优化。在最终复核阶段,系统完全依托大模型能力对全文进行整体润色,无需进行子任务分解。
其关键点在于:首先分类汇总审核意见,并针对不同类别匹配差异化的润色与回填工作流;其次,深度复用生成工具链以闭环解决子问题;最后,通过全局复核确保文档的逻辑一致性与叙述连贯性。性能方面,针对上述含有约 190 条审计意见的 10 万字标书,该环节的 Token 消耗约为 150 万,整体处理周期约为 0.8 小时。

如上图在系统输出界面中,左侧展示审核意见,右侧呈现对应的改写内容,且所有修改项均通过标签化形式进行标注,旨在工程化应用中支持用户在前端界面自主选择保留或放弃修改,从而有效规避了输出纯文本时人工比对原文与修改内容的繁琐,并能及时纠正模型可能出现的错误。
综上所述,全流程执行耗时约 7 小时,Token 成本约为 30 元,实现了显著的降本增效。
相比以往每项需求均需高度依赖专家进行分析评估及售前人员手工编制长篇材料的传统模式,本方案在生产效率上实现了质的飞跃,7 小时的处理周期支持无人值守自动化运行,仅需人工介入最终审核。
此外,针对专家资源有限及非专业人员产品认知差异导致的质量波动,该方案通过统一的自动化流程与多轮严谨的审核校对机制,确保了产出成果的高质量一致性与准确性。
复杂场景下的技术挑战与破局
第一,针对当前非结构化文档(如 PDF、Word 等)结构化提取准确率较低这一行业共性挑战,推荐采用商汤研发的 UNIPASS 工具;该工具深度融合了内部实践经验,专门面向 RAG 场景及标书、产品文档的信息提取需求,通过智能布局检测技术实现高质量的内容解析与提取。
第二,在实操过程中,针对多功能覆盖需求导致的产品匹配冗余问题,系统采用“分层 + 聚类”方式,在每一类产品中仅筛选最优项,有效避免了因产品选择过多而导致的功能覆盖碎片化。
第三,针对长文本生成效果受限的问题,系统通过模板切分与子任务智能拆解技术,将复杂模块转化为可控的生成单元。此外,方案引入了写作智能体,通过“目录驱动”与“上下文增强”相结合的机制,在动态调整目录的同时实时同步上下文信息。
第四,在审核环节,针对上文历史案例与下文技术方案不匹配导致审核准确率下降的问题,系统通过解析全局目录树结构来识别段落相关性,从而过滤无关信息的干扰。同时,引入元信息定位机制,精准标注各片段在全文中的层级与位置。
在模型审核过程中,系统会综合参考资料、目标文本、目录结构及定位数据,输出更具针对性的审核意见。此外,通过强化段落一致性复审,进一步确保了审核过程免受非相关章节的误导。

问题 5:在智能体(Agent)开发领域,商汤自研的 LazyLLM 应用开发框架致力于实现低成本与高性能的平衡,有效解决了私有化过程中常见的复杂选型与环境适配痛点。它深度对齐了线上云端模型与线下本地模型的使用方式,并兼容多种主流推理框架,使开发者仅需调整极少量配置即可完成模型迁移。
其次,系统支持高性能文档存储与向量存储的集成,允许开发者根据不同项目的需求灵活切换技术选型;例如,在面对多样化的客户要求时,可实现从 Milvus 到 ChromaDB、OceanBase,或从 Elasticsearch 到 Open Search 的便捷迁移。通过解耦特定产品绑定,该方案确保在实际开发与工程落地过程中,无需修改核心业务代码,仅通过调整配置项即可实现技术栈的平滑切换。
此外,系统具备复杂应用的一键部署能力。针对包含数据库、文档管理及大模型、嵌入模型、重排序模型等组件的 RAG 系统,开发者只需定义数据流 Pipeline,内置的服务发现模块即可自动识别并启动所有关联服务,并通过轻量级网关实现链路串联;同时,系统支持接入 K8S 配置以利用其原生网关,从而实现工业级落地。
最后在数据处理层面,系统支持高度灵活的切分与解析策略定制,例如集成内置的 JSON Rxtractor 以替代传统 RAG 中单一的关键词或 QA 抽取模式,仅需十余行代码即可在保持简洁性的同时,实现核心组件的高度定制;同时,系统深度优化了错误定位机制,能够精确反馈函数参数及代码行级的异常信息。该框架以工业落地为核心,不仅适用于 POC 快速验证,更已全面应用于公有云服务的算法开发,并在高并发架构与横向扩展性能上经过了大规模生产环境的深度验证。
从工具到生态的闭环蓝图
展望未来,我们将持续优化系统性能与生成效果,并深度结合客户反馈迭代场景化模型,构建从业务复盘到算法进化的持续反馈闭环。在发展战略上,我们将并行推进开源化与产品化:目前 LazyLLM 框架已正式开源,我们将对解决方案 Agent 进行工程化与标准化重构,并逐步开源其核心技术。同时,为提供端到端的应用体验,该 Agent 将深度集成至商汤大装置“万象”产品体系中。像这样的技术创新与落地实践,也是云栈社区里开发者们持续关注和探讨的核心话题。