找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

4336

积分

0

好友

565

主题
发表于 2 小时前 | 查看: 2| 回复: 0

与AI共事,数学建模的核心能力正在发生深刻变化。从过去亲手编写每一行代码,到现在审视与优化AI生成的方案,建模者的角色更像是一位“导演”或“产品经理”。为了厘清这些变化,我们与数学建模领域的资深专家、教育者王海华老师进行了一场深度对谈,探讨了AI如何重塑建模流程、其中的挑战与机遇,以及他提出的DPA(Domain, Prompt, AI)协作模型。

描绘人机协作的抽象概念图

数学建模教育的三个阶段与AI带来的范式转移

在王老师看来,数学建模教育的发展至少经历了三个阶段:“上世纪80年代左右兴起,最初是为了打破封闭考试,提供真实情景。那个阶段主要依赖计算器;第二阶段,工具变成了编程和计算机;而现在,我们进入了第三个阶段,人工智能作为智能程度远超以往的工具介入其中。”

AI时代带来的根本性不同在于,建模者的核心能力从“创造与编写”转向了“审查与检验”。“你只需提出需求和想法,通过核对AI的输出结果来解决问题。以前这些步骤都需要人从头到尾亲手完成。”王老师解释道,“AI能让我们迅速拿到一个最小可行性产品(MVP),然后在此基础上迭代改进。这在过去是很难实现的,因为你很难一下子获得一个完整的方案草案。”

DPA模型:领域知识、提示词与AI平台的协同

在王老师的新书《巧用DeepSeek进行数学建模》中,他提出了一个核心框架:DPA模型。D代表领域知识(Domain Knowledge),P代表提示词(Prompt),A代表AI平台。一个优秀模型的产出,与这三者都息息相关。

“好模型是相对的。今天AI生成的方案,放在十几年前可能就是顶尖的。”王老师认为,领域知识的不同,直接决定了模型效果的上限。“如果领域知识很强,但使用的AI平台能力弱,或者提示词写得差,同样无法生成强大的建模成果。”

《巧用ChatGPT进行数学建模》书籍封面

《巧用DeepSeek进行数学建模》书籍封面

那么,这里的“领域知识”仅仅指数学建模能力吗?王老师强调,这是一个更复杂的概念。“它不只包括数学建模本身,还包括对编程逻辑、AI使用逻辑、以及问题所处业务场景的理解。如果只谈数学建模,那就像是一个空架子。”

他举了一个生动的例子:一位排斥AI的领域专家,与一位善于利用AI的普通高中生,在解决一个复杂问题时可能产生截然不同的结果。“专家如果不借助AI进行资料检索与整合,可能一天只能做出半成品。而高中生如果提示词和迭代能力够强,充分利用AI获取前沿信息,最终产出的可能是一个包含论文、甚至网页或APP的完整产品。”

识别AI错误与获取“直接经验”的重要性

当面对跨学科问题,而自身知识储备有限时,如何发现AI可能存在的错误?王老师将AI比作一个巨大的智能图书馆。“如果你对某个领域完全空白,就不知道该如何使用这个‘图书馆’。但只要你具备初步的跨学科视野,哪怕了解不多,也能知道该‘借什么书’。有了这个起点,后续知识的积累速度会非常快。”

然而,识别错误的关键在于“直接经验”。“AI提供的是海量的间接经验,这无法替代亲手实践。”他指出当前数学建模教育面临的一个挑战,“以前找不到数据,你可能需要亲自去测量、调查,这个过程体会很深。现在AI能直接给出一个准确度95%的结果,大家就觉得没必要自己动手了。最终得出的结论就像书本知识,缺乏真实的体感。因此,现在的建模课程需要优化,设法纳入直接经验的环节,这是我正在研究的方向。”

多平台验证与“多模型思维”

面对同一个问题,是否可以通过不同AI平台进行交叉验证,以规避单一平台的“幻觉”或逻辑漏洞?王老师认为这个想法很好,并提到了数学建模中的“多模型思维”。“就像朋友多路子广,多了解几个平台很有必要。不同平台各有特点,比如DeepSeek在代码和文学创作上表现不错,ChatGPT可能更偏向人文内容。没有绝对最强的平台,适时与不同平台交流,观察它们的进步,能帮助我们找到最优的使用策略。”

AI的伦理责任、黑箱问题与模型假设

当AI生成的模型被用于城市规划、风险评估等重大决策时,谁来负责?王老师的答案很明确:“肯定还是人来负责,因为AI无法为其决策负责。”这背后的信任边界,高度依赖使用者的伦理道德、职业操守,以及最根本的——领域知识。

面对越来越复杂的模型和难以理解的“黑箱决策”,这在追求严谨的数学领域是否构成悖论?王老师认为,数学建模并非纯粹的数学,它甚至包含艺术性和直觉。“黑箱确实存在。但人生的意义之一在于理解世界,包括理解AI。总需要有人尝试把黑箱变成灰箱,再把灰箱变成白箱。”他相信,借助可解释性机器学习等工具,人类能够逐步理解AI的决策层次。

《模型,就是数学化的思维》书籍封面

王老师特别强调了理解模型前提假设的极端重要性。“AI在建模时会主动补全隐含条件,这补全的往往是大多数人的共识。因此,它生成的可能是更‘平凡’或‘常见’的模型。我们必须清醒地意识到,任何模型都有其假设。我每次让AI建模,都会追问一句‘你的假设是什么?’。很多时候会发现它的假设与我的认知不同,这时就需要让它更新假设,重新建模。”

向AI学习,本质是向人类智慧学习

在长期使用AI的过程中,什么让王老师对人与AI的关系产生了新的认知?“一直是它能力变强的过程。AI的进步背后是无数程序员的智慧结晶。和AI交互,我相当于在学习这些顶尖人才的思考框架。”

他以Claude的Skills系统和DeepMind的MOE(混合专家)模型为例:“为了让AI输出稳定可靠,你需要像编写Skills一样清晰定义任务,这促使我们把模糊的经验显性化、结构化,这对人类团队共享知识极具启发。MOE模型融合多领域专家以降低计算量,也启示我们的决策需要融合跨学科知识。所以,向AI学习,本质上是向它背后凝聚的人类智慧学习。”

结语

AI重塑了数学建模的路径,却从未撼动其内核:以数学理解世界,以模型回应现实。技术的便利性背后,是对人更本质的要求——跨学科的视野、实践的体感、对假设的追问,以及将AI黑箱化为可解问题的勇气。建模的终极目标,始终是人对世界的主动理解与创造,而高效合理地使用AI,正让这份探索变得更具效率与深度。

关于AI辅助数学建模的更多实践技巧与深度讨论,欢迎在云栈社区与广大开发者一同交流。




上一篇:Claude Code 内测 Auto-dream:AI编程助手将学会“做梦”整理项目记忆
下一篇:让一切软件皆可CLI:为AI Agent打造专属Harness的技术实践与思考
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-3-30 04:57 , Processed in 0.508536 second(s), 42 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表