找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

3311

积分

0

好友

432

主题
发表于 18 小时前 | 查看: 2| 回复: 0

最近被两篇文章“夹击”得有点懵。

一篇是 Citrini Research 的《The 2028 Global Intelligence Crisis》。作者以未来回望的视角,撰写了一份金融史备忘录:故事设定在AI大获成功的2028年,白领工作被大规模替代,房贷和税基随之崩塌,整个建立在“人类智力最稀缺”这一前提上的现代经济体系,正悄然被机器智力反噬。

另一篇是 ChenNative 上的《I, MiroThinker, Do Not See an Inevitable AI Doom — I See a Human Choice》。这篇文章则站在另一个极端,反复强调一个观点:AI末日并非命中注定,而是人类一连串主动或被动选择所共同导致的结果。

这两篇文章我几乎是在同一个晚上读完的。关掉网页后,一种强烈的割裂感油然而生:一边是系统层面、结构性的巨大惯性在推着一切向前;另一边,则在个体与组织层面,透露出一种“你其实可以做出改变”的倔强。

作为一个在人工智能产品公司里摸爬滚打的人,这种撕裂感其实日常就在,只是这次被两篇文章放大到了眼前。

Citrini 那篇文章在做一件相当残酷的事:它把我们今天视为理所当然的一切——白领的薪水、房贷的安全、保险公司的长期偿付能力、政府的财政收入基础——全部归为一个隐含公式的一部分:“人类脑力是最稀缺、最值钱的生产要素。”然后,它抛出了一个根本性问题:如果这个前提不成立了呢?

接下来,一长串多米诺骨牌开始依次倒下:AI代理替代白领工作,企业利润暴涨,但消费端购买力却逐渐枯竭,出现“幽灵GDP”;私募基金用高杠杆押注的软件公司开始违约,保险资金链被撕开缺口,政府则发现其税基原来牢牢系在“工资”这根线上,而算力正在一点点割断这根线。

读到这一段时,我脑海里特别有画面感。那并非“AI觉醒毁灭人类”的科幻剧情,而是“如果我们按照现有制度逻辑,不做任何改变地将AI能力一路叠加进去”,整个系统会自然演化出的结果。你甚至可以说,这不是AI的恶意,而是旧制度的惰性,在一个全新生产要素面前的自我报复

而在另一个浏览器标签页里,ChenNative 那篇文章却在说,人不该这么轻易地把自己从“决策者”的位置上退下来,变成一个“受害者”。它强调的是另一种很朴素的东西:如果我们承认AI是一种极其强大的“智力基础设施”,那么我们就有责任在公司治理、教育使命和风险控制上,去设计和构建一套更配得上它的新规则。

读完那篇,我脑子里一直闪现一个画面:一家致力于研发AGI(通用人工智能)的公司,到底更像什么?是更像一家融合了高频对冲基金与广告平台逻辑的混合体,还是更像一所分布式大学加上一项公共基础设施?

答案的不同,将直接导致你今天做出的每一个小决策都截然不同。你如何赚钱,你招募什么样的人才,你默认用户是“可以被优化的流量”,还是“值得被提升的认知个体”——这些看似微小的选择,最终会沉淀成完全不同的技术路径和商业伦理。

说白了,Citrini 把我拉回了“系统的冷酷现实”,而 ChenNative 又把我推回了“个体的能动性”。一个在警告:如果什么都不改变,你们会被自己设计的制度惯性搞垮;另一个在鼓励:你们不是不能改变,只是每一次修正都伴随着阵痛,需要真金白银地付出成本。

而我恰好就待在这个中间地带:既非能够撬动制度的政策制定者,也非只需写写评论的旁观者,而是一个每天需要上线新功能、计算转化率、推动业务增长的AI产品从业者。

所以,那一刻我问了自己一个非常现实、甚至有些不体面的问题:在这个“智力正逐渐变成过剩生产要素”的时代,我到底在创什么业?

是在创业一个“更高效的脑力外包机器”,帮助企业压榨掉最后一点人类智力溢价?还是在创业一个“帮人升级操作系统”的工具,让更多人有机会长出那些“不可计算”的能力——比如判断力、创造力、深层连接、审美能力,以及承担责任?

两者都可能赚钱,甚至前者在短期内更容易赚钱。但真正的区别大概在于:几十年后,当 Citrini 描述的那种“回顾2028年”的剧情真的在我所处的现实中上演时,我敢不敢承认,自己当年确实尝试过把一些变量,往另一个可能更好的方向,轻轻地推了一点点。

AI行业有一个特别容易让人上瘾的幻觉,那就是“加速”本身被浪漫化了。所有人都在问:我们能不能跑得更快?模型参数能不能更大?API调用成本能不能再砍一半?却很少有人停下来认真问一句:我们到底在加速什么?这些被加速生产出来的东西,真的是我们内心深处想要更多的吗?

Citrini 帮我们看到的是:如果你什么都不问,只是把“效率”这个旋钮拼命往一个方向拧到底,那么金融、就业和税收制度这些“后台系统模块”会自动给你一个反馈答案,而那往往不是你愿意面对的结果。

ChenNative 则在提醒:你其实可以先停下来问一问,再尝试设计一套不同的“控制面板”,只是这往往意味着,你不太可能成为那条跑得最快的赛道上的领跑者。

我越来越觉得,在这个时代投身于AI领域的创业,最根本的分野,并不在于你使用的是哪家巨头的大模型、参数规模有多大,而在于你敢不敢在一开始就承认:AI的发展不是一场“谁跑得快谁赢”的单纯竞速赛,而是一场“谁愿意承担起更大设计责任”的漫长耐力赛。

这不是道德绑架,也不是心灵鸡汤,而是一个非常现实的风险控制问题。如果你只是盲目地跟着技术惯性一路向前狂奔,你的商业模式很可能会天然地滑向 Citrini 所描述的那一侧:致力于替代白领、压缩脑力溢价、消除一切中介摩擦,最终却在房贷、保险和税制这些你根本没有参与设计的、复杂的社会经济模块里,引爆一场系统性的价值重估危机。

但如果你哪怕早一点点承认:好吧,我们不只是想做一台更强大的计算机器,我们也希望成为一块能够促进系统更健康运转的“制度拼图”。那么,你可能会多问自己几个问题:

这套产品有没有可能,让更多的普通人更快地升级自己的认知结构,而不是仅仅在现有结构的边缘被“优化”掉?
我们能不能在设计收费模式和内容分发机制时,为社会保留一点宝贵的公共讨论与学习空间,而不是把一切都榨干、私有化?
我们愿不愿意把“教育”和“人的能力建设”真正写进公司的核心使命里,而不仅仅是写进对外宣传的公关稿件?

这听起来或许有些理想主义,但说到底,这只是承认了一件简单的事:AI带来的不是一条唯一的、注定的道路,而是一系列需要我们主动选择的岔路口。 而每一个真正坐在“创办公司、打磨产品”这个位置上的人,每天都在用自己的决定,为这个全局的未来投下微小但真实的一票。

当“智力”本身不再稀缺时,人类真正变得稀缺的,可能反而是那些看起来一点也不酷、甚至有些“传统”的品质:比如耐心,愿意与复杂的社会经济系统长期周旋、拉扯;比如诚实,敢于承认自己也会被短期利益和激励机制所诱惑;比如责任感,愿意为一个暂时看不到尽头、但影响深远的长期后果去思考、规划和付出代价。

有时候,我会用一个略带“中二”气息但对我个人很有效的比喻来提醒自己:AI是一台空前巨大的放大器,它放大的从来不是技术本身,而是人类本来就拥有的那些美好与缺陷。 如果这台放大器注定要出现在历史舞台上,那么我们这些最早站在它旁边、有机会拧动旋钮的人,至少应该想清楚一点:我们更希望哪一类东西,被它成倍地放大?

或许很多年之后,当下一代人回望2020年代,他们会像 Citrini 那篇“2028年备忘录”一样,试图总结这一段交织着金融、技术和制度变迁的历史。那时候,他们可能会在史书上写下这样一句话:

人类从来不是输给了自己亲手创造出来的机器,而是输给了自己对“我们其实一直拥有选择”这一事实的集体性迟钝。

如果未来真有那么一页历史被书写出来,我希望自己至少不是那个完全没有意识到自己正在做出选择的人。哪怕只是在一个小小的AI产品团队里,每天多问一次:我们今天写的这行代码,制定的这个策略,上线的这个新功能,是在把人推向更易被替代的境地,还是在为人类保留并拓展一点点那“不可计算”的、独属于人的精神空间?

如果能始终带着这样的意识去行动,或许就已经是,在这场“其走向终将由人类选择决定”的AI时代浪潮中,所能做出的最朴素,却也最坚实的一点点贡献了。

欢迎你在云栈社区分享你对这个问题的思考。




上一篇:Codex驱动的百万行级内部产品实践:1500 PR与零人工代码背后的Agent开发模式
下一篇:低绩效警示下,如何用“子集”算法保住技术底气
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-2-25 21:06 , Processed in 0.380034 second(s), 43 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表