找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

4668

积分

0

好友

641

主题
发表于 昨天 09:55 | 查看: 10| 回复: 0

核心观点

最近与一位专注脑科学的朋友深聊,得到一个非常启发性的观点:当前以 Transformer 架构为代表的大模型,其根本局限或许不在于规模,而在于信息流动的方向。

一个关键的事实是,人脑中约有 40% 的神经连接是“反向”的。它们并非从感知层一步步传递到高级认知区,而是从额叶等高级区域直接“Piu~”一下投射回视觉皮层等初级处理区。

这在神经科学中被称为 长程反馈(Long-range Feedback)连接。而 Transformer,本质上只有前向的注意力机制,它“只会往前跑”。当遇到信息模糊、需要根据高层理解来重新解释底层信号的情况时,没有反馈机制的模型就很容易“卡住”。

没有反馈,就没有基于经验的“猜测”;没有猜测,就难以实现真正的从0到1的创造。缺乏这种长程反馈回路的AI,更像是一台高效的解题机器,而非拥有直觉和洞见的智能体。

被忽视的“系统1”:小脑的巨量计算

人脑的另一个秘密藏在小脑里。这里聚集了约700亿个神经元(接近整个大脑的神经元总数),主要负责一项我们习以为常却极其复杂的任务:精密的运动控制和实时预测

端咖啡杯需要用多大力?发现杯子是空的时如何瞬间调整手势?扔出一个球并准确接住另一杯水……这些动作眨眼间完成,其背后所需的实时传感、物理模拟和肌肉控制的计算量,远超解一道奥数题。

这涉及到人工智能领域的另一个前沿方向——具身智能。大模型目前主要攻克了“系统2”(慢思考),如逻辑推理、代码编写;但对于“系统1”(快思考),即感知、反应和与物理世界交互的身体智能,还未真正触及。

现今的人工神经元模型,大多还是简单的加权求和加激活函数,缺乏时间维度和复杂的动力学特性。大脑的进化告诉我们,神经元的数量与网络连接的复杂度,缺一不可

AI时代的生存法则:重塑“原点”

知识本身的价值正在被快速重构。当所有事实性知识都能被大模型“唾手可得”,传统的、以记忆为核心的应试教育模式已然失效。这并非否定深度思考,而是强调重点的转移。

在AI原生时代,最重要的可能是以下三件事:

  1. 找到“我”:发掘自身独一无二的特质、热情和创造力。这是机器无法复制的核心。
  2. 培养AI原生思维:将自己视为与AI共生的新物种。AI不是取代你的对手,而是拓展你能力的伙伴。拥抱这种变化,可以到 云栈社区 这样的开发者聚集地,看看大家是如何与AI协作解决实际问题的。
  3. 建立演绎推理的“原点”:拥有自己坚实的第一性原理或核心逻辑框架。在信息爆炸的时代,拥有“原点”的人不易迷失,能够判断方向是否正确。就像Geoffrey Hinton坚持神经网络研究40年,并非只因聪明或努力,更是因为他坚信那个正确的“原点”。

这个时代,人类最大的机会或许是:利用AI处理“系统2”的冗余计算,解放自己,去更好地锤炼“系统1”的直觉、感知和创造力,重新做回那个善于猜想、反馈和创造的自己


想深入探索? 可以搜索关键词 「neural manifold」(神经流形)「predictive coding」(预测编码),这是理解大脑反馈与预测机制的两个重要计算机基础理论。

本文观点受清华教授刘嘉相关论述启发,结合讨论整理而成。




上一篇:计算机小白入门Linux:2024年主流发行版选型指南与实战建议
下一篇:Kubernetes 镜像管理避坑指南:从拉取策略到私有仓库认证
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-4-7 16:56 , Processed in 0.661418 second(s), 43 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表