以下内容均为个人亲身实践后的经验之谈,希望能为你的学习路径提供参考。
学习视频:聚焦精华,事半功倍
关于AI学习,与其漫无目的地观看大量视频,不如集中精力学习顶尖课程。以下三套课程,尤其适合时间紧张但又希望掌握核心知识的同学。
- 《LLMs-from-scratch》(中文名:从零构建大模型) - Sebastian Raschka:这是我的大模型启蒙课。Sebastian将注意力机制讲得极为透彻,并且配套了GitHub工程代码,对于工程实践导向的同学来说,是不可多得的好材料。
- 《生成式人工智能与机器学习导论2025》 - 李宏毅:李宏毅老师能将复杂的大模型概念与实操讲得深入浅出,其特点是能不用数学公式就不用公式,力求以最通俗的方式传递高密度的信息,非常适合初学者建立系统性认知。
- 吴恩达(Andrew Ng)的相关课程:包括LangChain系列、Agent系列以及Claude Code系列。吴老师的课程更偏向于应用层面,教你如何将技术落地,绝对值得反复观看。
简而言之,Sebastian和李宏毅的课程偏重原理深度剖析,而吴恩达的课程则侧重于实战应用。他们的共同点是:信息密度极高,需要你全神贯注地在电脑前学习,随便刷刷手机看是对知识的亵渎。
此外,油管上的Adam Lucek小哥讲的也很有深度,是我每周都会追更的频道。其他人的课程并非不好,但学习效率很可能不如上述几位。
学习书籍:在偶然中收获系统性认知
在书籍方面,我阅读得不多,主要看了两本,它们并非刻意挑选,却带来了意外的收获。
- 《大模型算法:强化学习、微调与对齐》——余昌业
- 《多模态大模型:算法、应用与微调》——刘兆峰
这两本书是我之前在国企工作时,从书架上“捡”来看的。通读下来,最大的收获是对PPO、GRPO和SFT等算法有了系统性的了解,并且克服了对算法公式的恐惧。我逐渐意识到,深度学习的公式更应该从“符号学”和“计算图”的角度去理解,而非纯粹的数学推导。
学习与生产力工具:用AI学习AI
我认为,利用AI工具来学习AI是一条高效的捷径。面对TGI、vLLM、Flash Attention、Unsloth等层出不穷的新概念和工具,如何快速理解?我的方法是让大模型当你的私人助教。
- AI对话助手:国内首选通义千问,国外首选ChatGPT。Gemini虽强,但与ChatGPT之间95分和98分的边际差距,对大多数日常学习和工作场景影响不大。
- PPT制作:首推Gamma,体验过就知道它的高效与智能。
- 学习笔记与知识管理:首推NoteLM,它能智能处理你的阅读材料,是构建个人知识库的神器。
- 音乐生成:首推Suno。你可以先用ChatGPT生成歌词和Suno所需的提示词,再扔给Suno创作,效果令人惊艳。
- 图像与视频生成:首推Grok(xAI)。原因是“量大管饱”,且限制较少。Midjourney固然是天花板,但其生成速度和使用成本(需要国外信用卡支付)让我最终选择了放弃。
- 编程开发:我的首选组合是Claude Code + GLM-4。最初使用Cursor时感到非常惊艳,但后来发现Claude Code能与IDE深度集成,开发体验更流畅,而GLM-4在性价比和代码能力上表现均衡,这个组合目前是我的主力。
- 其他工具:剪映、可灵等工具我也试验性用过,但未深入研究。豆包在专业问题解决上不如千问和GPT,感觉“样样通,样样松”。扣子平台本想用于自动化创作,但试运行两次就消耗了大量资源,从普通用户角度看,成本可控性较差。
进阶之路:研读论文
如果你真的想深入理解大模型,阅读论文是必不可少的环节。现在的门槛已经降低了很多,Google的NoteLM是读论文的神器,退而求其次,用千问或豆包辅助理解也可以。
最近,有两篇论文让我受益匪浅:
- DeepSeek-R1完整版论文:长达86页,强烈推荐阅读。它帮我将之前零散的知识点串联成了一个完整的体系。
- 《mHC: Manifold-Constrained Hyper-Connections》:这篇关于流形约束的论文,让我第一次从数学层面认识到“流形”对于理解大模型本质的重要性,并由此接触到了李群、李代数等概念。
通过阅读这些前沿研究,你能真正触摸到人工智能领域跳动的脉搏。
最后的一点感触
最后,我想推荐一本非技术书籍——AI教母李飞飞的自传《我看见的世界》。这本书对我最大的触动,并非学术细节,而是李飞飞在学术生涯和海外生活中展现出的惊人韧性与“反脆弱”能力。这种精神力量,对于在快速迭代、充满挑战的AI领域学习和工作的我们,或许与技术知识同等重要。在云栈社区这样的技术论坛里,我们既交流硬核的技术,也分享这些支撑我们走下去的软性力量。
|