AI为何难做体力活?清华教授揭秘大脑进化与AGI的终极密码 | AI资讯
type
status
date
slug
summary
tags
category
icon
password
网址
引言:智能的“阿喀琉斯之踵”
在人工智能(AI)以前所未有的速度渗透我们生活的今天,一个有趣的悖论摆在面前:能够写诗、编程、进行复杂逻辑推理的大模型(LLM),为何在折衣服、倒水这类看似简单的体力活上却步履维艰?这不仅是技术瓶颈,更触及了智能本质的深刻问题。
清华大学教授刘嘉,一位在AI与脑科学领域穿梭二十余载的学者,为我们提供了揭开这一谜题的钥匙。他的见解,源于其在AI寒冬中与人工智能之父马文·明斯基的对话,以及他重返实验室后对AGI(通用人工智能)路径的深刻反思。本文将深入解读刘嘉教授的观点,探讨AI的“体力活”困境背后的深层逻辑,并展望通往真正通用人工智能的未来路径。想获取更多前沿的AI新闻和深度分析,欢迎访问AI门户网站
https://aigc.bar
。## 智力的悖论:为何“简单”的体力活最难模仿?
我们通常认为,认知、推理、规划是高级智能的体现,而运动控制则是基础能力。但从生物进化的角度看,事实恰恰相反。刘嘉教授一语道破天机:“前额叶(主管认知)主要是在过去300万年形成,进化最晚,功能最弱,最好模拟。神经元最多的地方并不在大脑皮层,而在小脑,主管运动,密度最高,是经过几亿年进化而来。”
这正是问题的核心。我们人类觉得最简单的行走、抓取等动作,背后是小脑经过数亿年演化、优化出的极其复杂和高效的计算网络。它的复杂性远超我们大脑皮层处理抽象概念的区域。因此,当前的人工智能技术,尤其是LLM,本质上是在模拟功能相对“年轻”和“简单”的前额叶皮层,自然在认知任务上表现出色。而模仿经过亿万年精雕细琢的小脑,其难度是指数级的。这解释了为何体力活反而成了最先进机器人的“阿喀琉斯之踵”,因为它涉及到更底层的、与生存紧密相关的复杂运动控制。
## AI的第一性原理:Scaling Law永不过时
近年来,关于“Scaling Law(规模定律)是否失效”的争论不绝于耳。许多人质疑,单纯依靠堆砌参数和数据“大力出奇迹”的道路是否已经走到尽头。对此,刘嘉教授的观点异常坚定:Scaling Law是AI的第一性原理,任何认为它会失效的想法都是荒谬的。
他引用强化学习之父Sutton的“苦涩教训”(The Bitter Lesson),并结合自己曾批判GPT-3为“傻大粗”的错误反思,指出:智能的涌现,一个不可或缺的必要条件就是“大”。人类大脑在300万年里体积增加了三倍,才最终与猿猴分道扬镳,走向智慧。从这个进化角度看,做大参数、扩大模型,永远是通往更强智能的正确方向。
所谓的“撞墙”,更多是资源、成本和工程实现上的挑战,而非原理本身的失效。对于所有关注大模型发展的从业者和爱好者而言,这是一个根本性的认知。想要了解最新的AI日报和行业动态,可以持续关注
https://aigc.bar
。## 超越“大力出奇迹”:脑科学与AI的再次联姻
然而,Scaling Law只是必要条件,而非充分条件。模型足够大,才能谈智能;但仅有大,未必能实现与人媲美甚至超越人类的AGI。刘嘉教授指出了被当前主流AI发展所忽视的第二条进化路线:神经元复杂度的增加。
生物进化在增加神经元数量的同时,也在不断提升单个神经元的复杂性。而目前的人工神经网络,从诞生之初的M-P模型到如今最先进的Transformer,其基本计算单元(人工神经元)的内在机理从未有过根本性的进化。它们依然是简单的“加权求和再激活”。
这正是刘嘉教授认为的下一个突破口。他认为,AI与脑科学在经历了深度学习时代的分道扬镳后,正迎来再次“联姻”的关键时刻。通过深入研究真实生物神经元的树突计算等复杂机制,从最底层重构人工神经元模型,或许能创造出一种全新的、效率和能力远超当下的神经网络架构。这不再是修剪枝叶,而是从根本上改良土壤,是通往真正AGI的希望所在。
## 从个人经历看AI浪潮:寒冬中的坚守与反思
刘嘉教授的个人经历本身就是一部微缩的AI发展史。从上世纪90年代作为中国最早的“AI版主”,到被明斯基“劝退”而投身脑科学近二十年,再到2016年因AlphaGo而毅然回归交叉研究。这段“错过”又“从未错过”的经历,让他深刻体会到,脑科学与AI如同DNA双螺旋,相辅相成,密不可分。
他的故事告诉我们,在科技浪潮的起伏中,底层的逻辑和跨学科的视野远比追逐一时的热点更为重要。当年在AI寒冬中坚守的Hinton等人,正是因为对智能本质有着深刻的“信仰”,才最终迎来了深度学习的春天。如今,面对日新月异的AI技术,无论是开发者还是普通用户,理解其背后的演化逻辑,都能帮助我们减少焦虑,更好地与AI共进化。
结论:通往AGI的进化双引擎
总结刘嘉教授的深刻洞见,我们可以得出通往AGI之路的清晰图景:
1. 体力活之困源于进化:AI难以完美复刻体力活,是因为运动控制(小脑)比抽象认知(前额叶)在进化上更古老、更复杂。
2. Scaling Law是基石:扩大模型规模是智能涌现的“第一性原理”,这条路不仅没有错,而且必须坚定地走下去。
3. 脑科学是未来:真正的突破在于启动“第二引擎”——提升单个神经元的复杂度,这需要AI与脑科学再次深度融合,从生物智能中汲取根本性的创新灵感。
从符号主义的落寞,到神经网络的寒冬与复兴,再到如今大模型时代的辉煌与挑战,人工智能的发展之路曲折而壮丽。刘嘉教授的分享,不仅解答了“AI为何干不了体力活”的疑问,更为我们指明了在喧嚣的技术浪潮中,应该关注的那些更底层、更持久的科学规律。对于所有对AI、AGI和未来科技感兴趣的朋友,持续学习和探索,是拥抱这个时代的最佳方式。欢迎访问AI门户
https://aigc.bar
,获取最新、最全面的AI资讯,与我们一同见证未来。Loading...