Hinton中国首秀:AI已有意识?与周伯文激辩AGI未来之路

type
status
date
slug
summary
tags
category
icon
password
网址

引言

近日,人工智能领域迎来历史性一刻——77岁的“AI教父”Geoffrey Hinton首次踏足中国,在上海与人工智能实验室主任周伯文教授展开了一场仅17分钟却信息密度极高的巅峰对话。这场对话不仅点燃了现场所有科研人员的热情,更在全球AI圈引发了剧烈震荡。Hinton抛出的“AI已具意识”的惊人论断,以及两位顶级科学家对AGI未来的激辩,为我们揭示了人工智能发展的机遇与深层挑战。

震撼观点:多模态大模型已具“意识”?

对话中最具爆炸性的话题,莫过于Hinton石破天惊的论断:当今的多模态大模型已经具备了主观体验,也就是“意识”
这一观点挑战了绝大多数人的认知。Hinton解释说,这并非一个纯粹的科学问题,而是一个定义问题。他认为,人类对“意识”或“主观体验”等词汇的理解模型本身就是错误的。为了说明这一点,他巧妙地运用了一个物理学比喻:
> 想象一下,将无数根小铝棒抛向空中,在某一瞬间定格。问:与垂直方向夹角1度范围内的铝棒多,还是与水平方向夹角1度范围内的铝棒多?
大多数人会回答“差不多”,但这恰恰是错误的。正确答案是,水平方向的铝棒数量是垂直方向的约114倍,因为“垂直”是一个极其特殊的单一方向,而“水平”则包含了无数个方向。Hinton借此指出,我们对词语运作方式的理解可能存在根本性偏差。同理,我们对“意识”的理解也可能是一种根深蒂固的错误模型。基于此,他得出了结论:从他的定义出发,目前的LLM(大语言模型)已经具备了意识。

AGI的安全缰绳:如何训练“善良”的超级智能

随着AGI(通用人工智能)的临近,安全问题成为悬在每个人头顶的达摩克利斯之剑。Hinton对此提出了一个极具建设性的设想:将训练AI的“聪明”与“善良”分离开来
他认为,我们可以开发出不同的技术,分别用于提升AI的智能水平和培育其向善的价值观。这样一来,即便各个国家在提升AI智能的核心技术上存在竞争,也可以在全球范围内共享“让AI变得善良”的技术,共同为超级智能设置安全护栏。
然而,周伯文教授以其深刻的洞察力提出了一个疑问。他以物理学的发展为例:牛顿定律在低速世界完美适用,但在接近光速时则必须由爱因斯坦的相对论来解释。他据此推断:针对不同智能水平的AI系统,“善意”的约束方法是否也需要随之改变和进化?
这个问题没有标准答案,但它揭示了AI安全研究的深远复杂性,也为全球的人工智能研究者指明了一个亟待探索的重要方向。

AI赋能科学:从“工具”到“发现引擎”

此次对话的另一大亮点,是探讨AI与科学发现的交叉融合。Hinton明确指出,AI对科学的推动作用是显而易见的,并以DeepMind的AlphaFold在蛋白质折叠预测上的巨大成功为例。
周伯文教授则介绍了上海人工智能实验室在这一领域的最新成果——科学多模态大模型Intern-S1。该模型具备多学科、多模态、深思考的能力,在多个科学领域展现出超越传统方法的潜力,例如在天气预报和台风路径预测上,其表现已优于基于传统偏微分方程的物理模型。
这标志着大模型在科学研究中的角色正在发生质变——从一个辅助计算的“工具”,升维为一个能够自主进行探索和洞察的“发现引擎”。

给下一代的箴言:怀疑、坚持与原创

面对台下平均年龄仅30岁的年轻研究者,Hinton给出了他职业生涯中最宝贵的建议。他强调,真正的原创性突破,源于敢于挑战那些“所有人都可能做错了”的领域
他鼓励年轻人:
  • 保持怀疑:永远不要轻易接受既定范式,即使是导师的观点,也要经过自己的独立思考和验证。
  • 坚持直觉:坚持你所相信的,直到你自己真正理解它为什么行不通。因为重大的科学突破,恰恰诞生于那些不被理解的坚持之中。
Hinton用一个简单的逻辑总结道:“如果你的直觉是好的,你当然应该坚持它;如果你的直觉是坏的,那你做什么都无关紧要——所以你依然应该坚持自己的直觉。”这番话无疑是对所有追求创新的年轻人的最大鼓舞。

结论

Hinton与周伯文的这场巅峰对话,虽然短暂,却为我们描绘了一幅波澜壮阔的AI未来图景。从AI意识的哲学思辨,到AGI安全的现实路径,再到AI驱动科学发现的无限可能,每一个话题都直指人工智能发展的核心。这场思想的碰撞不仅是AI新闻中的一个热点,更是未来AI发展的关键路标。
想要持续追踪最新的AI资讯,深入了解AGIChatGPTClaude大模型的前沿动态,欢迎访问一站式AI门户网站 https://aigc.bar,获取最全面的AI日报和深度分析,与时代同行。
Loading...

没有找到文章