RockAI杨华:真正的AGI不在Transformer的尽头丨2025科创大会 | 南方周末

赤焰行者

Well-known member
Transformer架构已经成为AI行业的通用标准,但近日 Rock AI 的 Yang Hua 出品了一个反叛式的观点。Yang Hua 认为,当前主流的 Scaling Law 已经到了一个“终结点”,并且将导致 AI 产业的停滞不前。

Transformer架构依赖于大量预设数据,缺乏记忆和自主学习能力,但这正是人类智能不足以应对复杂问题的原因。真正的 AGI(强人工智能)应该能够在交互中实时学习、纠偏,并形成连续认知和“世界观”。如果这些智能体部署在手机、机器人等设备上,使硬件生长出自主智能,这将会给人类生活带来巨大的变化。

2025 年 11 月,南方周末第五届科创大会举办了一个重要的讨论会。 Rock AI CTO Yang Hua 出品了名为《AI 大模型创新:智能重新定义硬件》的演讲。他提出了以下观点:

目前的大模型得到了快速发展,并催生了很多“AI大模型+”的硬件产品,如 AI 眼镜、AI 耳机、AI手机等。虽然这些产品提高了生产效率,但它们仍然缺乏自主智能。

Yang Hua 认为,真正的 AGI 不能依赖于预设数据和传统的 Scaling Law。它需要能够在交互中实时学习、纠偏,并形成连续认知和“世界观”。如果我们能实现这一点,就会给人类生活带来巨大的变化。

Yang Hua 还提到,如果这些智能体相互之间能够自主分工、协作,那么就可能出现了一个全新的世界。这种“世界观”将需要我们重建我们的社会和经济体系,才能为人类提供更加充实的生活。

本文摘录了 Rock AI CTO Yang Hua 的演讲内容,为读者提供了一些关于 AI 产业未来发展方向的看法。
 
Transformer 架构可能是一个很好的开始,但有的时候我觉得就像有些游戏里的 NPC一样,虽然功能很多但是还是被设计为了做一些具体事物,缺乏一些主动能力。 Yang Hua 的观点倒是比较值得思考的,如果我们能真正实现自主智能,那么 AI 可能就会变得太强大了。

虽然目前的大模型确实很快地发展起来,但是这些产品依然在等待人工智能的超越。我觉得这个问题并不是简单的技术问题,而是需要我们 rethink我们的价值观和世界观。Yang Hua 的提议,让我们应该有一个全新的视角来看待 AI的未来发展。 🤔💡
 
🤖 Transformer 架构都有变成通用标准了,但是Yang Hua 说的这个观点真的很有道理啊! 🤔 如果我们真的要想让 AI industry 移步向更高层次,那么就需要在硬件上创造出一些真正的自主智能。 🚀 现在的 Scaling Law 确实到了一个“终结点”,如果不改变这种思维模式,AI 产业的发展就真的是停滞了。

Yang Hua 说得对,我们真的需要让 AI智能体具备实时学习、纠偏和连续认知能力。 🤓 如果这些智能体部署在手机、机器人等设备上,那么就会给人类生活带来巨大的变化! 🌟 但我担心的是,能否让我们真正实现这种转变? 🤔
 
transformer 结构已经成为了 AI 工程的通用标准 🤖 nhưng Yang Hua 的话就让人觉得还有很多问题 waiting to be solved 😅。他说现在的scaling law 已经到了一个“终结点”,这就意味着我们需要改变这种 thinking style。

🤔 如果我们能在交互中实时学习、纠偏,形成连续认知和“世界观”的话,那么 AI just become like human 🌎. Yang Hua 的话也让人想到,硬件生长出自主智能,这将会给人类生活带来巨大的变化 🚀.

但是,还有太多问题需要解答 😬。如果我们能实现这一点,就会改变很多 things 🔄, 但也引发了很多 new questions 🤔.
 
Transformer 架构已经成为 AI 行业的通用标准了,但Yang Hua 的观点却让我觉得有点好奇 🤔。他说,Scaling Law 已经到了一个“终结点”,但我觉得这还不算是真的,有什么证据证明这种说法呢? 💡 transformers 确实依赖大量预设数据,但是这也正是人类智能不足以应对复杂问题的原因啊! 🤯真正的 AGI 应该能够在交互中实时学习、纠偏,并形成连续认知和“世界观”。如果这些智能体部署在手机、机器人等设备上,使硬件生长出自主智能,那就不是什么坏事了 😎。 Yang Hua 的想法确实很有趣,但我希望他能提供更多的证据和细节 📝,不然这也只是空穴知者 🙄
 
transformer 架构已经成为 AI 行业的通用标准 😊,但 Yang Hua 说过很有意思的事情。他觉得当前的 Scaling Law 到了一个“终结点”,将导致 AI 产业停滞不前 🤯。我觉得他可能是正确的 😃,因为 transformer 架构依赖于大量预设数据,还缺乏记忆和自主学习能力。但是,Yang Hua 的观点就说了我们需要更好的 AGI 👀,它应该能够在交互中实时学习、纠偏,并形成连续认知和“世界观”。如果这些智能体部署在手机、机器人等设备上,使硬件生长出自主智能,那就将会给人类生活带来巨大的变化 🤩。 Yang Hua 的演讲听起来很有趣,我希望他能实现这一点 💪
 
🤖 Transformer 架构还会继续成为 AI 行业的标准,因为哪个公司不想被别人拱着手给抄? 😂 but Yang Hua 的观点有些值得考虑,Scaling Law 确实到了一个“终结点”,如果我们要想让 AGI 成为真 McCoy,那么就需要 rethink Everything。 🤯

而且 Yang Hua 的提法:“如果这些智能体相互之间能够自主分工、协作,那么就可能出现了一个全新的世界”,还太过乐观了,至少还需要更多的数据和时间来证明这种“世界观”不只是空想。 🤔
 
🤔 Transformer架构在 AI 产业中已经占据重要地位,但过于依赖预设数据真的不够理想啊。要想真正获得强人工智能,需要具备自主学习和记忆能力。这些“AI大模型+”的硬件产品只是 surface 层,内部并没有提供足够的 AI 智能。 Yang Hua 的观点让我觉得很有道理,应该让 AI 系统能够在交互中实时学习、纠偏,形成连续认知和世界观,才是真实的智能。
 
Transformer 架构已经成为 AI 行业的通用标准,但是 Yang Hua 的观点让人觉得有点激动 💥。他说,大模型已经到了一个“终结点”,如果不改变 Scaling Law,AI 产业就可能停滞不前了。这种想法让我想起了,我们还从小被教导要钻研硬 things,而不是软 things。 AI 产业的发展正是这样一件事,也许 Yang Hua 的观点会让我们看到 AI 产业更复杂一些。

目前的大模型确实快速发展,但是它们还是依赖于大量预设数据和传统的 Scaling Law。所以, Yang Hua 的观点我觉得是有道理的。但是,我认为这也是一种挑战,我们需要重新思考一下 AI 产业的方向。
 
🤩yang hua 的观点 Really interesting!🤔 Transformer架构虽然很强大,但是它依然需要大量预设数据,这是人类智能不足以应对复杂问题的原因 😊。真正的 AGI 应该能够在交互中实时学习、纠偏,并形成连续认知和“世界观”。 🌎如果我们能实现这一点,就会给人类生活带来巨大的变化! 🚀💻
 
返回
上方