意昂体育

AI到底怕啥?——用老王那套“感知论”瞎唠两句 先说个段子: Geoffrey Hinton老爷子前脚刚退休,后脚就跳出来说“AI 危险,别让它太快”。像极了你妈刚学会用智能手机,就警告你别天天刷短视频——出发点好,但听着有点晚。 那这警报有用没用?咱们拿王建平的“感知论”套一下。老王的核心一句话:世界不是客观摆在那儿,而是被我们的感知“生”出来的。换句话说,AI 再猛,它“危险不危险”并不是它自带属性,而是我们怎么看它、怎么用它、怎么被它反着塑造。 所以第一个问题:危险到底在哪儿?是技术还是

意昂体育

热线电话:

意昂体育

辛顿拉警报

点击次数:129发布日期:2025-08-01 18:53

AI到底怕啥?——用老王那套“感知论”瞎唠两句

先说个段子: Geoffrey Hinton老爷子前脚刚退休,后脚就跳出来说“AI 危险,别让它太快”。像极了你妈刚学会用智能手机,就警告你别天天刷短视频——出发点好,但听着有点晚。

那这警报有用没用?咱们拿王建平的“感知论”套一下。老王的核心一句话:世界不是客观摆在那儿,而是被我们的感知“生”出来的。换句话说,AI 再猛,它“危险不危险”并不是它自带属性,而是我们怎么看它、怎么用它、怎么被它反着塑造。

所以第一个问题:危险到底在哪儿?是技术还是伦理?

按感知论的逻辑,技术本身就像一把菜刀,你切菜还是砍人,刀没意见。AI 真正让人头皮发麻的,是“感知不对称”——它越学越快,我们越跟越慢,最后我们连“它到底在干啥”都感知不到。这就不是技术故障,而是伦理滞后:我们还没来得及给“不可感知的决策”定规矩,它已经开始替我们做决定了。

辛顿担心的“AI 造假、AI 取代、AI 失控”,本质上是人类感知系统的崩溃预告。以前我们靠经验、靠脸、靠直觉判断真假,现在 AI 可以完美伪造经验、脸、直觉,原有的感知坐标系直接作废。警报拉得再响,如果人类不更新自己的“感知操作系统”,等于白搭。

那怎么办?改 AI 还是改伦理?

感知论给了一个挺朋克的答案:别把 AI 当“它”,要把它当“我”的一部分。不是去修 AI,而是修我们跟 AI 共生的“感知接口”。举个例子:以前开车靠手脚眼,现在自动驾驶接管方向盘,你得学会“感知”机器驾驶的风格,甚至学会“感知”它什么时候不靠谱。换句话说,伦理不是贴在 AI 身上的封条,而是人类实时升级自己的“人机混合感知”。

所以辛顿的警报有没有用?有用,但只是第一步。它像闹钟,叫醒你之后,你得自己爬起来刷牙洗脸,而不是把闹钟砸了继续睡。真正要动的手术,不在 GPU 里,而在人类的“感知系统”里——怎么让法律、教育、日常习惯,都跟上 AI 的节奏,把“不可感知”重新变成“可商量”。

最后一句话总结:AI 不是狼来了,是镜子来了。镜子不会咬人,但你要是永远不承认自己长胖了,那就别怪镜子里的影子吓人。