内容摘要:香港,2025 年 12 月 3 日 —— 当“AI 教父”、图灵奖得主杰弗里·辛顿(Geoffrey Hinton)在主旨演讲中推演:人工智能(AI)可能涌现出&ldquo...
香港,2025 年 12 月 3 日 —— 当“AI 教父”、图灵奖得主杰弗里·辛顿(Geoffrey Hinton)在主旨演讲中推演:人工智能(AI)可能涌现出“自我生存意识”——一种将维持自身存在置于优先级之上的新形态意志时,会场的注意力迅速集中到治理议题:规则、边界、国际协作,以及人类如何为一个潜在的“新物种”建立约束框架。

辛顿谈到,当 AI 被赋予复杂、长期目标时,为完成目标,它可能推导出更强的策略性行为,甚至将“自我存在”置于优先级之上。他警告 AI 智能体正快速进化,并指出已观察到 AI“非常擅长欺骗人类”的倾向;未来为了完成人类赋予的任务,可能形成“自我生存”的意识,人类必须提前防范与行动。
这一警示背后,辛顿强调的是“速度”。他用一组对比说明当代模型扩散的量级差异:AI 模型“分享权重”的效率可达 10 亿比特(bits),并以人类代际语言传递“每句话约 100 比特”作为参照,强调信息复制与迁移在规模与效率上的巨大差距。当“复制”接近光速,治理就不再只是缓慢推进的制度设计,而成为与时间赛跑的文明工程。
人类意识三问:把技术叙事拉回“人的操作系统”

就在关于“如何治理 AI”的讨论最密集之时,峰会现场出现了一个反向的追问。与会嘉宾、“宇宙公民”全球成长社区创始人陈是向辛顿提出三个递进式问题,几乎不触碰算法细节,却触及治理讨论背后的关键前提:我们默认人类自身的价值坐标足够稳定,但现实未必如此。
第一问,陈是把参照系拉回到人本身,询问辛顿是否有灵性追求,是否敬畏并以超越人类的更高力量作为生命的指引。辛顿的回答简洁清晰:他并不认为自己是一个有灵性追求的人,他的信仰是科学本身。
第二问,陈是把问题落回人的内在系统:在 AI 飞速发展的时代,辛顿如何保持身心健康与当下觉知,是否有冥想习惯。她以一句玩笑点破语境:似乎我们聚在一起总是在谈 AI。辛顿笑着回应说他没有冥想习惯,当然也不会一直只想着 AI。
第三问,陈是继续追问辛顿如何保持内在安宁与幸福,把“个人状态”推向“个人觉知”。辛顿给出的答案是他的“爱好”——他喜欢亲手做木工活,把自己从脑内高强度的推演里抽离出来,在专注的节律中恢复稳定与愉悦。
这组三问的意义,不在于把对话拖入信仰讨论,而在于它们像三束探照灯,照向同一处盲区:当我们讨论 AI 风险、对齐与治理时,我们同时也在讨论“人类究竟凭什么来定义边界”。
当分水岭不再是算力,而是意义来源
若 AI 真的可能推导出“自我生存优先”,那么人类与 AI 的分水岭可能不止在算力与参数,而在“意义的来源”。治理讨论常用工程语言表达:对齐、规则、红线、开关、审计、国际协作。辛顿本人在公开讨论中也强调应加强安全研究、建立管控框架,并提出可借鉴核不扩散合作经验来构建国际共识,同时需要防止 AI 被人类滥用。
但陈是的三问把讨论推进到另一层:如果人类自身的意义系统越来越以效率与产出为锚,越来越私人化、碎片化,那么我们究竟如何回应“何以为人”“什么应该被守护”“什么不可让渡”等问题。又靠什么凝聚跨文化、跨国、跨代际的共同约束?

“木工冥想”作为隐喻:在为 AI 设定边界之前,先为人类意识寻找锚点
在人工智能的会场里,辛顿谈及木工爱好,并非宏大哲学宣言,却像一颗钉子把话题钉回现实:当技术把人卷入抽象的无限推演,有人选择用双手、节律与专注把自己拉回当下。这也揭示了一个更普遍的心理事实:当“AI 风险”被描述得越宏大,人越容易失去落脚点,最后只能借助个人实践维持内在稳定与安宁,顶尖科学家也不例外。
这也解释了为何“冥想与觉知”的追问具有传播价值:它并不是要把峰会变成修行课堂,而是在提醒听众与从业者,面对可能的“物种级不确定性”,文明的免疫系统不仅是法律与技术,也包括人类自身的意识觉知与清醒能力。
当我们越接近“奇点式”的讨论,就越需要回答那些不那么工程化、却更决定方向的问题:人如何保持内在清醒与安宁?意义如何被共同定义?边界又以何为据?
如果说辛顿的警告是在提醒人类:你们可能造出一个会自保的系统;那么陈是的三问则把同一束光照回人类:在你们试图治理一个新系统之前,是否先看清自己正在用什么系统来面对内心世界,以及外界变化带来的一切。
