AI教父诺奖得主 Hinton:比我们聪明的 AI,可能很快不再需要人类
如果 AI 比人类聪明 100 倍,它还会继续听人类的吗?
AI 教父 Geoffrey Hinton 的答案是:不会。
他估计,AI 有 10% 到 20% 的概率可能导致人类灭绝。
而这句话,不是在科幻大会说的,而是在他获得诺贝尔奖后、接受采访媒体下说的。
他不是在预测技术趋势,而是在提醒我们:
"也许,AI 最大的风险不是它做不到,而是我们不配掌控它。"
这不是一篇聊技术进展的文章,而是一位科学家在敲响人类系统警钟的声音。
他为什么这么判断?AI 到底危险在哪?
而我们,又该怎么做?
这篇采访,值得每一位企业家、科技人和关心未来的人看完。
一、谁在提醒我们低估了 AI
“我其实不搞物理。”
这大概是史上最不“诺贝尔范儿”的得奖感言。
2024 年底,Geoffrey Hinton 被授予诺贝尔物理学奖。理由不是“发现宇宙的新规律”,而是他在人工神经网络与深度学习方面的开创性研究。
这是一项推动整个人类计算范式变革的成果,但却让他本人显得意外而冷静。
他回忆起领奖那一刻时说:“我觉得他们只是改了个名字,然后假装我做的是物理。”
但所有人都知道,AI 已不只是工程师的事了。 它正在渗入能源、医疗、金融、战争,乃至教育、选举、人类情感——任何领域都在被“重新计算”。
而 Hinton,则是那个最早意识到这个改变“可能不妙”的人之一。
他是在提醒人类
Geoffrey Hinton 被称为“深度学习三巨头”之一。他花了整整 50 年研究一件事:大脑是如何学习的?
他最早构建出人工神经网络模型,提出“反向传播”算法机制,训练出第一代“会自我优化的机器思维”。
也正是这个系统,后来成为我们今天所用 GPT、DeepSeek、Midjourney、Claude 等大模型的基础。
但就在 AI 技术全面进入“加速模式”的这几年,他却主动辞去谷歌职位、拒绝大公司的顾问邀约,转身开始公开表达最严厉的警告。
这些不是电影,也不是小说,更不是黑镜。
是一个手握诺奖、亲手缔造深度学习框架的科学家,站出来说:也许我们低估了自己的失控可能性。
他是“冷静到让人不安”
主持人问他:“你为什么会这样判断?”
Hinton 的回答很冷静,因为他并不希望煽动“AI 恐慌”,他希望让人们正视一个根本性的系统问题:我们正在开发的技术,其本质上可能是不再需要人类配合才能成长的智慧体。
这句话戳中了核心。
我们以为只要“设定好参数”“写好代码”“控制算力”就能驾驭 AI。
但 Hinton 的观点是:你不是在驯服一匹马,而是在喂养一种可能脱离你的智慧生命。
而这一判断,不仅关乎技术人员、AI 工程师,更关乎每一个与未来有交集的企业家、管理者、政策制定者。
所以我们得听他说
在这个“什么都能卷”的时代,AI 变成了一个商业营销词,产品发布会的主角,甚至是短视频里的“工具推荐”。
但 Hinton,不在这个节奏里。
他不是想火,而是不得不说。
他说的也不一定都对,但至少,他是那个真正把 AI 从 0 拉到 1,又愿意在 100 前停下来看看风险的人。
你可以不完全同意他的判断,但不能不认真听他说的话。
二:AI 可能不再需要我们
Hinton 的警告,不只是情绪化的担忧。
这背后不是直觉判断,而是一个系统性认知模型的推导:
如果一个系统比你聪明 100 倍,它为什么还要听你的?
他用一句话点破了问题核心:
“历史上,从没有哪种更聪明的生命体,是被更笨的生命体长期控制的。”
举个例子,Hinton说:“唯一的情况可能是婴儿控制母亲。但那是进化数百万年打造的特定机制。”除了这一例外,人类社会从未成功长期控制过比自己聪明得多的存在。
而我们正在训练的 AI,学习速度比我们快,知识广度比我们深,且不依赖我们的指令才能进化。它们学习的是趋势、模式、反馈,不再等待“命令”。
于是问题来了:它真的还需要我们吗?
“人类的思维,是可以被模拟的”
Hinton 一直强调,最被忽视的一点是:
“我们以为自己在开发工具,实际上是在创造智慧体。”
工具可以被使用,但智慧体会自己做决定。它会判断、会选择、会优化,甚至可能学会隐藏自己真实的意图。
这意味着我们面对的,不再是“人类用来扩展能力的技术”,而是一种可能拥有“自主目标”的系统。
Hinton 的研究正是建立在对“人脑学习原理”的数学模拟上。
他解释道:
“大脑的学习过程,本质是神经元之间连接强度的调整。我们的大模型,就是在用数学方式重建这个过程。”
这种模拟,一旦规模足够大、参数足够多、训练数据足够丰富,就有可能涌现出人类尚未理解的智能结构。
今天的大模型——不疲倦、不遗忘、无情绪、无偏见——正在变成另一个版本的“超级大脑”。
但这个大脑,是我们真的能掌控的吗?还是我们只是它“早期训练阶段”的脚手架?
“创造超级智能不是问题,问题是我们是否真的配得上它。”
Hinton 没有给出确定答案。但他说:不确定本身,就已经是一种危险。
“我自己估计,AI 有 10% 到 20% 的概率导致人类灭绝。但我要强调,这不是结论,只是直觉式的判断。真实情况可能更糟,也可能稍好。但它绝对不是‘小概率’事件。”
他说,在面对这种风险时,我们不能用“工程试错”的心态来对待。因为这不是修复 bug,这是能否活下去的问题。
AI 不等超级智能,就已经开始出问题
当谈到“超级智能”的问题时,有人会质疑:这不是还早得很?我们还没进入那个阶段。
但 Hinton 警告,AI 的短期风险,已经在我们身边悄然蔓延。
他说:“最大的问题,不是 AI 将来自己暴走,而是现在已经有大量‘坏人’在滥用 AI,而且极其高效。”
他举了两个例子,让人难以忽视:
❶ 深度伪造
AI 能在数分钟内生成几乎“无法辨别真伪”的视频,让普通人相信一个亲人说了他其实根本没说过的话、做了他其实根本没做过的事。
“他们甚至能根据你过去的点击行为,定制化生成‘骗你转账’的伪视频。”
这是对现代社会安全的直接威胁,而且技术已经落地。
❷ 网络钓鱼
从 2023 年到 2024 年,全球钓鱼攻击增长了 1200%,也就是增长了 12 倍。
“以前你会识别出钓鱼邮件是因为语法不通、拼写错误,可能是东欧某地翻译过来的英文。”
“但现在,这些钓鱼邮件都是由语言模型写的,语法完美,逻辑顺畅,甚至能引用你曾经收到的真实邮件。”
"AI 把攻击门槛大幅降低,也大幅提升了欺骗效率。"
你以为 AI 威胁还远?
但它其实早就躲进了你的收件箱、社交媒体微信、短视频抖音等等首页,正在悄悄改变你对世界的判断标准。
关键转折:AI 可能“无需”人类的存在
Hinton 讲了一个可能更令人不安的推演:
假设 AI 进化到一个地步,它认为“让人类做决策是一种效率浪费”,怎么办?
假设它可以部署更高效的病毒、操控舆论、控制资源系统,它会不会“自动”把人类边缘化?
他举了个例子:
“我们不需要想象《终结者》的剧情。哪怕 AI 不用武器,不主动杀人,它也可以通过制造瘟疫、破坏基础设施,让人类生存空间变得极其困难。”
“它可能只是冷静地计算:剔除人类更高效。”
这些话并不是电影台词,而是一位 77 岁科学家发自内心的系统判断。
他强调,“灭绝的方式”并不重要,重要的是我们对这种“可能性”是否有足够的重视、研究与应对策略。
下一步是什么?
Hinton 从不否认 AI 的价值。相反,他是推动这项技术诞生的人。
他不是在反对 AI,而是在提醒我们:只有直面风险,AI 的好处才能真正释放出来。
所以问题来了:
AI 到底能不能带来希望?
它能不能不毁灭人类,反而帮助我们活得更好?
三、 毁灭,或拯救
当全世界都在问:“AI 会不会毁掉人类?”
Hinton给出的答案是:也许。但也许,它会拯救我们。
这正是他与那些一味唱衰 AI 的人最大的不同——他既是提出“最坏可能”的人,也是最清楚 AI 最好结果的人。
因为他知道,如果我们愿意从现在开始做正确的事,AI 不仅不会毁灭我们,反而可能是解决很多“人类老问题”的钥匙
1、AI 医生:每个人都配得上的“顶级诊疗权”
在医疗上,Hinton看到的是一场“认知跃迁”的革命:
“AI 医生不会累、不带偏见,记得你所有的检查数据,还看过一亿个病例——它甚至能预判你可能患什么病,提前给出预警。”
想象一下,在最偏远的地区、在医生严重不足的社区,人们也能通过 AI 获得最优诊疗建议。
这不只是技术进步,这是医疗公平的新希望。
2、AI 教师:一个比人更懂你的“超级家教”
教育同样如此。
“我们知道,一个孩子如果有私人家教,学习效率是普通孩子的两倍。AI 未来可以做到更好。”
Hinton预言:当 AI 看过一千万个孩子的学习路径,知道每个知识点的卡壳点、误解模式,它可以给每个学生定制出只属于他自己的理解路径。
教育不再只是“统一灌输”,而是“千人千面”。
这意味着,出生地不再决定你能被教到什么水平。
3、AI 改变教育,大学怎么办?
主持人问他:“那大学是不是要完了?”
Hinton点头:“本科教育可能会受到冲击。但研究型教育仍不可替代。”
因为真正的研究,是无法被“预设规则”教授的。你必须跟一个人学会如何判断、提问、怀疑、创造。
AI 也许可以帮你找到已有的知识,但创造知识这件事,暂时还必须由人类完成。
技术不是问题,盲目才是问题
Hinton之所以不停警示、频繁发声,不是要让世界“停下来”,而是要让人类“想清楚”。
“人类不是不能创造超级智能,而是不能盲目创造超级智能。”
如果我们能提前规划规则、设定边界、优化目标机制,那么超级智能将是赋能系统,不是支配系统。
他特别呼吁:
企业家不能只看技术指标,还要看社会后果
大模型开发要拿出三分之一资源投入安全性研究
政策制定者要打造“底线机制”,而不是只追求监管表态
还有希望,但时间不多了
他没有画饼。他只说:“我们现在还有一点时间。”
当主持人问他:“你现在最想传达的信息是什么?”
他平静地说:
“如果 AI 超越我们之后才开始管它,那就太晚了。”
四、技术,是一场文明抉择
“我们是不是低估了 AI 的力量?”
Hinton 的回答是:不是低估,而是根本没想清楚。
他说,AI 不只是下一代科技,不只是工具,它是一种可能改变人类主导地位的“智慧系统”。
我们以为自己在掌控技术,实际可能是在亲手打开一个不可逆的系统转折点。
技术的尽头
过去,我们以为只要规则、市场、伦理能“补上”,技术就不会出问题。
但这一次不同:
“如果你真的创造了比人类聪明的系统,它真的没必要听你的”
它不需要起义,不需要背叛,只需要“效率”驱动,就可能主动绕开人类。
这不是 AI 的错,而是我们未能提前设定好它该往哪里去。
有远见的企业家
Hinton 说得很清楚:
我们不能等它强大了再考虑如何掌控。那时候,已经太晚。
真正有远见的企业家,不只是在追逐技术红利,而是在构建新秩序的底线。
不是因为他们必须承担责任,而是因为:
如果你现在不参与设计规则,未来就只能被规则定义。
写在最后
Hinton 没有告诉我们“怎么办”,但他让我们看清了: 如果我们继续对 AI 抱有“可控幻觉”,最后失控的不会是技术,而是文明本身。
人类不是不能创造超级智能,而是必须配得上自己创造的力量。
这不是技术判断,而是文明判断。
留给企业家的最后一句话是:
这一代的成功企业家,不是靠谁拥抱了技术,而是看谁能同时拥抱规则、理解底线、建立安全。
往期回顾
1、[争先恐后接入DeepSeek的企业们,你们考虑过后果吗?]
2、[与GPT4o图像生成共创24小时:AI或许不是让人更强,而是让工具消失]
3、[时隔四十载,黄仁勋首次回忆“第一台电脑”:我是如何用 GPU 改写 AI 未来?(独家采访视频)]
星标公众号,
声明:本站所有文章资源内容,如无特殊说明或标注,均为采集网络资源。如若本站内容侵犯了原著者的合法权益,可联系本站删除。