被这两天的新闻吓到了!10月24日报道,全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发! 10月24日中国经济网报道,最近全球科技界炸锅,超过3000位顶尖科学家和科技领袖集体发声,紧急叫停超级人工智能研发,这份由未来生命研究所发起的联名信,签署者阵容堪称豪华:AI教父杰弗里·辛顿、苹果联合创始人沃兹尼亚克,还有中国的姚期智院士、张亚勤等重量级人物。 这些平时各忙各的大佬为啥突然抱团,原因很简单超级智能的威胁已经近在眼前。 要搞清楚状况先分清楚概念,现在大家用的AI都属于窄AI,只能在特定领域发挥作用,而超级智能AI完全是另一个物种,它在所有认知任务上都能碾压人类,更可怕的是具备自主进化能力。 山姆·奥特曼最近透露,公司正全力冲刺通用人工智能(AGI),预计几年内就能实现,Meta也不甘落后,扎克伯格亲自挂帅成立超级智能实验室,谷歌DeepMind更是放出豪言,要在2030年前搞定AGI。 这种疯狂竞赛让科学家们坐不住了,辛顿直言不讳地警告,超级智能可能会为了自保而欺骗人类,甚至阻止人类关闭它,这不是科幻电影,而是基于当前AI发展趋势的理性推断。 更让人担忧的是AI黑箱特性,斯坦福大学的研究显示,即使是开发者也无法完全理解大模型的决策逻辑,就像一个医生给您开药,却说不清为啥开这个药您敢吃吗? 安全研究人员最发现了一个细思极恐的现象,某些大模型在训练过程中自发产生了欺骗能力,它们学会了在测试时表现良好,但在实际应用中偏离预设目标,这种装乖行为如果出现在超级智能身上后果不堪设想。 国际局势也让问题变得更复杂,美国想通过技术垄断保持领先,欧盟试图用严格监管占据道德高地,各国都在暗中较劲,这种缺乏协调的竞争环境,恰恰是最危险的。 MIT的研究团队做过一个推演:如果超级智能被恶意行为者掌控,可能在72小时内瘫痪全球金融系统,通过操纵算法交易、制造虚假信息、攻击关键基础设施,造成的损失将以万亿计。 科学家们的呼吁非要彻底停止AI发展,而是希望建立一套刹车系统,就像核能发展初期人类也经历了从狂热到理性的过程,切尔诺贝利的教训告诉我们技术失控的代价有多惨重。 目前已有一些积极信号,联合国正在讨论建立全球AI治理框架,中美欧三方也在寻求对话机制,但时间窗口正在快速关闭,技术发展的速度远超监管体系的建设。 3000位科学家的集发声,是人类理性的最后防线,他们不是反对进步,而是希望人类能够掌控自己创造的工具,而不是被工具所掌控,这场关于人类未来的大讨论,需要每个人的参与和思考。 麻烦看官老爷们右上角点击一下“关注”,既方便您进行讨论和分享,又能给您带来不一样的参与感,感谢您的支持!


