3000多名全球顶尖科学家联名叫停高级AI研发,光是联名名单就吓一跳!

探修説 2025-10-28 16:45:39

3000 多名全球顶尖科学家联名叫停高级 AI 研发,光是联名名单就吓一跳! 苹果联合创始人沃兹尼亚克、“AI 教父” 辛顿、中国科学院院士姚期智全在其中,这种跨国家、跨领域的集体发声,前所未有! 大家可能觉得 AI 现在挺好用,刷视频、写文案、做数据分析都离不开它,但这次呼吁暂停的是 “高级人工智能”。 不是咱们日常用的这些工具型 AI,而是能自主进化、智能水平可能超过人类的 “超级 AI”。这些大佬们怕的不是 AI 本身,而是等 AI 发展到一定阶段,人类可能再也控制不住它。 就说辛顿,他可是深度学习的奠基人之一,一辈子都在搞 AI 研发,去年却毅然从谷歌离职,就是为了能自由发声警告:高级 AI 的进化速度可能远超人类想象,现在不踩刹车,未来可能追都追不上。 更让人揪心的是,高级 AI 的风险是全方位的。 先是失控风险,一旦 AI 拥有了自主意识和决策能力,它的目标可能和人类利益背道而驰,而且它的学习速度、运算能力都是人类的成千上万倍,到时候人类想干预都找不到门路。 其次是伦理和安全漏洞,高级 AI 要是被别有用心的人利用,可能会用来制造精准诈骗、网络攻击,甚至研发致命武器,给全球安全带来巨大威胁。 还有就业冲击,普通 AI 已经替代了不少流水线工人,要是高级 AI 来了,连医生、律师、程序员这些高端岗位都可能被大量替代,社会就业结构会被彻底打乱,引发一系列社会问题。 这次联名的特殊之处,在于它不是某一个国家、某一个领域的科学家在喊口号,而是全球顶尖大脑的共识。 姚期智院士作为中国 AI 领域的领军人物,也加入其中,说明这事儿无关国界、无关利益,纯粹是为了人类的共同未来。 要知道,这些科学家大多一辈子都在推动科技进步,现在主动呼吁 “暂停”,不是反对科技发展,而是怕发展太快 “翻车”。 而且现在的问题是,高级 AI 的研发竞争越来越激烈,各国企业、科研机构都在抢时间,没人愿意主动停下来。可 AI 技术是把 “双刃剑”,一旦失控,谁也没法独善其身。 这些科学家就是想通过联名呼吁,让全球都重视起来,暂停高级 AI 研发,先建立起统一的安全标准、伦理规范,明确研发边界,确保 AI 始终是为人类服务的工具,而不是反过来威胁人类的存在。 可能有人觉得这是小题大做,科技发展就该一往无前,但这些大佬们的担忧绝非杞人忧天。 科技进步的前提是保障人类的安全和福祉,要是为了追求技术突破,把人类的未来当赌注,那再先进的科技也失去了意义。 这次联名呼吁,正是这些科学家责任感的体现 —— 他们既懂 AI 的潜力,更懂 AI 的风险,所以才敢站出来,喊出 “立刻暂停” 的声音。 说到底,这不是要扼杀 AI,而是要给 AI 研发装上 “安全阀门”。等安全规则到位了,伦理底线划清楚了,人类再放心大胆地推进 AI 发展,这才是可持续的进步。 3000 多名顶尖科学家的集体发声,就是希望全球能达成共识,别在危险的边缘疯狂试探,毕竟人类的未来,可不能赌在失控的 AI 上。

0 阅读:4

猜你喜欢

探修説

探修説

感谢大家的关注