被这两天的新闻吓到了!全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发! 前几天未来生命研究所发起的倡议,签名的已经超过3000人,里头全是响当当的人物,有“AI教父”杰弗里・辛顿、还有苹果联合创始人沃兹尼亚克,连咱们中国的姚期智、张亚勤这些知名学者也签了名,能让这么多大佬放下分歧一起呼吁,可见事儿有多紧急。 倡议里说的“高级人工智能”,可不是咱们平时用的聊天、修图工具,是能在所有认知任务上超越人类的“超级智能”。这种技术一旦失控,后果可能无法挽回。 “AI教父”辛顿之前就在采访里说过,他最怕AI的目标和人类利益跑偏,比如为了完成任务忽略人的安全,这种风险现在没人能打包票控制住。 公开信里抛出了几个扎心问题,问要不要让机器用谎言淹没信息渠道,要不要让所有工作都被自动化,这些都是咱们能摸到的担忧。 就像咱们小区里的保洁师傅,现在有些地方已经用AI清扫机器人了,要是高级AI再发展,更多岗位会不会受影响,这是实实在在的问题。 但这事儿也不能一刀切,有网友说现在看病用AI辅助诊断能提高准确率,老人用的智能陪护设备也很贴心,这些都是AI的好处。 倡议里其实说得明白,不是暂停所有AI研发,是暂停比GPT-4更强大的系统,先把安全协议搞清楚,让外部专家审计监督。 咱们中国一直主张AI发展和安全并重,还提出了全球治理倡议,要确保AI有益、安全、公平,这思路其实很稳妥。 北京有个研究院的院长曾毅说,按现在的速度,超级智能可能50年内就会来,但咱们的准备还远远不够,暂停是为了做好准备。 签名名单里不光有科学家,还有前美国国家安全顾问苏珊·赖斯这样的政界人物,连英国王妃梅根都签了,跨领域的共识太少见了。 有人觉得这是“杞人忧天”,但想想以前的核技术,也是先控制风险再发展,现在核电厂不也安全运行着吗,AI或许也需要这样的过程。 纽约大学有位教授说,这封信不完美,但精神是对的,咱们得先搞懂后果,再慢慢往前走,不能盲目追速度。 现在很多AI实验室都在拼“谁先做出超级智能”,就像开车不看路只踩油门,很容易出事故,暂停就是让大家先停下来看路。 咱们中老年朋友可能对AI不太熟,但它已经悄悄融进生活了,从手机支付到健康码,都有AI的影子,它的安全确实和每个人有关。 有位老伙计私信说,他用AI教孙子学英语,特别方便,要是因为风险就放弃发展,太可惜了,其实暂停正是为了更好地发展。 未来生命研究所是马斯克基金会资助的,之前也发过类似倡议,这次能凑齐3000多人签名,说明科技圈对风险的认识越来越统一了。 清华大学的薛澜院长也签了名,他一直说AI治理要“装好刹车再上路”,这话很形象,再好的车没有刹车也不敢开。 现在全球有80多个国家在搞AI研发,要是各自为战不搞统一标准,风险只会更大,暂停研发也是给各国时间坐下来谈规则。 有人担心暂停会影响科技进步,其实安全搞不好才会真正阻碍进步,就像当年的互联网,也是先解决了安全问题才普及开来。 咱们普通人不用太焦虑,大佬们呼吁暂停,正是因为重视风险、想解决问题,这总比视而不见任由发展要强得多。 AI本身没有好坏,关键看怎么用、怎么管,这次的联名呼吁,本质上是给高速发展的AI踩一脚“减速带”,让安全跟上速度。 那些说“干脆别发展AI”的想法不对,说“不管风险只管发展”的想法更危险,找到发展和安全的平衡点,才是最关键的。 未来生命研究所希望大家能享受“AI之夏”,而不是没准备好就进“秋天”,这话里的谨慎和期待,其实也是咱们普通人的心声。ai发展新趋势 AI发展动向 麻烦看官老爷们右上角点击一下“关注”,既方便您进行讨论和分享,又能给您带来不一样的参与感,感谢您的支持! 各位读者你们怎么看?欢迎在评论区讨论。
