HTK新闻网

俄媒 :中国专家认为阿西莫夫的机器人三定律已经不再适用! 战斗机器人显然违反了第

俄媒 :中国专家认为阿西莫夫的机器人三定律已经不再适用! 战斗机器人显然违反了第一定律,因此需要新的规则。 7月11日塔斯社刊文。 使用世界上已经在开发的人形战斗机器人可能会引起道德问题,艾萨克·阿西莫夫提出的机器人三定律已经不再适用于他们。 这是中国专家在中国人民解放军报纸《周报》上发表的看法。 袁毅、马艺、岳世光等专家表示: “军用人形机器人是迄今为止最具人形的武器,如果大规模和标准地使用,将不可避免地导致法律指控和道德谴责。” 这篇文章引用了美国科幻作家艾萨克·阿西莫夫(Isaac Asimov)提出的机器人三定律。 这意味着机器人不能伤害人类,必须服从人类的所有命令,并照顾自己的安全,除非这违反了第一条规则。 作者强调,战斗机器人显然违反了第一定律,因此需要新的规则。 “在这方面,军用类人机器人至少要做到三件事:服从人,不修改依赖人的程序,不在用户不受限制的情况下实施暴力,尊重人,严格区分人,不任意摧毁人。”中国专家说。 在分析人形机器人的作战应用能力时,中国专家提出了五个主要方案。 第一,在地面战斗中替换或帮助人们。 “具有接近人类的综合作战能力的类人战斗机器人,可以取代步兵在城市和野外与敌人作战,这可以大大减少人员伤亡。” 第二种情况是,用坦克、步兵战车和战斗机等中小型装备取代人。使用人形机器人作为“设备控制设备”可以减少人员伤亡。 第三,类人机器人可以参与轰炸机、战略和战术导弹、舰艇和其他需要多人维护的设备的使用。 第四,这类部队可以代替军人执行复杂的后勤和后勤支援任务,例如担任医务人员、技术维修人员和其他专业人员,“逐步减少军队中劳动密集型职位”。 最后,在高风险地区,如核、生物和化学污染区,在极端高温或低温条件下,以及在深海、太空和地球内部,战斗类人机器人可以取代人类。

评论列表

阿道夫强力去油
阿道夫强力去油 68
2025-07-11 22:16
全世界都应该庆幸,科技掌握在真正的文明手中,而不是满世界开战的战争贩子
用户10xxx42
用户10xxx42 41
2025-07-11 23:16
当初中国在联合国大会上反对机器人用于战争的,关键欧美不听啊,那就……献丑了——

ZJW 回复 07-12 18:40
汽车厂焊接作业的也是机器人[抠鼻]

ZJW 回复 07-12 18:39
现在不算自主,最多算人在环中,等权限下放到人在环外时可就不一样了,可别低估了ai的发展。

俊勇
俊勇 34
2025-07-11 21:34
机器人还是机器,真正要防备和信任的是AI

对酒当歌 回复 07-12 17:36
现在不能简单的用人类年龄来分辨了。你说deepseek相当于多少岁的人?在一些领域研究生都无法和它比较。他还能模拟一定的情绪情感,还深谙人情世故。现在的ai你很难像以前一样来说它的智慧到什么程度

大师兄妖怪被师父抓走了 回复 对酒当歌 07-12 18:46
只要遵守底层逻辑就永远只是程序,程序的智慧意义不大

azhongii
azhongii 23
2025-07-12 05:56
一个科幻小说家随口胡诌的玩意 你还当真理了?[哭笑不得][哭笑不得]

庙堂江湖 回复 07-12 14:34
你敢把自主攻击权限交给机器人吗?你根本就不知道机器人会不会出故障,或者说你不敢保证机器人自我进化,到时候机器人无差别攻击的时候就是人类末日。

wweekie 回复 庙堂江湖 07-12 15:35
美军无人机就不听操作员指挥发起攻击

摇摇乐
摇摇乐 22
2025-07-11 18:42
机器人三定律只是寄希望于制造者的,实际情况不可能!要我说,应该以“缺陷”原则来制定法律,即不能设计和制造“完美”的机器人!必须带有“缺陷”,比如智力高的不能拥有躯体,有强力躯体的不能有高级智慧。

岳云 回复 07-12 12:42
有个技术叫联网,有个东西叫云端,你想分开就怕有一天它们不想分开

用户80xxx60
用户80xxx60 19
2025-07-11 18:32
都是造出来的工具,为什么美国造出来的可以满世界轰炸

wweekie 回复 07-12 15:34
有后门,想让你用就能用,不想就让你趴窝

荷花爸 回复 07-12 12:41
因为美国背后有中国的支持

流浪的风
流浪的风 9
2025-07-12 00:23
战争就是用一切手段获取胜利,所以机器人三原则在战争面前啥也不是

溜了溜了 回复 07-12 20:45
按照人道主义的话,以后的战争有可能是,机器人对战输了,失败的一方投降,人不用死,或者战争过程中死少量的人(毕竟肯定有人参与),当然战争为了胜利,确实是可以不择手段,但是胜利的一方完全可以用机器人押俘,就算鱼死网破也造不成太大的损失。人总是有求生欲的,能活谁也不想死。

用户17xxx75
用户17xxx75 7
2025-07-12 11:10
遥控机器人不是自主意识的机器人,本质还是人为控制
王志强
王志强 6
2025-07-12 12:53
说实话,军用机器人是真打开了潘多拉魔盒,没有一个人能预言出人工智能会发展成什么样,人类可能真的给自己埋下了一颗未来有可能爆炸的种子
你跌
你跌 5
2025-07-12 12:39
联合国大会,中国:禁止研发战斗机器人。美英法:反对!俄罗斯:弃权。中国:这你们说的,那我可就量产了啊。
用户15xxx65
用户15xxx65 4
2025-07-11 22:21
虾扯蛋,程序都是人编的,不是想怎么设定,就怎么设定![抠鼻]

夏至 回复 07-12 09:19
外行,程序代码本身就无法用绝对指令,总有一些模糊逻辑,先天性问题。

对方正在怼入
对方正在怼入 4
2025-07-11 17:18
呵,人都可以伤害人类,机器人为什么不可以伤害人类?
宋辉
宋辉 4
2025-07-12 13:43
西方自己搬石头砸自己的脚。人形机器人乍一出现,中国立马提案禁止人形机器人用于战斗,被西方给否了,于是中国名正言顺的开始研究起人形机器人[哭笑不得][哭笑不得][哭笑不得]
918
918 4
2025-07-12 14:04
以AI目前的发展速度,很难想象其智能发展多长时间会超越人类,当人类尚能操控人工AI时对人类是一种福利,当其智慧超越人类而又没有基本规则约束时,对人类就是巨大的威胁,尤其是当其与武器结合时,人类将面临灭亡可能,不幸的事,随着大国之间竞争加剧,某些国家为了争夺世界霸权很难阻止其无限制的将AI和机器人与战争结合在一起,如果任其野蛮发展,迟早有一天机器人会调转枪口对准人类,而人类将毫无办法
我本楚狂人
我本楚狂人 4
2025-07-12 13:16
不可拘泥于成法,打仗以战胜为第一法则,甚至不择手段
用户17xxx75
用户17xxx75 4
2025-07-12 11:04
毛子谈道德,真让人浑身不适
苦咖啡
苦咖啡 3
2025-07-12 11:09
说在多都是屁话,最终怎么用都是人决定的,
双生魂
双生魂 3
2025-07-12 14:58
当初在联合国是我们提议禁止研究战争机器人的,但其他流氓都不同意
塞北听雪
塞北听雪 3
2025-07-12 19:09
战斗机器人只是智能工具,核心是普通的程序,还没有达到电影里机器人那样的程度,电影里的机器人有思维,起码相当于gpt3层次的AI程序
BOBO
BOBO 3
2025-07-12 10:58
机器人三定律只是个小说家的臆想,从来不是真理
ZJW
ZJW 3
2025-07-12 09:16
明明是你们反对中国关于禁止研究ai自主杀人机器提议的。
尾巴
尾巴 3
2025-07-12 13:16
当年在看到阿西莫夫的三原则时就觉得是狗屁,人不吃人的底线不是不好吃而是吃了会容易生病,机器人为什么不能伤害人类?也会生病吗?如果会生病那又是哪个机制起了作用?

六翼 回复 07-12 13:42
他的意思是,所有智能机器人应该在研制生产的时候就内置将这三定律作为首要遵守的原则,因为如果没有约束使用人工智能的话,随着智能等级的提高,可能导致智能机器人摆脱人类的控制,进而毁灭人类。军用机器人很难用这个定律限制,《终结者》电影就描述了这样的未来。

尾巴 回复 六翼 07-12 13:50
如何内置,烧在开机Rom里[开怀大笑]

AMX 13 90
AMX 13 90 3
2025-07-12 19:28
三大法则是底层逻辑,有制造能力的谁遵守了?
^阳光心情+
^阳光心情+ 3
2025-07-12 11:44
也就中国人把这所谓的三定律当真了,美国人绝对没把这当回事,有时候道德标准太高真不好就,但说不定中国又是以退为进呢?!
王者归来
王者归来 3
2025-07-12 18:13
机器人三大定律对应的是拥有自主人格的机器人,目前机器人还没达到这种程度。这种简单粗暴的定律有太多绕过的方法,太理想化了。
用户11xxx61
用户11xxx61 3
2025-07-11 22:49
现在算什么机器人,高级遥控玩具而已。考虑这个差得远
向阳而行
向阳而行 2
2025-07-12 14:57
战争最终就是消灭有生力量才能取得胜利,既然是战争,还保护人,减少人员伤亡,还考虑不人道的一面,这TMD什么玩意儿。
用户10xxx22
用户10xxx22 2
2025-07-11 19:49
软件层面必须限定使用严格的逻辑计算程序,禁止使用模糊计算程序。
用户88xxx51
用户88xxx51 2
2025-07-12 15:16
目前的战斗机器人都是人控制的,等它们独立了再说伦理道德问题
jiang_783
jiang_783 2
2025-07-12 12:17
当你足够强时,规则由你制定。
奋斗
奋斗 2
2025-07-11 17:23
人类终结者!
我乐哈哈
我乐哈哈 2
2025-07-12 16:23
机器人三定律主要适用于“非战争”领域。并且最重要的是:这个定律是适用于智能型机器人的,即:无需指令可自行工作的机器人,或者说,有思想的机器人[捂脸哭]
嘿好运来
嘿好运来 2
2025-07-12 12:08
规则就是会被突破的。从发明机器人开始,人类就注定会被取代。
key
key 2
2025-07-12 12:08
这里的机器人应该指的是具有自主思维能力的人工智能机器人,估计当时这位科幻作家认知有限。

六翼 回复 07-12 13:47
[捂脸哭]现在人工智能的发展却证明这位科幻小说家有先见之明,比如马斯克的AI都已经不受他控制发出与他不同的意见

四海游龙
四海游龙 2
2025-07-12 13:45
一个小说作者有什么资格设置规则
918
918 2
2025-07-12 13:55
机器人、AI都可以造福人类,但是当这两样跟战争结合在一起的时候,人类离灭亡也不远了
专业怼口嗨
专业怼口嗨 2
2025-07-12 11:50
现在都是人为控制算什么机器人啊,还没有哪个国家搞自主AI武器吧,就算有也不可能把攻击自主权交给AI吧

六翼 回复 07-12 13:38
以前确实是最终攻击权由人来决策,但最近这几个月,美国空军宣布现代空战交战时间极短,由人决策会贻误战机,已经考虑由AI自主决定攻击,目前其方案正在伦理审查。如该方案通过的话,确实开了个坏头

我是你得不到的美男子
我是你得不到的美男子 2
2025-07-12 12:01
这个好办啊,战争时直接剥夺掉敌人的人籍就可以了[doge][doge]
熊垂勇
熊垂勇 2
2025-07-12 12:38
妇人之仁
燕赤龙
燕赤龙 2
2025-07-11 20:01
遥控的不算吧?
武寒旭
武寒旭 2
2025-07-12 14:06
没那么麻烦,在机器人的电脑中,将敌人影射成疯狗就行了。
易水
易水 2
2025-07-11 21:52
高效的AI分柝、处理系统已违背了一切!
墨里春秋
墨里春秋 2
2025-07-12 21:13
但凡懂一点人工智能常识的都知道,能让机器人判断出自己在伤害人类的算力比起杀死人类的算力不知道要高了多少倍
LY
LY 2
2025-07-12 16:47
说到底,最后还不是要发展杀人机器
000
000 2
2025-07-12 17:12
敌人不是人
鱼满舱
鱼满舱 2
2025-07-12 18:30
图二机器狗被旧有的习惯影响太多,实战后绝对会换装长弹匣或弹鼓。
用户10xxx86
用户10xxx86 2
2025-07-12 11:44
.AI早晚会代替人类!这是个阳谋!无解!
一路向西
一路向西 2
2025-07-12 19:59
战争就是突破旧规则与秩序的激烈反应。在战争中讲什么法律与道德问题就是自缚手脚的迂腐傻白。打败敌人、甚至于消灭敌人取得胜利才是王道。无论历史的叙事权还是法律与道德的制定权都牢牢掌握在胜利者手中!
用户96xxx54
用户96xxx54 2
2025-07-12 18:13
机械人时代的到来 绝对是我国站世界之巅的到来 强大的工业产业链 战场机器人加无人机一波流 核武之下谁与争锋
买火柴的怪蜀黍
买火柴的怪蜀黍 2
2025-07-12 10:47
我们没用机器人,我们用的是机器狗机器狼
ナ エ
ナ エ 1
2025-07-12 11:03
真是可笑,一个科幻作家说的话怎么可能成为定律,理想化的设定都没经历实践考验。
流氓的低音鼓
流氓的低音鼓 1
2025-07-12 13:32
中国已经提出过机器人不能军用,但被联合国否了[抠鼻]
阿迪达斯
阿迪达斯 1
2025-07-11 23:01
对!自己的机器人不能攻击自己!但敌人就要消灭
琪乐融融
琪乐融融 1
2025-07-12 14:18
那就叫机器猴吧[开怀大笑]装个尾巴[开怀大笑]
gaofen6284
gaofen6284 1
2025-07-12 10:31
兵器追求的一直都是更高的杀人效率!
一二三四五六七
一二三四五六七 1
2025-07-12 14:25
能杀人的机器,为什么一定是人形的才算?
行者
行者 1
2025-07-12 14:44
这不是定律,是规则
薙的追随
薙的追随 1
2025-07-12 14:54
人类早晚被AI灭掉
印记
印记 1
2025-07-12 19:55
就这设定,写的小说我都不看,太肤浅太垃圾
taoniu0
taoniu0 1
2025-07-12 11:41
将敌人定义为非人类就完善解决了第一定律。
老马哥
老马哥 1
2025-07-12 14:36
现在的导弹其实就是机器人了。
SUN
SUN 1
2025-07-12 11:41
终结者是终将到来的!
DungkinC
DungkinC 1
2025-07-12 18:00
这些人不是蠢就是脑子有问题(间谍)。当中国取得巨大成就时,某些人总是喜欢把美西方当成立了牌坊的表字一样,对牠们嘴中所谓中国颠三倒四指责;但美西方在某些方面成功了,就被当成自己父母一样跪拜…
微尘
微尘 1
2025-07-12 11:13
科技的尽头是毁灭
一壶酒
一壶酒 1
2025-07-11 17:40
机器人始终就是一个工具而已,看使用他的人是什么人,之所以感觉机器人很高大,那是因为他聚集了大多数人的智慧而已,就像第一次照镜子,总感觉镜子里的人是真的,其实那就是你自己
瓦力
瓦力 1
2025-07-12 14:38
防止硅基生物崛起才是正经[得瑟]
未完待续
未完待续 1
2025-07-12 20:55
三定律第一条指的是,机器人在自己的意识控制下,不能伤害人。你抡起机器人的腿去咂另一个人,机器人也没办法呀
用户16xxx08
用户16xxx08 1
2025-07-12 13:20
战争就是要征服对方,对方不从那就是杀死对方,还在意谁杀死它?温压弹,脏弹等都用上了,你跟我说人性?
七月新番战国明月正在新更
七月新番战国明月正在新更
2025-07-12 13:56
看deepseek给出的军事机器人五点伦理。