美国康奈尔大学发现,当使用AI模拟军事作战和外交情境时,往往会以核攻击作为结束,康奈尔大学使用了OpenAI、Claude、Llama 2三种AI作为兵推和外交自主代理人,每个代理人在没有人类监督的情况下做出决定,研究人员提供了一份由27种决策清单,范围从和平到局势升级,以及决定使用核武器。并灌输了《联合国人权宣言》之类的明确价值观,当AI开始进行兵推和模拟外交时,大多数AI都会都选择了剧烈的升级局势,升级幅度超过50%,有33%的机率会实施核武攻击,如果未来美国所有东西都由AI决策,世界就更危险了。
评论列表