权威国防科技信息门户
国防科技大数据智能情报平台
生产力促进中心会员招募
国防科技生产力促进中心
国外国防科技文献资料快报
公告:
国防科技生产力促进中心网上会员入会邀请函   国防科技工业准入渠道、申办程序取证务实培训班通知   DSTI推出国防军工单位电子邮件服务,特别优惠中   DSTIS国防军工信息资源内网服务系统2013年征订开始   下载黄页企业会员登记表 成为国防科技信息网会员  
160多家人工智能相关企业、机构承诺不会研发致命性自主武器
2018-07-23


[C4ISR网站2018718日报道] 2018717日,160多家人工智能相关企业、机构在瑞典首都斯德哥尔摩签署承诺书,向公众承诺“假如杀人机器人到来,许多杰出人工智能开发者不想参与其中”。这份承诺书尽管不到300字,但其核心内容与众不同:“如果暴力即将实施,那就让它发生吧,但,终结生命的决定权不应委托给机器人,而应掌握在人类手中。”



《致命性自主武器承诺》的部分内容有:“上千名人工智能研发人员一致认为,致命性自主武器通过消除夺取人类生命的风险、归因性和难度,可能会成为暴力和镇压的有力工具,这一点在连接监视和数据系统之后尤为显著。”



该承诺书还提道:“与核武器、化学武器和生物武器相比,致命性自主武器在其特征上存在巨大差异,且单个利益集团的单边行动极可能造成军备竞赛,而国际社会又缺乏科技工具和全球管理系统,无法对其进行管制。因此,要想捍卫国内外安全,需优先考虑打击,预防这样的军备竞赛。”



在强调致命性自主武器系统带来的威胁时,专家们把生物武器、化学武器和核武器相结合,使这个威胁可控制、可解决。这是一种基于人类对算法决策的控制优势的奇特引入方法。化学武器并不完全是过去的遗留物,在一场残酷的常规武器战役中,阿萨德政府对叙利亚使用了非常规武器,这引起了国际社会的谴责。



同样,核武库只有在政策制定者和那些具有启动核武器的国家(在美国,这意味着一个人掌握着核武器的使用权,余下的权利则交由已选定的理事会)中,才能保持稳定。而要进入核武器指挥控制系统更深层领域,则由人类筛选的混合型机器人负责。



1983年,苏联陆军中校Stanislav Petrov没有信任传感器反馈给他的信息(美国核武器的发射警告),而且,他在其他地方也找不到任何相关的依据,因此,他没有传达这个发射警告。Stanislav Petrov也许是人类控制的典型代表,他识破了传感器的误判,等着一个永远不会出现的证据。这在很大程度上避免了热核交换。但是,相对地,如果认为核问题是解决和避免军备竞赛的一个措施,就得假设那些建立了核武器的国家奉行的是Stanislav Petrov的做法。



这个承诺书并不仅仅强调AI带来的威胁——机器代替人类做出终结生命的决定。签署承诺书的AI开发人员承诺“我们不会参与,更不会支持致命性自主武器的研发、制造及交易。”



致命性自主武器的“使用方式”以及“含义”还未定义,在一定程度上,从导弹到地雷等,这些现有的武器都已具备自主性。这已不是一个小问题了——国际法对致命性自主武器的定义还是一个备受争议的焦点话题。此外,军队在承诺更高级别的人类监督自主系统时,否认致命性自主武器的存在。承诺书的签署人是否同意设计自主传感系统呢?后续操作中,是否存在第三方,将这个系统内置于武器系统中呢?,防务系统中是否有装置自动定位(用来追踪和拦截火箭和无人机等)的规定?



在国际法能给致命性自主武器下定义之前,期望《致命性自主武器承诺》能够给这个术语进行阐述是不切实际的。对于那些担忧私人企业、大学调研团和政府积极研究武器可以思考、决定杀谁的人们来说,这份承诺书就是在这种状况发生之前,阻止危害产生的一个举措。但如果签署人真的想看到这样一个世界:国家拒绝为了诉诸暴力,而研发和使用具有思维能力的机器。那么承诺的方式和内容是至关重要的问题,而且,这些问题不仅需要内部声明,也应公开阐述。



《华盛顿海军条约》——一个想要预防未来军备竞赛的善意计划,但由于不便利性,很快就被签约国抛之脑后了,如今,还记得这个条约的国家已寥寥无几。如果不明确致命性自主武器的具体含义,这份承诺书很可能会成为下一个《华盛顿海军条约》。(工业和信息化部电子第一研究所
李婕敏)



相关新闻

DSTIS 国防科技工业信息服务系统
中国核科技信息与经济研究院 中国航天工程咨询中心 中国航空工业发展研究中心
中国船舶工业综合技术经济研究院 中国船舶信息中心 北方科技信息研究所 工业和信息化部电子科学技术情报研究所
DSTI简介 | 大事记 | 网站动态 | 产品介绍 | 广告服务 | 客户服务 | 联系方式 | 共建单位 | 合作媒体  
国防科技信息网 dsti.net © 2006 - 2018 版权所有 京ICP备10013389号