权威国防科技信息门户
国防科技大数据智能情报平台
生产力促进中心会员招募
国防科技生产力促进中心
国外国防科技文献资料快报
公告:
国防科技生产力促进中心网上会员入会邀请函   国防科技工业准入渠道、申办程序取证务实培训班通知   DSTI推出国防军工单位电子邮件服务,特别优惠中   DSTIS国防军工信息资源内网服务系统2013年征订开始   下载黄页企业会员登记表 成为国防科技信息网会员  
DARPA推动“人工智能决策可解释化”研究(上)
2018-04-15

[据C4ISRNET网站2018年4月10日报道]DARPA战术技术办公室主任弗雷德·肯尼迪在4月10日美国海军举办的“海空天联盟“小组会议上,表达出对当前人工智能系统行为决策无法解释的担忧;并表示需要依托DARPA“可解释人工智能”项目推动研究人员理解人工智能行为决策背后的原理与原因,进而改善人机团队协作。
 

 一、人工智能系统决策可解释性现状
  

得益于大数据以及机器学习算法的不断发展,人工智能系统已经可以实现某种程度上的自主决策,并加速向图像识别、语音识别、语言翻译等其他领域扩展。例如自动驾驶汽车并没有遵循工程师提供的任何指令,而是通过观察人类司机的驾驶方式,依靠深度神经网络等算法,处理传感信息后自主生成相应指令,操纵方向盘、刹车和其他系统,实现自主驾驶。
  

研究人员发现已经无法完全理解人工智能系统的决策过程,难以分辨人工智能系统某个具体行动背后的逻辑。机器学习算法所选取的特征与人类识别事物的方式也很少有关联;而更复杂与更先进机器学习算法的出现,加剧了人工智能系统自动化决策流程的无法解释性。
  

研究人员认为,可解释性是人类与人工智能关系发展的核心,人工智能系统必须向操作人员解释行为决策原因,以获得人类信任。学术界和军方已将人工智能系统的可解释性视为人与机器团队协作的一大关键障碍。(中国航天系统科学与工程研究院 孙棕檀)


相关新闻

DSTIS 国防科技工业信息服务系统
中国核科技信息与经济研究院 中国航天工程咨询中心 中国航空工业发展研究中心
中国船舶工业综合技术经济研究院 中国船舶信息中心 北方科技信息研究所 工业和信息化部电子科学技术情报研究所
DSTI简介 | 大事记 | 网站动态 | 产品介绍 | 广告服务 | 客户服务 | 联系方式 | 共建单位 | 合作媒体  
国防科技信息网 dsti.net © 2006 - 2018 版权所有 京ICP备10013389号