权威国防科技信息门户
国防科技大数据智能情报平台
生产力促进中心会员招募
国防科技生产力促进中心
国外国防科技文献资料快报
公告:
国防科技生产力促进中心网上会员入会邀请函   国防科技工业准入渠道、申办程序取证务实培训班通知   DSTI推出国防军工单位电子邮件服务,特别优惠中   DSTIS国防军工信息资源内网服务系统2013年征订开始   下载黄页企业会员登记表 成为国防科技信息网会员  
DARPA推动“人工智能决策可解释化”研究(下)
2018-04-15

二、DARPA“可解释人工智能”项目进展
      

在此背景下,DARPA于2016年启动“可解释人工智能” (ExplainableArtificial Intelligence)项目,旨在确保人工智能系统具有一定预测准确性的同时,研究产生更多可解释的算法模型,使人类用户可以理解、信任和有效地管理人工智能系统。2017年3月,DARPA从学术和工业界中挑选出了13家研究机构进行资助,研发一套能够解释决策原理和未来行为的人工智能系统。
      

华盛顿大学卡洛斯·古斯特林(CarlosGuestrin)教授团队已经取得了一些研究成果:研究团队开发了一种方法,可以让人工智能系统阐述其输出结果的基本原理,人工智能系统(计算机)将会从数据集中自动找到一些样本,然后给出简短的解释;研究团队还针对图形识别系统设计了一些方法,通过标注图片上最重要的部分来揭示图形识别系统的判断逻辑。
      

三、结语
      

但需要认识到,人工智能系统决策可解释性的难题并不容易解决。人工智能系统决策的核心是高层次模式识别和复杂决策过程,这一过程受到算法中各类运算的相互影响,而深入理解这些由数学函数和变量构成的复杂运算目前来看难度巨大。  (中国航天系统科学与工程研究院 孙棕檀)


相关新闻

DSTIS 国防科技工业信息服务系统
中国核科技信息与经济研究院 中国航天工程咨询中心 中国航空工业发展研究中心
中国船舶工业综合技术经济研究院 中国船舶信息中心 北方科技信息研究所 工业和信息化部电子科学技术情报研究所
DSTI简介 | 大事记 | 网站动态 | 产品介绍 | 广告服务 | 客户服务 | 联系方式 | 共建单位 | 合作媒体  
国防科技信息网 dsti.net © 2006 - 2018 版权所有 京ICP备10013389号