• 发文
  • 评论
  • 微博
  • 空间
  • 微信

深度解读《人工智能的可解释性》

物联网风向 2020-07-28 09:04 发文

人工智能对我们来说是非常重要的。

《经济学人》智库亚洲编辑部主任Charles Ross 用与谷歌合作的一个调查数据告诉我们人工智能对于每个国家所带来的影响,左边这幅图,显示的是如果国家能够持续对人工智能产业采取比较积极投资和政策支持,2030年这些国家的GDP将得到显著的更进一步的提升。而增长最快的是澳大利亚,可以增加2.71%的GDP,反之则带来非常不利的影响。


但随着AI研究与应用不断取得突破性进展,高性能的复杂算法、模型及系统普遍却缺乏决策逻辑的透明度和结果的可解释性,导致在涉及需要做出关键决策判断的国防、金融、医疗、法律、网安等领域中,或要求决策合规的应用中,AI技术及系统难以大范围应用。而XAI(eXplainable Artificial Intelligence)技术就是主要研究如何使得AI系统的行为对人类更透明、更易懂、更可信。


什么是人工智能的可解释性
主讲嘉宾:菲律宾联合银行人工智能和数据资深顾问  David Hardoon 博士以汽车的发展史为例,深入浅出地解释了人工智能的可解释性是一个什么概念。
它就好像在1914年拿到了一辆福特T型车,很多驾驶员可以解释他大部份的工作原理,懂得如何自己修理。而现在当我们拿到了一辆特斯拉,我们可能不知道它的运作原理,只是知道这个启动按钮,踩一下这个油门,这辆车就开了。与长期的汽车演化历史相比,AI的出现和广泛的运用是如此的突然,而在如此短暂的时间里,我们作为使用者,无法完全了解这个产业链的相关信息,所以在可解释性的第一个层面,就是回答这个问题:谁了解这个技术以及它的产业链,谁为什么环节负责,如何负责。这将是我们建立信任的基础。
我们有三个方面的内容需要考虑:01可解释性的前提——不同的应用场景和交流语境
02解释的对象是谁?他/她需要了解什么?
03政策和规范对人工智能的可解释性有什么标准?
可解释性,其实是人性的需求,也是建立互信的需要。理解这个底层需求,是非常非常重要的。我们不仅仅讨论的是可解释性,我们实际上是通过解释,通过让人了解,去建立彼此的互信。
可解释性人工智能的应用场景
人工智能的可解释性为使用它的人,使用它的产业,提供了一种信任的基础。有了这样的基础,AI才可以在更广的范围内发挥它更大的作用。那当不同的人工智能模型组成一个复杂的系统时,我们该如何体现整个系统的可解释性?


主讲嘉宾:Element AI 联合创始人、首席科学官  Nicolas Chapados博士
举个例子:


我们使用计算机视觉对图像进行学习和分析,来判断图像当中哪些是狼,哪些是哈士奇。在左下角的这幅图里,这个算法错误的把一只哈士奇当作了狼。这是因为我们在选择培训数据,也就是这些图片的时候,大部份狼的图片背景中是雪地。于是这个计算机视觉的人工智能算法一下就侦测到了这个非常明显的区别,将这个区别作为他判断是狼还是哈士奇的一个标准,而不是专注于狼和哈士奇面部的一些细微的区别。如果我们事前不知道培训数据里的这样的区别,仅仅基于这个计算机视觉所给我们的结果,我们非常难发现机器视觉是如何犯下这样的错误的。

不同的企业不同的公司,都会遇到类似的问题,那真的可以相信这个人工智能的系统吗?从整个社会的层面上看,大范围的使用人工智能的时候,它是否会造成一个我们都无法想象的结果?
正确的处理这些疑问和质疑的方式是,我们必须将人工智能的可解释性也涉及到这些系统和算法中去。
举个例子:



在Element AI 一项针对大型的零售商或者产品方使用的人工智能系统中,能够非常有效的找出市面上已经存在的山寨产品,但是这个系统的工作原理却是在一个黑匣子里面,它所做出的判断非常难建立法理上的依据,这让我们的使用方很难基于这套系统的结果对侵权的个人或企业采取法律行为。所以我们做的是,在这个人工智能系统的开发中,我们加入了一个热能成像的视图,去解释山寨产品是如何在使用的过程当中侵犯到正规品牌的。而这一个可解释性的设计,为我们的客户提供了一个可以对侵权个人或企业采取法律行动的依据。我们之所以可以在我们的系统中设计出这样的一个可解释性,是因为我们对系统、对用户、对使用场景,以及对监管部门的需求的深刻了解。


人工智能的系统中,它所有的参数和设置都是动态的,都是根据各种各样的反馈系统自我调试和演化的。而且在这个过程中,人工智能系统的使用者也在与人工智能系统产生着互动和影响,我们不仅仅需要能够解释基本人工智能模型的能力,我们而且需要能够解释复杂人工智能模型的能力。


总结:可解释性人工智能的挑战和未来
人工智能的可解释性依然面临巨大的挑战
1、人工智能的模型通常非常的复杂,非常的庞大;
2、人工智能的可解释性还是一个相当早期的领域,我们并没有非常成熟的,或是广为接受的标准去判断可解释性的好坏。这就造成我们无法判断我们是否在提高可解释性,我们也无法非常准确的判断解释方法方式的优劣;3、目前我们所开发的可解释性,对于大多数的使用者来说并不能用于指导他们的行为或者决策。
未来的可知解释性必然是完整的
1、我们可以把系统各个组成部分中的,可解释性集中在一起分析整理,从而得出通过一个培训过的机器识别模型,把微观层面上的可解释性,转化成为宏观层面上的可解释性,是我们觉得一个增加整体系统可解释性的有效方法;2、在人工智能系统开发的早期,就邀请政策法规的制定机构或相关人员参与。这样我们在系统中可以更方便的加入可解释性,这个不但对之后的业务会有很大的帮助,也是一个非常有效的方式降低相关的风险;3、通过为已经有的人工智能系统,添加一套可解释性的设计,可以大大提高用户对系统的理解程度。
有趣的问题探讨

在新冠疫情之下,急需在短时间内研发出药物那人工智能的可解释性还是必须的吗?


就拿传统的药物开发来说,一个新药的上市必须经过3个阶段的临床实验和数据的收集。有了这些数据,一个新药才能得到监管部门的备案,才能上市。在某种意义上说,这些流程和数据就是新药开发过程中所必须有的可解释性。因为我们将会在人身上使用这些新药,而人体是一个非常非常复杂的系统,我们必须能够充分地了解在各种情况下人体对新药的反应。
然而面对新冠疫情,我们急需疫苗和治疗方案,作为一个是整体,我们的社会或许可以在这个过程中权衡利弊,在数据尚未完备对情况下,在一定可承受的风险范围内,加速新药或者疫苗的上市。在人工智能的领域,可解释性在某些方面就好像一个风险控制的工具,根据具体的应用场景,有时候我们也需要权衡利弊,有时候承担多一些风险,能够更快或者更好的整体回报。


写在最后:

人工智能的可解释性,一定是现在也是未来一直热门探讨和研究的课题,我们将共同期待人工智能在整个社会结构和人类伦理中,得以更全面的发展。


如果你也感兴趣,欢迎跟我们探讨~



创士锋


合作合资        共建共生

创士锋为国际或国内的科技公司和创业者提供一站式国际科创交流、共建和投资服务,帮助国际企业落地中国、合资共建或帮助国内企业通过新加坡建立海外业务和科技创新合作基础,拓展新的市场。


声明:本文为OFweek维科号作者发布,不代表OFweek维科号立场。如有侵权或其他问题,请及时联系我们举报。
2
评论

评论

    相关阅读

    暂无数据

    物联网风向

    专注报道物联网的最新资讯,解读政...

    举报文章问题

    ×
    • 营销广告
    • 重复、旧闻
    • 格式问题
    • 低俗
    • 标题夸张
    • 与事实不符
    • 疑似抄袭
    • 我有话要说
    确定 取消

    举报评论问题

    ×
    • 淫秽色情
    • 营销广告
    • 恶意攻击谩骂
    • 我要吐槽
    确定 取消

    用户登录×

    请输入用户名/手机/邮箱

    请输入密码