加入收藏 | 设为首页 | 会员中心 | 我要投稿 云计算网_泰州站长网 (http://www.0523zz.com/)- 视觉智能、AI应用、CDN、行业物联网、智能数字人!
当前位置: 首页 > 运营中心 > 电子商务 > 要闻 > 正文

可解释的aiAI怎样以及为什么真实?

发布时间:2022-03-17 09:36:03 所属栏目:要闻 来源:互联网
导读:人工智能(AI)正在扩大到学术界和网络巨头之外,他们拥有巨大访问数据和计算能力和深吸口袋来资助研究项目。有很多炒作,但公司被敦促拥抱AI。 最近发表的两项研究强调了企业采用AI保持竞争力的重要性。 让我们真实地了解AI学员管理咨询公司OC&Creported,
    人工智能(AI)正在扩大到学术界和网络巨头之外,他们拥有巨大访问数据和计算能力和深吸口袋来资助研究项目。有很多炒作,但公司被敦促拥抱AI。
 
    最近发表的两项研究强调了企业采用AI保持竞争力的重要性。
 
   让我们真实地了解AI学员管理咨询公司OC&Creported,AI支出已经巨大:2018年全球AI的业务花费了219亿美元,相当于它花费的总企业的7%。2018年美国花费的AI花费910亿美元,英国12亿美元。
 
   但是,OC&C警告说,使用AI的关键挑战是在答案中建立信任。AI Systems通常从暴露于结果时学习“规则”,而不是从简单的规则构建,例如“如果x,那么y”。这意味着AI系统可能无法解释为什么实现特定结果。反过来,这可能会对AI基础设施和拒绝人类运营商的信任来造成严重问题,以及符合法规,OC&C警告的基础设施和/或基本问题。
 
在最近的IEEE论文中,偷看了黑匣子内,作者,计算机科学家Amina Adadi和Mohammed Berrada,只有可解释的系统可以澄清这种情况的模糊情况,最终阻止它发生。Adadi和Berrada得出结论,AI中的解释性可能成为业务中的竞争性差异化因素。
 
在Lloyds银行集团的数据科学家Domino Data Lab,托拉阿拉德托管的最近托管活动中,说:“组织的负荷正在使用AI进行决策。但是,组织解释AI的决定变得重要。“
 
在一些受监管的行业中,公司必须提供对其决定的解释。因此,如果AI涉及决策过程,则需要可以测量用于获得其决定的AI的数据以及与每个元素相关联的权重。
 
决定是以两种方式 - 监督和无人监督的决定。随着姓名的表明,无监督的机器学习涉及让机器自己完成所有工作。AI有效地是一个黑盒子,因此,与已知的数据集用于培训时,更难以理解,更难了解如何进行其决策。
 
因此,随着Xai,在某些情况下,企业也可能需要评估对源机器学习数据的AI算法的影响,这些数据表示异常良好或异常不良结果。必须仔细考虑与这两个极端相关的偏差作为XAI模型的一部分。
 
Xai的解释性不仅仅是机器如何到达其答案。根据IEEE的作者偷看黑盒纸内部,人们还需要了解“如何”和“为什么”。
 
“解释模型是不够的 - 用户必须了解它,”作者说。然而,即使有准确的解释,发展这种理解也可能需要对用户可能拥有的问题的补充答案,例如“42”在银河系中的“42”意味着什么?

(编辑:云计算网_泰州站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读