人工智能的可解释性是采用人工智能的最大障碍之一,但是揭示逻辑可以将人机关系提升到一个新的水平。人工智能的浪潮正在临近我们,但是仔细研究特定的用例揭示了采用这一障碍。在每个垂直领域,企业都在努力实现AI的承诺。最大的痛点是?AI的可解释性。
该术语指的是人工智能和机器学习系统非常不透明。大多数高级AI模型都是黑匣子,无法解释它们如何做出特定决定。数据输入,结果出来。通常,用户发现尝试对决策过程进行逆向工程失败。
人工智能的可解释性是信任的问题。
缺乏AI的可解释性可能会阻碍采用。通常,企业必须从法律,道德或实践上证明这些模型如何做出决策。一个简单的例子是使用面部识别平台的执法机构。如果AI系统将某人标记为犯罪嫌疑人,则将AI引导至该人的过程必须经过审查。
但是AI的可解释性妨碍采用的更常见原因是信任问题。简而言之,许多人在缺乏对决定结果的因素的洞察力时,很难接受结果。有时,可以感觉到人类用户只是承认机器的异想天开。
AI信任问题也会影响企业与客户的关系。根据埃森哲(Accenture)最近的一项调查,“ 72%的高管表示,他们的组织寻求通过透明地基于AI的决策和行动来赢得客户的信任和信心。”当然,这只有在AI对业务用户本身透明的情况下才能实现。
揭示理由。
Gartner在其报告“ 2019年十大数据和分析技术趋势”中将可解释的AI置于第四位。它指出:“为了与用户和利益相关者建立信任,应用程序领导者必须使[AI]模型更具可解释性和可解释性。 ”为了使人们与机器合作解决复杂的问题,人工智能系统需要揭示“原因”。
先进的AI系统了解通信的必要性。有些已经在实施透明度机制。按照Gartner的说法,“例如,数据科学和ML平台中可解释的AI会自动生成模型的解释,包括自然语言的准确性,属性,模型统计信息和功能。”
人工智能工程师认为象棋是AI开发的共同基础,因为它具有基于规则的特性。尽管在1980年代后期,下象棋的AI已超越人类,但这些系统直到最近才解释其游戏策略。在此之前,最好的解释仅仅是统计。例如,系统可以通过解释其选择将玩家的几率提高几分之一来证明其建议是正确的。
解释下一代AI。
下一代系统为人类思维建模。它们提供的基本原理与人所提供的基本相同。例如,尖端的国际象棋引擎就可以这样解释它的选择,、这个解释肯定了埃森哲建议的最佳可解释AI的所有方框。它是可理解的,简洁的,可操作的,可重用的,准确的和完整的。
可解释的AI系统可以更好地为用户和技术服务。当用户了解AI时,他们可以做出自己的判断。交换创建了一个反馈循环,可以改善AI功能。可解释性还增加了与AI的互动,这为系统提供了更多学习和改进的机会。
这是人类的呼唤。
未来AI平台的成功将基于透明度。这些系统必须使用户有信心依靠自己的决定。当我们投资AI系统时,我们想知道他们是如何得出自己的判断的。平台已经在通过对话层增强其AI引擎,从而提高了可解释性。然后,用户可以完全透明地了解系统所考虑的变量及其推理。
这里的价值是双重的:用户对使用AI感到更自信,因此更倾向于依赖该技术。但更重要的是,他们可以使用自己的判断来分析机器的呼叫。并且,如象棋示例中那样,他们可以从机器的决策过程中学习以改进自己的游戏。
最终,这是AI的真正目标。并不是要让人们屈服于其霸气的决定,而是要让专业人员扩大和扩展他们的知识和绩效。可解释的AI是建立这种关系的关键。

2020-04-19 21:34:18