加入收藏 | 设为首页 | 会员中心 | 我要投稿 应用网_丽江站长网 (http://www.0888zz.com/)- 科技、建站、数据工具、云上网络、机器学习!
当前位置: 首页 > 服务器 > 安全 > 正文

聊一聊可解释的反欺诈人工智能

发布时间:2022-06-21 16:32:11 所属栏目:安全 来源:互联网
导读:近年来,人工智能飞速发展,并作为强大的创新工具广泛应用于各行各业的无数用例中。然而,巨大的责任通常需要巨大的能力。多亏了AI和机器学习,反欺诈技术变得愈加精确并且比以往发展地更加快速。实时的评分技术可以使商业领导立即分辨出欺诈行为。然而,AI-
  近年来,人工智能飞速发展,并作为强大的创新工具广泛应用于各行各业的无数用例中。然而,巨大的责任通常需要巨大的能力。多亏了AI和机器学习,反欺诈技术变得愈加精确并且比以往发展地更加快速。实时的评分技术可以使商业领导立即分辨出欺诈行为。然而,AI-ML驱动决策的使用也引起了对透明度的关注。并且,当ML模型出现在高风险环境中时,对可解释性的需求也就出现了。
 
 
  事物的SHAP
  SHAP (SHapley Additive exPlanations) 是如今最为常用的模型不可知论解释工具之一。它从合作博弈中计算Sharply值,均匀分担特征的影响。当我们基于表格数据并使用集成方法来打击欺诈时,SHAP的TreeExplainer算法提供了在多项式时间里获取的局部解释的机会。使用这种工具,仅有近似值也是可行的。与基于神经网络的解释相比,这是一个巨大的进展。
 
  白盒通常是指计算欺诈程度分值的规则引擎。就本质而言,黑盒和白盒得出的结果不同,因为黑盒是根据机器从数据中学习的内容得出结果,而白盒是根据预定义的规则来得出分值。我们可以根据这些差异来双向发展。例如,根据黑盒模型发现的欺诈环来调整规则。
 
 
  置信系数
  最后,在SHAP的帮助下,通过获取对成功模式的信任,置信可以从客户那里获得。一般来说,如果我们理解一个产品是如何运行的,那么我们就会对它更加有信心。人们不喜欢自己不理解的东西。在解释工具的帮助下,我们可以查看黑盒,更好地理解和信任它。并且,通过理解模型,我们还可以对它进行不断的改进。
 
  可解释的增强器(EBM)是使用SHAP梯度增强ML模型的一个替代方案。这是InterpretML(微软的人工智能公司)的旗舰产品,是一个所谓的玻璃盒子。玻璃盒子这个名字来源于这样一个事实:由于它的结构,它的本质是可解释的。根据原始文档,“EBM通常与最先进的黑盒模型一样准确,同时还保持完全的可解释性。虽然EBM的训练速度比其他现代算法慢,但它在预测时,却非常的紧凑和快速。”局部可解释的模型——模型不可知解释(LIME)也是一个可以用来进行黑盒解释的好工具。然而,它更受非结构化数据模型的欢迎。
 
  点评
  对于人来类说,未知的往往是可怕的,更是不可信任的。AI-ML驱动决策的算法模型正如一个“黑盒”,我们只能了解结构,却无法洞察其运行原理,更无法判断其给出结果的可靠性。尤其是在防欺诈领域这种高风险环境中,AI及ML技术的应用变得更加困难。而可解释性工具的引入,使得“黑盒”逐渐变得透明,很大程度上打消了用户的怀疑与担忧,同时也为“黑盒”本身的发展创造了条件。

(编辑:应用网_丽江站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读