Loading...
  • 交叉验证:
      交叉验证(Cross-validation)是一种用于评估机器学习模型性能的统计方法。它的目的是通过在数据集上进行多次的训练和测试来估计模型的泛化能力,即对新数据的预测能力。

      在交叉验证中,将数据集划分为训练集和测试集,然后使用训练集对模型进行训练,再利用测试集评估模型的性能。为了准确评估模型的泛化能力,交叉验证将这个过程重复多次,每次使用不同的数据划分方式。

  期刊:KDD 2016
  LIME:解释任何机器学习模型预测结果的方法。使用可解释特征训练可解释模型,在特定的局部线性邻域拟合元模型(可解释性特征)

一.摘要

  机器学习模型现在仍然主要是黑匣子。理解背后原因可以将不可信的模型转化为可信的模型。LIME,通过学习预测周围局部的可解释模型,以一种可解释和忠实的方式解释任何分类器的预测。还提出了一种解释模型的方法,通过以非冗余的方式提出代表性的个人预测及其解释,将任务框架为子模块优化问题。

二.介绍

  作者指出,如果用户不信任模型或预测,他们就不会使用它。

  两种信任定义:

  • 信任预测,即用户是否足够信任一个预测以依据它采取某种行动
  • 信任模型,即用户是否信任模型在部署后会以合理的方式行动。

  在模型被用于决策制定时,确定对单个预测的信任是一个重要问题,如在医学诊断或恐怖主义检测中,不能盲目依赖预测,因为后果可能是灾难性的。除了信任单个预测外,还需要在将模型部署到实际环境中之前评估整个模型,用户需要对模型在真实世界数据上的表现有信心。目前,模型通常使用可用的验证数据集上的准确度指标进行评估,但真实世界的数据通常与此大相径庭,评估指标可能不能反映产品的目标。

  文章中提出了一个解决方案,对单个预测提供解释,以解决“信任预测”问题,选择多个此类预测(及其解释),以解决“信任模型”问题。

  文章的主要贡献包括提出了一个名为LIME的算法,可以通过用可解释模型在局部近似它,以真实地解释任何分类器或回归器的预测。另一方面,SP-LIME方法通过子模块优化选择一组具有解释的代表性实例,以解决“信任模型”问题。