行业报告 AI展会 数据标注 标注供求
数据标注数据集
主页 > 机器学习 正文

用于可解释机器学习的 Python 库

用于可解释机器学习的 Python 库

本文转自雷锋网,如需转载请至雷锋网官网申请授权。

由于对人工智能偏见的担心日益凸显,从业者解释模型产出的预测结果的能力以及解释模型自身运作机制的能力变的越来越重要。幸运的是,已经有许多python工具集被开发出来,用以解决上述问题。下文我将对现有4个建立的比较完善的翻译和解释机器学习模型的工具包做简要的指导性描述。

这些工具包都可以通过pip来进行安装,拥有完善的文档,并且强调通过可视化来提升可解释性。

yellowbrick 

这个工具包本质上,是scikit-learn的一个扩展,提供了一些非常实用且好看的机器学习模型可视化工具。`visualiser`对象是核心接口,是一个scikit-learn估计器,所以如果你之前熟悉scikit-learn的工作流程,那么将对此非常熟悉。

这个可视化工具覆盖了模型选择,特征重要性和模型性能分析等方面。

让我们看几个简短的例子。

该工具包可以通过pip安装,


  1. pip install yellowbrick 

为了展示工具包中的一些特性,我们将利用scikit-learn中的红酒识别数据集。这个数据集包含13个特征以及3个目标类别。可以通过scikit-learn直接加载。在下面的代码里我引入数据集,并把转换成pandas dataframe。数据集可以直接被用来训练模型,并不需要其他的数据处理。


  1. import pandas as pd 
  2.  
  3. from sklearn import datasets 
  4.  
  5. wine_data = datasets.load_wine() 
  6.  
  7. df_wine = pd.DataFrame(wine_data.data,columns=wine_data.feature_names) 
  8.  
  9. df_wine['target'] = pd.Series(wine_data.target) 

利用scikit-learn进一步将数据分为测试集合和训练集。


  1. import pandas as pd 
  2.  
  3. from sklearn import datasets 
  4.  
  5. wine_data = datasets.load_wine() 
  6.  
  7. df_wine = pd.DataFrame(wine_data.data,columns=wine_data.feature_names) 
  8.  
  9. df_wine['target'] = pd.Series(wine_data.target) 

接下来,我们用yellowbrick的visualiser观察特征之间的相关性。


  1. import pandas as pd 
  2.  
  3. from sklearn import datasets 
  4.  
  5. wine_data = datasets.load_wine() 
  6.  
  7. df_wine = pd.DataFrame(wine_data.data,columns=wine_data.feature_names) 
  8.  
  9. df_wine['target'] = pd.Series(wine_data.target) 

 

现在,我们拟合一个随机森林分类器,并通过另一个visualiser评价其性能。


  1. from yellowbrick.classifier import ClassificationReport 
  2.  
  3. from sklearn.ensemble import RandomForestClassifier 
  4.  
  5. model =  RandomForestClassifier() 
  6.  
  7. visualizer = ClassificationReport(model, size=(1080720)) 
  8.  
  9. visualizer.fit(X_train, y_train) 
  10.  
  11. visualizer.score(X_test, y_test) 
  12.  
  13. visualizer.poof() 

 

ELI5

ELI5是另一个可视化工具包,在模型机器学习模型调试和解释其产出的预测结果方面非常有用。它能够同大多数通用的python机器学习工具包一起使用,包括scikit-learn和XGBoost,以及Keras。

让我们用ELI5来观察一下上面我们训练的模型的特征重要性。


  1. import eli5 
  2.  
  3. eli5.show_weights(model, feature_names = X.columns.tolist()) 

默认的,`show_weights`方法采用GAIN来计算权重,但你也可以传入其他`importance_type`来控制特征重要性的计算。用于可解释机器学习的 Python 库

也可以通过`show_prediction`来观察某一个样本的预测结果的原因。


  1. from eli5 import show_predictionshow_prediction(model, X_train.iloc[1], feature_names = X.columns.tolist(),  
  2.  
  3.                 show_feature_values=True) 

LIME

LIME(模型无关局部可解释)是一个用来解释模型做出的预测的工具包。LIME支持对多种分类器的单个样本预测进行解释,并且原生支持scikit-learn。

下面让我们用LIME对上述我们训练的模型的一些预测进行解释。

LIME可以用pip进行安装


  1. pip install lime 

首先我们构建explainer,它通过训练数据集数组,模型中用到的特征名称和目标变量的类别名称作为初始化参数。


  1. import lime.lime_tabular 
  2.  
  3. explainer = lime.lime_tabular.LimeTabularExplainer(X_train.values,                                            feature_names=X_train.columns.values.tolist(),                                        class_names=y_train.unique()) 

接下来,我们创建一个lambda函数,它表示用模型预测一个样本。详见这个优秀的,更有深度的LIME教程。首先我们构建explainer,它通过训练数据集数组,模型中用到的特征名称和目标变量的类别名称作为初始化参数。


  1. predict_fn = lambda x: model.predict_proba(x).astype(float

随后,我们利用explainer解释指定样本的预测结果。其结果如下。LIME通过可视化的结果,展示特征如果对得到的预测结果产生影响。


  1. exp = explainer.explain_instance(X_test.values[0], predict_fn, num_features=6
  2.  
  3. exp.show_in_notebook(show_all=False) 

MLxtend

这个工具包包含一系列机器学习可用的工具函数。包括通过stacking和voting构建的分类器,模型的评估,特征的提取、特征工程和可视化。除了该工具包的文档,这篇论文也是理解工具包更多细节的好资源。

下面让我们利用MLxtend来比较Ensemble后的分类器的分类边界与组成他的子分类器的分类边界有什么不同。

同样MLxtend也可以通过pip安装。


  1. pip install mlxtend 

引入一些工具包,


  1. from mlxtend.plotting import plot_decision_regions 
  2.  
  3. from mlxtend.classifier import EnsembleVoteClassifier 
  4.  
  5. import matplotlib.gridspec as gridspec 
  6.  
  7. import itertools 
  8.  
  9. from sklearn import model_selection 
  10.  
  11. from sklearn.linear_model import LogisticRegression 
  12.  
  13. from sklearn.naive_bayes import GaussianNB 
  14.  
  15. from sklearn.ensemble import RandomForestClassifier 

下面的可视化工具一次只能接受两个特征作为输入,所以我们创建了数组['proline', 'color_intensity']。因为这两个特征在上述利用ELI5分析时,具有最高的特征重要性。引入一些工具包,


  1. X_train_ml = X_train[['proline''color_intensity']].values 
  2.  
  3. y_train_ml = y_train.values 

接下来,我们创建一些分类器,并在训练数据上进行拟合,通过MLxtend可视化他们的决策边界。输出来自下面的代码。


  1. clf1 = LogisticRegression(random_state=1
  2.  
  3. clf2 = RandomForestClassifier(random_state=1
  4.  
  5. clf3 = GaussianNB() 
  6.  
  7. eclf = EnsembleVoteClassifier(clfs=[clf1, clf2, clf3], weights=[1,1,1]) 
  8.  
  9. value=1.5
  10.  
  11. width=0.75
  12.  
  13. gs = gridspec.GridSpec(2,2
  14.  
  15. fig = plt.figure(figsize=(10,8)) 
  16.  
  17. labels = ['Logistic Regression''Random Forest''Naive Bayes''Ensemble'
  18.  
  19. for clf, lab, grd in zip([clf1, clf2, clf3, eclf], 
  20.  
  21.                          labels, 
  22.  
  23.                          itertools.product([01], repeat=2)): 
  24.  
  25.                           
  26.  
  27.     clf.fit(X_train_ml, y_train_ml) 
  28.  
  29.     ax = plt.subplot(gs[grd[0], grd[1]]) 
  30.  
  31.     fig = plot_decision_regions(X=X_train_ml, y=y_train_ml, clf=clf) 
  32.  
  33.     plt.title(lab) 

 

以上绝对不是模型可解释和可视化工具包的完整列表。这篇博文罗列了包含其他有用的工具包的列表,值得一试。

感谢阅读!

微信公众号

声明:本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。

网友评论:

发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:点击我更换图片
SEM推广服务

Copyright©2005-2028 Sykv.com 可思数据 版权所有    京ICP备14056871号

关于我们   免责声明   广告合作   版权声明   联系我们   原创投稿   网站地图  

可思数据 数据标注

扫码入群
扫码关注

微信公众号

返回顶部