MLI 概述¶
Driverless AI 提供机器学习模型的稳健可解释性,从而以人类可读的格式来解释建模结果。在机器学习可解释性 (MLI) 视图中,Driverless AI 运用多种不同的技术和方法来解释说明模型结果。很多图表都能自动生成(具体取决于实验类型),包括 K-LIME 、Shapley、变量重要性、决策树替代模型、部分依赖性、个体条件期望、敏感性分析、NLP 令牌、NLP LOCO 等。此外,您还可以从此视图中下载 LIME、Shapley 和原始(内核 SHAP)Shapley 原因码的 CSV 文件以及决策树替代模型规则的文本和 Python 文件。
Driverless AI 用于模型解释的技术和方法可通过插件(Python 代码片段)进行扩展。请参阅 https://github.com/h2oai/driverlessai-recipes/tree/rel-1.9.1/explainers,了解更多关于 MLI 自定义插件 的信息。
本章介绍用于常规实验和时间序列实验的 Driverless AI 机器学习可解释性 (MLI)。更多信息,请参阅以下各节:
注解
迁移信息
1.9.x 及更高版本支持 1.9.0 版本中进行的解释。
1.9.x 及更高版本不支持 1.8.x 版本中进行的解释。但仍可查看和重新运行 1.8.x 中进行的解释。
注解
无监督学习模型不支持 MLI。
图像或多类别时间序列实验不支持 MLI。
MLI 无需互联网连接便可在当前模型上运行。
若需指定 MLI 使用的特定 H2O 实例的端口,可使用
h2o_port
config.toml 设置。您还可通过h2o_ip
设置指定 MLI 使用的 IP 地址。
其他资源
点击此处
以下载 MLI 参考手册。书籍: “An Introduction to Machine Learning Interpretability ” .
点击此处 以访问 H2O.ai MLI 资源资料库。此资料库中包含各种 MLI 技术应用或改造的材料,以供数据科学家使用。
点击此处 以访问 H2O.ai 机器学习可解释性自定义插件资料库。
点击此处 以观看 H2O Driverless AI 机器学习可解释性演示视频。