MLI 概述

Driverless AI 提供机器学习模型的稳健可解释性,从而以人类可读的格式来解释建模结果。在机器学习可解释性 (MLI) 视图中,Driverless AI 运用多种不同的技术和方法来解释说明模型结果。很多图表都能自动生成(具体取决于实验类型),包括 K-LIME 、Shapley、变量重要性、决策树替代模型、部分依赖性、个体条件期望、敏感性分析、NLP 令牌、NLP LOCO 等。此外,您还可以从此视图中下载 LIME、Shapley 和原始(内核 SHAP)Shapley 原因码的 CSV 文件以及决策树替代模型规则的文本和 Python 文件。

Driverless AI 用于模型解释的技术和方法可通过插件(Python 代码片段)进行扩展。请参阅 https://github.com/h2oai/driverlessai-recipes/tree/rel-1.9.1/explainers,了解更多关于 MLI 自定义插件 的信息。

本章介绍用于常规实验和时间序列实验的 Driverless AI 机器学习可解释性 (MLI)。更多信息,请参阅以下各节:

注解

迁移信息

  • 1.9.x 及更高版本支持 1.9.0 版本中进行的解释。

  • 1.9.x 及更高版本不支持 1.8.x 版本中进行的解释。但仍可查看和重新运行 1.8.x 中进行的解释。

注解

  • 无监督学习模型不支持 MLI。

  • 图像或多类别时间序列实验不支持 MLI。

  • MLI 无需互联网连接便可在当前模型上运行。

  • 若需指定 MLI 使用的特定 H2O 实例的端口,可使用 h2o_port config.toml 设置。您还可通过 h2o_ip 设置指定 MLI 使用的 IP 地址。

其他资源