可解释的AI是机器学习(ML)的一个重要方面,它使模型的内部工作透明且易于理解。可以采取几个步骤来提高ML模型的可解释性:
预建模可解释性:此步骤涉及分析和理解将用于训练模型的数据。这包括执行探索性数据分析,以及通过特征工程创建清晰、可解释的特征。这样做可以确保模型使用易于理解的高质量相关数据。
建模可解释性:在为特定问题选择模型时,通常最好使用仍能取得良好预测结果的最具解释性的模型。例如,决策树和线性模型往往比神经网络更易于解释。
模型后可解释性:训练模型后,可以使用多种技术来理解其预测。其中一种技术是扰动,它涉及更改单个变量并分析对模型输出的影响。另一种技术是使用SHAP值,它提供特征重要性的度量并可用于解释模型的预测。