interpretability
目的 関連シリーズ 準備:XGBモデルの学習と予測 学習したxgboostのルール抽出 xgb.model.dt.tree()によるパスの抽出 予測値の再分配 Cover (H)の再計算 勾配(G)とweightの再分配 各ルールのインパクトの集計(Tree Breakdown) 目的 今回は、xgboostExplain…
目的 関連シリーズ 準備 XGBモデルの学習と予測 予測ルールを抽出する 予測値を再構成する overview 対象の予測 初期化 対象のtreeの取り出し 対象のleafのとりだし 検算 目的 今回は、インスタンスの予測結果が再構成されるプロセスを、explainPredictions(…
目的 関連シリーズ 予測結果の可視化プロセスをstep-by-stepで眺める 準備 XGBモデルの学習と予測 可視化の手続き overview 学習したxgboostのモデルから予測ルールを抽出する 指定したインスタンスの予測結果を予測ルールから分解再構成する 分解再構成した…
目的 関連シリーズ 参考 とりあえず使ってみる インストール XGBモデルの学習と予測 個別の予測結果の可視化 STEP.1. 学習済みXGBモデルからルールセット(leafまでのパス)を列挙してテーブル化 STEP.2. Get multiple prediction breakdowns from a trained…
[1706.06691] Interpretable Predictions of Tree-based Ensembles via Actionable Feature Tweakingという論文が提案されている。KDD2017でYahoo Researchの研究者によって発表されたもの、とのこと。Ensemble treesによって、あるサンプルがラベルAと予測…
最近、モデルの解釈性(interpretability)について色々と研究が出ており、興味もあってぼんやりと追いかけている。“Finding Alternate Features in Lassos”という論文が提案されている: Satoshi Hara and Takanori Maehara (2016): "Finding Alternate Fea…