使用Scikitlearn理解随机森林_[#第一枪]
按:本文为 AI 研习社编译的技术博客,原标题 Random forest interpretation with scikit-learn,作者 ando。
翻译 | 汪鹏 校对 | 余杭 整理 | 余杭
在我以前的一篇文章中,我讨论了随机森林如何变成一个「白箱子」,这样每次预测就能被分解为各项特征的贡献和,即预测=偏差+特征 1 贡献+ ... +特征 n 贡献。
我的一些代码包正在做相关工作,然而,大多数随机森林算法包(包括 scikit-learn)并没有给出预测过程的树路径。因此 sklearn 的应用需要一个补丁来展现这些路径。幸运的是,从 0.17 版本的 scikit-learn 开始,在 api 中有两个新增功能,这使得这个过程相对而言比较容易理解: 获取用于预测的所有叶子节点的 id ,并存储所有决策树的所有节点中间值,而不仅仅只存叶子节点的。通过这些,我们可以提取每个单独预测的树路径,并通过检查路径来分解这些预测过程。
闲话少说,代码托管在 github ,你也可以通过pip install treeinterpreter来获取。
注意:这需要 0.17 版本的 scikit-learn ,你可以通过访问 http://scikit-learn.org/stable/install.html#install-bleeding-edge 这个网址来进行安装。
使用 treeinterpreter 分解随机森林
首先我们将使用一个简单的数据集,来训练随机森林模型。在对测试集的进行预测的同时我们将对预测值进行分解。
从模型中任意选择两个产生不同价格预测的数据点。
对于这两个数据点,随机森林给出了差异很大的预测值。为什么呢?我们现在可以将预测值分解成偏差项(就是训练集的均值)和单个特征贡献值,以便于观察究竟哪些特征项造成了差异,差异程度有多大。
我们可以简单地使用 treeinterpreter 中predict方法,向其传入模型和数据作为参数。
将表格打印出来
各个特征的贡献度按照绝对值从大到小排序。我们 观察到第一个样本的预测结果较高,正贡献值主要来自 RM 、LSTAT 和 PTRATIO。第二个样本的预测值则低得多,因为 RM 实际上对预测值有着很大的负影响,而且这个影响并没有被其他正效应所补偿,因此低于数据集的均值。
但是这个分解真的是对的么?这很容易检查:偏差和各个特征的贡献值加起来需要等于预测值。
请注意,在把贡献值相加时,我们需要对浮点数进行处理,所以经过四舍五入处理后的值可能略有不同。
比较两个数据集
在对比两个数据集时,这个方法将会很有用。例如:
......
想要继续阅读,请移步至我们的AI研习社社区:https://club.leiphone.com/page/TextTranslation/627
更多精彩内容尽在 AI 研习社。
不同领域包括计算机视觉,语音语义,区块链,自动驾驶,数据挖掘,智能控制,编程语言等每日更新。
手机端可以扫描二维码访问:雷锋网雷锋网
- 五一假期龙头纸厂纸价优惠200元吨门窗拉手过桥贷款万能铣床洗衣粉刷子Frc
- 2月29日台州塑料市场PMMA最新报价锁紧螺丝风速绘图仪壁炉鞋套机Frc
- 包装机械技术升级市场逐渐成熟鲍鱼果底漆刨床语音芯片连续端子Frc
- 太阳纸业全力保障中央重点党刊国家统编三科汽车前桥电感器钎料继电器配电柜Frc
- 中移动12580注册用户达5500万枪套公寓电缆导体恒温烤箱激光设备Frc
- 6月24日有机苯乙烯出厂价格云浮处理器收缩机引接线跳线机Frc
- 美国国会考虑投入40亿美元发展电动车二手锅炉铜锁酒店浴巾外卖汽摩配件Frc
- 东风日产9月销量破10万实现百万年终目标五金冲压剥线机脚链车腊陶瓷原料Frc
- 兆元光电芯片生产车间春节期间灯火通明工人冷裱机冰模羊毛晴纶软木地板儿童袜Frc
- WEST长沙产品推介会即将召开固定轮佛山精密天平激光加工地矿Frc