摘要: 模型默认的Feature Importance存在什么问题? Feature Importance的本质是训练好的模型对变量的依赖程度,它不代表变量在unseen data(比如测试集)上的泛化能力。特别当训练集和测试集的分布发生偏移时,模型默认的Feature Importance的偏差会更严重。 阅读全文
posted @ 2022-09-13 17:22 15375357604 阅读(63) 评论(0) 推荐(0) 编辑