机器学习量化

机器学习筛因子时,为什么“重要性排名”不等于“最强 Alpha 排行榜”

结合可解释机器学习中的 SHAP 与 SAGE 思路,解释为什么机器学习语境下的因子重要性高度依赖方法、样本与频率,以及研究者应如何更稳地使用重要性分析。

2026-03-3110分钟
在线性资产定价或线性回归框架里,很多人习惯把因子重要性等同于系数大小、t 统计量或显著性。但这类解释默认了一个很强的世界观:因子是线性可加的、彼此关系相对稳定,且模型中的系数能够直接映射成经济含义。一个最常见的写法是
E[rt+1]=β1f1,t++βkfk,t+εtE[r_{t+1}] = \beta_1 f_{1,t} + \cdots + \beta_k f_{k,t} + \varepsilon_t
。在这种设定下,“谁更重要”看起来像是一个天然问题。
可一旦研究切到树模型、神经网络或其他非线性结构,因子的作用就不再通过单一系数暴露出来,而是被放进交互、阈值和状态切换里。此时更稳的定义通常是贡献度而不是系数本身。一个常见的思路可以写成
Δj=LossfullLossj\Delta_j = Loss_{full} - Loss_{-j}
。也就是说,重要性讨论的是“拿掉这个输入,模型会损失多少解释或预测能力”,而不是“这个输入在表格里排第几”。
SHAP 与 SAGE 看的是哪一种重要性 一个偏单次预测分解,一个偏整体误差下降。 SHAP SAGE 回答问题 这次预测用了谁 谁让总体误差降得更多 解释层级 局部解释 全局解释 更敏感于 局部波动与频繁参与 整体性能和边际损失 常见误读 把参与频率当成稳定 Alpha 把全局贡献当成唯一真相
重要性不是单一定义,先弄清它在回答什么。
  • 线性显著性和非线性贡献度不是同一个概念
  • 重要性排名之前,必须先回答“你到底在度量什么”
  • 如果定义没讲清,后面的排序图很容易误导决策

为什么同一个因子,会在不同方法和频率下看起来像两个人

文档材料里最重要的发现之一,就是 SHAP 与 SAGE 对同一批因子并不会给出完全一致的排序。原因并不神秘:一个方法更偏向统计“模型在很多次预测里经常调用了谁”,另一个更偏向衡量“谁对整体误差下降不可替代”。当特征之间存在共线、交互或替代关系时,同一个因子完全可能在局部解释里很活跃,却在整体性能分解里没有想象中关键。
再往前走一步,重要性还会随样本区间和数据频率变化。月频里表现稳定的变量,到日频可能被更高噪声和更多微观扰动打散;一个在 2000 年代很核心的特征,到 2010 年后可能只是次要补充。因此更接近真实世界的写法不是 Importancej=constantImportance_j = constant,而是 Importancej=Importancej(t,method,frequency)Importance_j = Importance_j(t, method, frequency)。它天然是时变的、方法依赖的、环境依赖的。
这也是为什么“模型说它重要,所以我要重点押它”是一种很危险的跳跃。重要性图最多告诉你模型在某个设定下如何使用信息,而不是市场已经承诺这个因子会在未来持续兑现。
  • 共线特征会把“功劳”在不同变量之间来回分配
  • 局部解释与全局解释经常并不一致
  • 频率越高,重要性排序越容易被噪声扰动

更稳的研究顺序,是先解释模型,再验证稳定性,最后才决定保留谁

在课程化研究流程里,因子重要性最适合承担“诊断层”角色,而不是终局裁判。比较稳的顺序通常是三步。第一步,先看解释层,确认模型到底依赖了哪些特征、有没有被几类共线输入绑架。第二步,做滚动窗口稳定性检查,例如观察同一因子在不同时间窗里的排序、方向和贡献幅度是否剧烈漂移。第三步,再把这些结果和样本外收益、成本、换手、拥挤度、经济逻辑放在一起看。
如果一定要把稳定性写成一个可操作问题,可以问:某个因子在多个窗口中的排名波动是否过大?它在不同 market regime 中的符号是否经常翻转?重要性升高时,样本外表现有没有同步改善?只有当解释结果和外部验证出现同向证据时,这个因子才值得被进一步保留。否则,解释层看到的往往只是模型内部偏好,而不是可直接交易的世界规律。
因子重要性更适合这样用 先做诊断,再做稳定性,再决定保留,不要一步跳到交易。 1 解释模型 先看模型主要依赖了哪类输入。 2 查共线 确认功劳是否只是共线变量轮流分摊。 3 滚动验证 观察不同时间窗和频率下是否稳定。 4 外部约束 再和样本外、成本、拥挤和逻辑一起判断
重要性分析最适合做研究诊断,而不是直接做交易排序。
  • 第一层是模型解释,第二层是滚动稳定性,第三层才是保留决策
  • 重要性结果必须和样本外表现联动检查
  • 不要把解释结果直接翻译成“最强因子排行榜”

关键结论

  • 机器学习里的因子重要性不再等同于线性显著性
  • SHAP 与 SAGE 回答的是不同层面的贡献问题
  • 重要性分析最适合做诊断,而不是直接做 Alpha 排名

关联课程

如果你想把这篇文章里的方法系统化学习,可以从这些课程继续深入。

继续阅读

微信:446860105