AI量化

让 LLM 直接下交易指令,可能一开始就把方向设错了

结合 2026 年 AlphaForgeBench 等新研究,解释为什么把 LLM 作为交易动作执行体容易产生不稳定与不可复现问题,而将其定位为因子和策略研究助手更符合量化生产逻辑。

2026-03-318分钟
很多人一开始接触 LLM 量化时,会自然地幻想一种系统:模型像交易员一样,看完数据后直接给出买、卖、持有或仓位指令。这种设想很吸引人,因为它把复杂研究压缩成了一个直觉动作。但问题在于,LLM 的生成机制决定了它很容易在连续决策里表现出不稳定性。即使你把温度调低,它也可能在相邻时间点对非常接近的信息做出不同解释。
近期一些新基准工作正是在批评这一点。它们发现,很多看起来不错的 LLM 交易实验,实际上充满 run-to-run variance、动作翻转和难以复现的问题。也就是说,模型并不适合直接充当最终执行者。对量化来说,这不是小缺陷,而是方向性错误,因为交易系统最怕的就是看似聪明、实则不稳定的动作序列。
  • LLM 连续决策容易出现动作翻转和路径不稳定
  • 不可复现的交易动作会削弱任何回测结论的可信度
  • 在执行层引入高随机性,违背量化生产对确定性的要求

把 LLM 放在研究层,反而更符合量化系统分工

相比之下,让 LLM 负责生成因子、研究假设、代码草案、组合解释和复盘摘要,往往更合理。因为这些任务本来就允许探索、允许多样性,甚至希望有创造性。只要下游还有规则引擎、回测框架和风控系统来筛选,LLM 的发散能力就能转化成研究产能,而不是执行噪声。
这也是为什么越来越多框架主张把 LLM 定位为量化研究员,而不是交易代理人。研究层强调的是想法质量、结构清晰、代码可运行、假设可验证;执行层强调的是确定性、延迟、风控和稳定性。把这两层混在一起,模型就会在最不擅长的位置被过度使用。
  • 研究层允许探索,执行层要求确定性
  • LLM 更适合生成候选因子和研究方案,而非直接发交易指令
  • 量化系统分层越清晰,AI 的能力越容易被安全利用

真正成熟的 AI 量化系统,应该把创造性与确定性分开管理

量化研发最怕的不是模型不够强,而是角色混乱。一个成熟系统会明确规定:AI 在哪里负责创新,在哪里必须退到规则之后。比如在前端,它可以参与市场主题提取、因子模板扩展、信号组合候选生成;但到了后端,组合权重、成本约束、订单逻辑和风控闸门必须由确定性的模块控制。
这套分工看似保守,其实恰恰是为了让 AI 真正可用。因为只有把创造性放在研究层、把确定性放在执行层,你才能既享受模型带来的产能,又不把实盘系统暴露给不可控的随机性。

关键结论

  • LLM 在连续交易动作上的不稳定性,会显著削弱系统可复现性
  • 把 LLM 放在研究层而不是执行层,更符合量化系统分工
  • 成熟 AI 量化架构应明确区分创造性模块与确定性模块

关联课程

如果你想把这篇文章里的方法系统化学习,可以从这些课程继续深入。

继续阅读

微信:446860105