Seq Model
Seq Model
其中,用xt表示价格,即在时间步(time step) t∈Z+时,观察到的价格xt。 请注意,t对于本文中的序列通常是离散的,并在整数或其子集上变化。 假设一个交易员想在t日的股市中表现良好,于是通过以下途径预测xt:
xt∼P(xt∣xt−1,⋯,x1)
Autoregressive model(AR)
第一种策略,假设在现实情况下相当长的序列 xt−1,⋯,x1可能是不必要的, 因此我们只需要满足某个长度为τ的时间跨度, 即使用观测序列xt−1,⋯,xt−τ。 当下获得的最直接的好处就是参数的数量总是不变的, 至少在t>τ时如此,这就使我们能够训练一个上面提及的深度网络。 这种模型被称为自回归模型(autoregressive models), 因为它们是对自己执行回归。
第二种策略, 是保留一些对过去观测的总结ht, 并且同时更新预测xt^和总结ht。 这就产生了基于xt^=P(xt∣ht)估计xt, 以及公式ht=g(ht−1,xt−1)更新的模型。 由于ht从未被观测到,这类模型也被称为 隐变量自回归模型(latent autoregressive models)。
这两种情况都有一个显而易见的问题:如何生成训练数据? 一个经典方法是使用历史观测来预测下一个未来观测。 显然,我们并不指望时间会停滞不前。
然而,一个常见的假设是虽然特定值xt可能会改变, 但是序列本身的动力学不会改变。 这样的假设是合理的,因为新的动力学一定受新的数据影响, 而我们不可能用目前所掌握的数据来预测新的动力学。 统计学家称不变的动力学为静止的(stationary)。 因此,整个序列的估计值都将通过以下的方式获得:
P(x1,⋯,xT)=Πt=1T(xt∣xt−1,⋯,x1)
Markov Model
我们使用xt−1,⋯,xt−τ 而不是xt−1,⋯,x1来估计xt。 只要这种是近似精确的,我们就说序列满足马尔可夫条件(Markov condition)。 特别是,如果τ=1,得到一个 一阶马尔可夫模型(first-order Markov model
用P(xt+1∣xt−1)=∑xtP(xt+1∣xt)P(xt∣xt−1)
Causality
you cannot inverse time
Last updated