神经网络预测的一些的思考

    翻了一下在金融领域中时间序列预测算法的应用效果很不理想,从时间序列神经网络来说,在大量的样例训练之后,产生的线性函数曲线历史的吻合度让人惊讶得不得了,但从现实角度来说,未来的金融变化仍然是具有巨大的不确定性.
    神经网络不涉及到具体如何运算的问题,只是像一个黑箱一样,指定输入与输出值,然后在网络内部的根据神经元的组织结构,对神经元进行不同比重的加权,反复训练之后,这一组权重可以用来控制输入与输出的结果,对于三层的网络来说,据一些专家声称,所有的函数式都可以找到逼近原则.
    有一个比较诡异的地方就是,在历史数据看来,吻合性再高,对未来的预测也只能是一种趋势性的预测,注意一下训练的过程就会知道,一般是设定一个阈值,网络反复训练,直至加权后运算能够满足输出的需要,这里有一个比较让人遗憾的问题就是,如果值太小,会造成函数反复运算,收敛时间很长,而如果值太大,又会遇到一个问题,算法结果的不精确.
    正因为这样的控制,对历史的数据之所以能完美,是因为它的反复训练是建立在已知的数据上的,最后求出来的数据,实际上是指符合当前历史的函数,更重要的是,因为是收敛式结果的寻找,实际上,这里寻找出的"某种目标函数",仅仅只会是能够描述当前历史数据函数变化的所有的在误差允许范围内的函数中的其中一种而已.
    无论设定的是多大的误差值,非命中的率要求是多少,因为未来的不确定性,变化范围的不确定性,它的假想目标函数式,仍然是无限多个可能,这只不过是无限之中的无限.
    根据常识,我们也许能够限制一些变化,淘汰掉一些不太可能的变化方式,比如欧元到美元的变化值,一天变化,通常情况下限不会跑出1:1.4变化成1:0,也不会在一天之内,由1:1.4变成1:2,这在是一个足够大的估计之下的,甚至可以参考历史的峰值点,综合进行评估,从而对运算的结果集进行限制.
    不过,这样想法是不错,但问题在于,现在是用一个针对有限集的方法去对无限集进行筛选,最后的结果,仍然还会是无限集.
    芝诺的悖论上指出了类似的矛盾,比如二分法逻辑矛盾:物体在到达目的地之前必须先到达全程的一半,这个要求可以无限的进行下去,所以,如果它起动了,它永远到不了终点,或者,它根本起动不了。
    我们把收敛过程比作一个物体的运动过程,那么二分法逻辑中决定了进行收敛限定的矛盾是共通的,很显然,并指出了阈值存在的原因:因为我们无法确定终点在哪里,所以要设置一个阈值成为运算终点的判断条件.
    这种思路的最大问题就是采用了两极法来进行运算逼近,造成了必然会遇到困境:终点是永远不能达到的.想想小学时候,我们学的二分法,比如在0~1023中,用二分法,寻找整数结果,很容易就找到了呀,实际上,这是因为0~1023中只需要寻找的是整数,在有限的序列集合范围内,快速定位到一个目标,二分法非常不错的,但是,如果集合的数量无限增大或在运算过程中动态变化,那么就会变得非常不适用了,因为它不知道下一步该干什么,自然也就找不到终点.
    逻辑的悖论也有二分法根本不能启动的说法,大体与上面相仿,有意思的是我们的算法是确实在运算中的,那么,它为什么会能够启动并在运行中?从神经网络角度来看,原本任何一个网络都只是一个静态的结构,是我们人为对它进行了激活,而这个激活过程中,内部的输入与输出的结果是我们事先都定义好了的,就是建立了一个实体,而成为了一种客观的存在,比如,输入1+1输出2,这个过程是人为定义好的,真实世界中究竟1+1等不等于2,那是其它的问题,如果从1上累加一个1,那么累加的过程进行无限分解的话,必然是没有结果的,也就是说,无限分解,不是解决问题的办法,而人为限定了,把过程扔开,忽视它的不连续性,从"可见的连续"角度上进行分析,就可以形成一种客观的存在,当然,这样的存在,是处于我们的意识之中的.
posted @ 2008-02-24 19:43  一根神棍研古今  阅读(2592)  评论(2编辑  收藏  举报
Web Counter