服务热线
021-68580928
在前文中,我们曾经说过,在分析一个事物的时候,粒度大小的选择决定它分析的难度。粒度越小,分析的复杂性越大;反之,粒度越大,分析的复杂性越小。粒度越大,很多细节被“平均”掉。故此,计算的复杂性会大大降低。对于风险来说亦是如此。如果要考虑各个风险因素,以及风险因素之间的关系,说明我们在分析的过程中关注了很多的细节。分析的难度自然就很大。但如果我们不考虑这些细节,不考虑风险因素之间的关系,而将其看成一个系统来看待。则分析起来相对比较容易。这一思路其实在《系统分析法》中已给予比较深入的分析。此处不累赘。
其实,我们运用系统法分析风险时,相当于将系统看成一个黑箱。不去关注其细节,其难度会降低很多。这一思维在前面的篇章中经常提及。在具体的分析中,我们往往采取数据驱动的建模方式去分析。这种模型一般为深度神经网络模型、人工智能等。通过这些模型,我们完全可以忽略因素之间的相关性,只需关注输入与风险的数据,采取一种学习算法,确定模型的参数,就可以实现确定风险目的了。
这种分析的弊端在于,仅限于特定的情景下。一旦情境发生变化,这个模型将不能用于分析。——这意味着,不仅参数会变化,而且模型的结构也会变化。另一个弊端在于,由于不清楚发生机理,很难发现其本质特征与规律,只能就现象说现象,无法得到深层的结论。
与之对应的,就是采用模型驱动的分析方法。这一方法要求科学家对于经济与管理风险系统的特征与状态、功能搞得清清楚楚,也就是说,需将风险系统抽象成一个“白箱”来分析。比如说贝叶斯网络模型、多主体建模的方法等,需要知道里面的关系是什么。
这种分析也存在着弊端。这种关系实际是复杂的,动态变化的。故此,我们很难随时准确地知道各个风险因素与风险特征向量以及它们之间的映射关系也会不断发生变化。如果不能准确的、及时的识别其中的变化,我们很有可能用一个与现实不匹配的模型,最终会导致得到一系列错误的结论。
风险是动态变化的,这种动态性与随机性的结合导致风险异常复杂,然而如果站在一个较粗的时间粒度上,我们便会神奇的发现这种随机性已经过“平均”掉了。同样的,如果不断的加大样本量,将形形色色的不同情况下的案例全放进来。——也就是在一个较粗的空间粒度上看这个风险,我们也会发现,随机性也被“平均”掉了。为了说明这一现象,我们举一个例子。谷歌公司发现流感疫情的发展状态可以与某些关键词被搜索的频率有很好的联系,因此建立了谷歌流感趋势(GFT)模型。GFT将大量关于流感的谷歌搜索数据进行汇总。并据此进行流感预测。尽管谷歌对其搜索引擎的算法不断做出调整与改进。但仍然很难为GFT提供行之有效的帮助,反而算法的多变性反倒是预测结果不准的原因。2014年的流感预测失败一案例。除了上述原因,还有空间维度的因素:比如在搜索“头疼”等关键词时将很多与流感无关的数据也都放入到案例库中进行分析。最后导致样本混乱、错误,结果自然也有问题。这也说明另一个问题,因人们对大数据的理解有误,过大的数据,最终可能导致正确的数据被淹没有错误的数据的海洋之中。换一句话说,数据并非越大越好,而是越准越好,这一问题在《大数据是思想,是思维还是方法》中也曾提到。
可见,恰当的时空粒度才是分析的关键所在。唯有如此,才可以对风险的复杂性进行适度的处理,方可得到较为准确的结论。
然而,可惜的是,对于适度的时空粒度判断,本身并不是一件容易的事情。正如前文中所说,粒度太细,计算复杂性太大、太粗,往往忽略了很多细节。——恰恰风险与细节之间的关系最为密切,往往由于细节上的不当而导致风险事件的发生。这个悖论对于风险分析的科学家们来说很难处理。
其实问题的关键在于,在分析风险的时候,我们可以采取分析——综合法的思维。在分析阶段,我们找出所有的可能存在的细节以及可能的案例。然后,根据风险事件,找出不同运作阶段中这个风险事件的因素及风险事件的特征,然后分析不同运作阶段风险的变化。——如果有变化,则找到其他的因素。然后找到不同风险事件之间的关系。通过分析法,将其一个一个风险事件的规律找出来,以及风险事件之间的关系找出来,然后再按照综合法,将风险事件“拟合”成一个总体的风险系统。从而将分析过程简化。
一般来说,风险是复杂多变的,要想真正的描述这个复杂多变的事情,粗的粒度肯定不好。从这个意义上讲,统计意义上的分析,效果确实不会太好,毕竟经典统计在时间维度上的粗粒化处理丧失了太多的时间上的变化。在多维统计学习模型中,虽然控制了时间上变化造成的损失,但也会因为样本选择却有出错的可能性。相反的概率型簇的模型则显得更为可靠一些。
风险分析,非常复杂。愿有意从事该项研究的,可与我们讨论。
本文来自公众号:修心者。