这个证明方法就是利用计算机模拟的规划性游戏。上周我坐京沪高铁,火车上读了一本有趣的书讲到类似的计算机实验。此书名字是《The Logic of Failure》,作者是德国的认知科学家Dietrich Dorner。
Dietrich创设了一些计算机模拟的规划性游戏,这些实验有各种各样的设定,比如在一个游戏里,你可能是一个市长,管理一个英国城市。在另一个游戏里,你可能变成一个酋长,领导着西非的一个游牧部落。美国大学其实也有类似的课程用计算机模拟商业活动,如Forad这种程序,学生们模仿CEO对企业经营参数进行多轮调节和决策。
这些模拟角色,类似于一个人穿回1787变成路易十六,不论你是国王、市长、酋长,面对的都是一个“规划家”的任务:如何在一个复杂性系统里收集信息、研究问题、提出规划、付诸实施?受测者可以不停调整他们的策略,并把参数输入计算机。计算机则对他们管理的社会进行模拟运算,并在每一个规划期结束后,给出动态的社会演变结果。
模拟的好处之一就是,不用苦等一个人当了20年国王才发现他是治国庸才,计算机只要几个小时就能证明这一点了。
事实上,模拟实验发现,绝大多数受测者,不论其现实身份如何,在应付人类社会演化或是自然生态这些复杂性系统时,他们的能力全都弱爆了。
这些受测者都很认真投入的进行分析、规划、和决策,可他们若当了市长、酋长、甚至村长,在模拟环境里,你将看到他们治下的社会走向各种失败之局:人口不是爆炸就是灭绝、生产不是畸形就是停滞、生态灾难、全盘性大饥荒,等等。
值得注意的是,受测者面临的问题有一些共同特征:
不透明:看不到一个系统的内部机制,往里扔一个石子,也听不到及时的回声。
关联性:系统内有许多变量相互影响,这些影响有的造成“正反馈”,有的造成“负反馈”,总之,这些内部关系超级纠结。
动态性:你不理这个系统,系统自己也在不停的走动。你要观察的不仅是一个时点上的系统值,而是推测整个系统随时间推移最终向何方演化。
治理国家、管理企业、甚至清理池塘,都要和一个类似上面特性的人类或自然系统在打交道。用一个形象的比喻就是 “黑盒子”。人们无法打开盒子,只能这儿戳一戳,那儿碰一碰,猜这盒子到底藏着什么玄妙。
人类在规划“黑盒问题”方面好像天生就找不到感觉。在Dietrich创设的计算机游戏中,受测者虽然掌握上帝视角,仍无法避免系统的屡屡失控。这些结果并不令人意外。人们总是高估自己,看不到失败的普遍性。不过,这些实验体现出一些值得留意的错误共性,不妨多说几句。
譬如一个常见的认知错误,是因为系统不透明造成。人类大脑本能的假定事情之间存在瞬间联系,比如当你拧开煤气灶,火苗子腾的冒出来,这就是你的决策立刻反馈结果。但复杂性系统往往没这么透明,最重要的是它有一个延后性,就象宏观经济学经常讲到的“政策时滞”效应一样。
Dietrich创设了一些计算机模拟的规划性游戏,这些实验有各种各样的设定,比如在一个游戏里,你可能是一个市长,管理一个英国城市。在另一个游戏里,你可能变成一个酋长,领导着西非的一个游牧部落。美国大学其实也有类似的课程用计算机模拟商业活动,如Forad这种程序,学生们模仿CEO对企业经营参数进行多轮调节和决策。
这些模拟角色,类似于一个人穿回1787变成路易十六,不论你是国王、市长、酋长,面对的都是一个“规划家”的任务:如何在一个复杂性系统里收集信息、研究问题、提出规划、付诸实施?受测者可以不停调整他们的策略,并把参数输入计算机。计算机则对他们管理的社会进行模拟运算,并在每一个规划期结束后,给出动态的社会演变结果。
模拟的好处之一就是,不用苦等一个人当了20年国王才发现他是治国庸才,计算机只要几个小时就能证明这一点了。
事实上,模拟实验发现,绝大多数受测者,不论其现实身份如何,在应付人类社会演化或是自然生态这些复杂性系统时,他们的能力全都弱爆了。
这些受测者都很认真投入的进行分析、规划、和决策,可他们若当了市长、酋长、甚至村长,在模拟环境里,你将看到他们治下的社会走向各种失败之局:人口不是爆炸就是灭绝、生产不是畸形就是停滞、生态灾难、全盘性大饥荒,等等。
值得注意的是,受测者面临的问题有一些共同特征:
不透明:看不到一个系统的内部机制,往里扔一个石子,也听不到及时的回声。
关联性:系统内有许多变量相互影响,这些影响有的造成“正反馈”,有的造成“负反馈”,总之,这些内部关系超级纠结。
动态性:你不理这个系统,系统自己也在不停的走动。你要观察的不仅是一个时点上的系统值,而是推测整个系统随时间推移最终向何方演化。
治理国家、管理企业、甚至清理池塘,都要和一个类似上面特性的人类或自然系统在打交道。用一个形象的比喻就是 “黑盒子”。人们无法打开盒子,只能这儿戳一戳,那儿碰一碰,猜这盒子到底藏着什么玄妙。
人类在规划“黑盒问题”方面好像天生就找不到感觉。在Dietrich创设的计算机游戏中,受测者虽然掌握上帝视角,仍无法避免系统的屡屡失控。这些结果并不令人意外。人们总是高估自己,看不到失败的普遍性。不过,这些实验体现出一些值得留意的错误共性,不妨多说几句。
譬如一个常见的认知错误,是因为系统不透明造成。人类大脑本能的假定事情之间存在瞬间联系,比如当你拧开煤气灶,火苗子腾的冒出来,这就是你的决策立刻反馈结果。但复杂性系统往往没这么透明,最重要的是它有一个延后性,就象宏观经济学经常讲到的“政策时滞”效应一样。