在我们的宇宙中,混合是最基本的形式之一,远远超过了随机性。这是什么意思?
其根本概念是,一种被执行一次又一次的贝克图根本不存在可预见性,任何模块都被彻底弄乱,进而变成任意的。
当我们在可预测性流程中添加一种像这类的随机过程时,便会形成任意体系,如同晃动的弹簧或滚落山地球。可预测性流程给予了总体运动,而随机性给予了运动的统计分布。任意体系中的随机性在于所牵涉的尺寸范畴,但大部分体系都是有某些任意行为。
混沌相混和随机性间的影响是任何统计物理的根本,但我觉得混沌相混事实上是更基础的。根本原因是我们知道最少针对像气体这类的经典体系分子结构是基本要素。因而,混乱的相混并不会产生在分子结构水准以下。反过来,分子结构的热行为是由动能和相撞另外分子结构的组合形成的。在分子模型和测试测量间有较好的一致性。
在这个小限度上,2个(或大量)分子结构的相互影响是明确的和错乱的,而不是任意的。因而,我们与偶然性联络在一起的特点来源于可预测性杂乱,而不是真真正正的偶然性。
统计分析物理的另一个有意思特点是,偶然性并并不是作出预测的首要条件。它一般用以仿真模拟和不能预测的热起伏,但假如基本特征并不是任意的,只是简易地混合,统计分析预测一般也可以见效。关键的是混合,由于混合会造成元素在恰当的時间内以恰当的构形完毕。
以溫度或工作压力为例子,它是统计分析全过程的結果。针对溫度而言,关键的是分子结构在恰当的部位出示了恰当的动能来体现每一个分子结构的均值机械能。并且,如同我以前提及的,这类混合在实质上务必是分形的。你需要见到全部层级的混合产生,那样,不管你的温度表是如何的,你依然会见到同样的平均气温。可是如果你见到分子的大小时,这就结束了。假如你的温度表是以单独汽体颗粒为标尺的,你也就不可以恰当地精确测量它。
为什么这很重要?
由于相信宇宙空间从源头上而言并不是任意的。造物主不掷骰子。反过来,造物主是一个烘培师,他从宇宙空间的限度一直烤到普朗克长度。再小一点,蛋糕烘焙就终止了。即便牵涉到量子科技状况,一切都仅仅蛋糕烘焙,但在另一个层面,时间与空间自身被捏揉。
如果是那样,偶然性便是一种出现幻觉,偶然性的实体模型是混合的类似。
肯尼斯·威尔逊诺贝尔奖获奖者肯尼斯·威尔逊,他可能是统计分析物理和量子科技场基础理论中最伟大的英雄之一。他发展趋势了一个有关长度限度的基础理论,向大家展现了怎样在特殊的长度限度上模型物理学系统软件,并将这种限度彼此之间关系起來。从威尔逊的财产中,大家获得了对任意系统软件的当代了解,尤其是情况转变,如水结冰或挥发,或磁场被磁化或去磁。
从而,我们可以了解为何物理学系统软件不但在一个长度限度上混和,只是在全部长度限度上混和,不论是一个分子结构高校或海洋之灾长度。恰好是因为这种系统软件在不一样长度限度上的“自相似度”,他们在不一样限度上的个人行为类似,但具备极强或较差的自相互影响,这很有可能会使这种系统软件在一个限度上多多少少地混合在一起。
比如,有一些系统软件在超大尺度上是光滑的,但在小限度上则是不光滑的。另一些则正好相反,在超大尺度上是繁杂和错乱的,但在小范畴上是简易和非常容易预测的。
气体在超大尺度下的主要表现与在小限度下的主要表现是迥然不同的,这就是为何飞机场可以用大的固定翼越过气体,而蚊虫务必嗡嗡叫越过涡旋气旋。这和气体的黏度有非常大关联,有时候和气体的任意健身运动相关。
股市是另一个在长期间距比短期内间距更非常容易预测的事例。这就是为何你能项目投资指数型基金,将你的钱投资10年,而且非常自信心你会赚钱。
殊不知,一种限度的错乱也会散播到另一个限度。这就是说白了的蝴蝶效应。威尔逊尤其强调,尝试将不一样限度分离出来是愚昧的。反过来,大家务必将他们互相联络起來,并解决那样一种概率,即大家有兴趣科学研究的状况在于全部长度范畴内产生的事儿,而不仅是一个范畴。尤其是当一个系统软件贴近说白了的“零界点”时,例如冰融化或磁石被磁化,全部的限度都是会集聚在一起造成这类状况,造成联级,以她们的方法左右起伏,那样便会产生一些奇妙的事儿,系统软件便会被更改。
同样,在金融领域,小的变化可以影响大的趋势,反之亦然,这样就到达了市场崩溃或繁荣的临界点。你永远无法确定每一秒发生的事情不会爆发,不会影响每个月发生的事情。
所有这些都没有假定随机性存在或不存在。相反,它只是假设混合(随机或非随机)发生在许多不同的尺度和不同的速度。随机性对数学家和物理学家来说当然很方便,但不是必需的。
假设系统是随机的好处之一是,它可以除所有你不理解的外部因素。但作为世界运行的基本模型,随机性是站不住脚的。随机模型总是依赖于某种神秘的熵源。它们不允许系统是完全封闭和确定性的。随机性的另一个特征是它破坏了系统的一些很好的数学特性,比如可微性。
如果你有一个粒子,它是随机波动的,根据某种正态分布,它的运动是不可微的。原因是,在一段很小的时间内,它平均移动的距离与时间的平方根成正比。导数依赖于无限小的时间和距离成比例,所以它们中的微小量在比例中抵消。但随机性并非如此。除非随机性在一定长度范围内神奇地消失,否则将陷入不可微分运动中。
这也是为什么量子力学有非交换算符的原因,这些算符根据你应用它们的顺序会给出不同的答案。这就是海森堡测不准原理的来源。
更简单地说,系统从来都不是随机的,它们仅仅是由于内部的非线性自相互作用或与外力不可解释的相互作用而混合在一起?可能会,也可能不会。对于随机问题,我们有完整的分布理论。利用算子微积分来处理随机现象。对于可微性这类问题,我们不必再进行复杂的、多尺度的非线性混合运算。
但如果我们真的想知道内部到底是怎么回事?我们可能会更加重视随机性,也可能会对其提出质疑,试图了解其局限性。为了解释量子测量为什么看上去是随机的,我想用林德布雷德方程来处理量子力学,这些方程把随机性质引入量子力学。如果量子预测没有他们,为什么还要引入他们呢?除非你想说上帝真会玩骰子。