打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
黑洞实际上是台计算机,科学家确信宇宙也是!宇宙究竟在运算什么

为了能够与时俱进,研究人员将宇宙比拟成电脑,而物理定律则如同是电脑程序。

电脑和黑洞究竟有何不同呢?

这个问题听来像是嘲讽微软笑话的开头,但它实在是今日最深邃的物理问题之一。大多数的人认为电脑只是个有特殊功用的装置:坐落在书桌上的流线形盒子,或者是内含指甲般大小晶片的高科技咖啡壶。但对于物理学家而言,所有的物理系统都类似电脑。岩石、原子弹和星系也许没有安装Linux,但它们也会记录与处理信息。每一个电子、光子和其他基本粒子都储存着数据资料,每当两个粒子交互作用时,这些信息信息便会转换。实体的存在与信息内容繁复地连结在一起。诚如美国普林斯顿大学物理学家惠勒(John Wheeler)所说的:「一切事物都由信息比特衍生而来。」

对于所有事物的运算法则来说,黑洞似乎是个例外。将信息输入黑洞是毫无困难的,但根据爱因斯坦的广义相对论,要从中取出信息是件不可能的事。物质一旦进入黑洞便会被彻底消化,其组成细节将无可挽回地丧失。

在1970年代,英国剑桥大学的霍金 (Stephen Hawking)证明了,当考虑量子力学时,黑洞确实可产生输出:它们像高热的煤炭发光。但是在霍金的分析里,这种辐射是随机而凌乱的,不会带有任何关于坠入物体的信息。假如有一头大象掉进去,黑洞会输出相当于一头大象的能量─但原则上该能量是混杂错乱的,无法用来重新创造出那只动物。

量子力学的定律指出信息应该获得保存,因此信息的显著遗失带来严重难题。很多其他科学家都主张那向外发出的辐射事实上并非随机凌乱的,而是坠落物质经过加工处理后的形态。后来,霍金改变了自己的观点,转而支持他们的主张,认为黑洞也会运算。

会记录并处理资讯是个一般性原则,黑洞只不过是其中最诡异的例子,该原则本身却并非什么新鲜事。 在19世纪时,统计力学的创建者为了解释热力学定律,便发展了后来所谓的信息理论。乍看之下,热力学与信息理论是两个截然不同的世界:一个用来描述蒸气引擎,另一个则使通讯发挥最大效益。但是在热力学中限制蒸气引擎做功效能的物理量─熵,其实与物质分子的位置和速度所记录的信息比特数成正比。发明于20世纪的量子力学,赋予此项发现一个牢固的定量基础,并引入了卓越出众的量子信息概念。构成宇宙的信息比特称为量子信息比特(qubit),其性质远较普通信息比特更加精采。以信息比特来分析宇宙,并不会取代传统上以力与能量所做的分析,但它的确发现了令人惊讶的新事实。

例如在统计力学的领域中,它解开了关于「麦克斯韦妖」的悖论,那是个似乎能永不停息的永动机。最近几年,我们与其他物理学家已把同样的见解应用在黑洞的本质、时空的精细结构、宇宙暗能量的行为与自然的终极定律等宇宙学和基础物理问题上。宇宙并不只是个巨大的电脑,它其实是个巨大的量子电脑。正如意大利物理学家历里(Paola Zizzi)所说的:「一切事物都由量子信息比特衍生而来。」

量子运算的第一定律指出︰运算需要能量。质子的自旋编码为单一信息比特,可经由外加磁场而反转。磁场愈强,其所施加能量愈多,质子便翻转得愈快速。

当10亿赫兹仍嫌太慢时

物理学与信息论(源于量子力学的中心原理)合流了:说到底,离散是自然的本性;一个自然系统可以用有限的比特值来描述。在系统内,每个粒子的行为正像一台计算机的逻辑门。它的自旋“轴”能指向两个方向中的一个,因此可以编码一个比特,并且可以翻转,由此执行一个简单的计算操作。

系统的时间也是离散而不连续的。翻转一个信息比特只需最少量的时间。决定实际所需时间的定理,是以两位信息处理物理的先驱为名─麻省理工学院的马枸勒斯(Norman Margolus)与波士顿大学的莱维汀(Levitin)。该定理与海森堡测不准原理有关(海森堡测不准原理是指测量位置与动量,或时间与能量等物理量时,其准确性会有得失平衡),认为翻转一个信息比特所需的时间t,取决于所施加的能量E。施加愈多的能量,所需时间就愈少。此规则以数学表示为t≧h /4E,h 是量子理论的主要参数︰普朗克常数。例如,某种实验性的量子电脑以质子储存信息比特,以磁场使它们翻转。运算的操作会在马枸勒斯–莱维汀定理所允许的最短时间内完成。

这个定理可以导出大量的结论,涉及范围从时空几何的界限,到宇宙整体的运算能力等。我们现在以普通物质运算能力的限制,做为热身活动。假设有个体积一公升而质量一公斤的物质,我们称此装置为终极笔记型电脑。

此电脑的电池就是这个物质本身,依照爱因斯坦的著名公式E=mc2,将质量直接转换成能量。若将此能量全部用来翻转信息比特,这个电脑每秒可执行10的51次方运算,速率会随着能量的降低而减缓。此机器的记忆容量可用热力学计算出来。当一公斤的物质在一公升的体积内转化为能量时,温度将到达绝对温度10亿K。它的熵(与能量除以温度的值成正比)相当于10的31次方信息比特的信息。终极计算机利用其内部基本粒子的微观运动与快速变换的位置储存信息。每一个被热力学定律所允许的信息比特,都派上用场。

每当粒子交互作用时,可能会导致对方翻转。这个过程可以使用如C或Java等编程语言来想像:粒子就像变数,它们的交互作用则是类似加法的运算。每个信息比特每秒可翻转10 的20次方, 大约比振荡频率10亿赫兹的时钟快 1000亿倍。事实上,此系统实在太快了,根本无法以中央时钟控制。翻转一个信息比特所需的时间,大约等于将讯号由一个信息比特传到它邻近信息比特的时间。所以,终极笔记型电脑是高度平行化的:它不是以单一处理器运作,而是以广大的处理器阵列、每个处理器几乎独立运作,但结果是处理器之间的传输沟通相对较为缓慢。

比较来看,一台常规计算机每秒钟翻转其信息比特大约10*9次,存储约10*12比特的信息,且 只包含单一的处理器。如果摩尔(More)定律能够保持的话,你的后世子孙将有可能在23世纪中期 买到一台极端掌上计算机。工程师们将找到精确控制等离子体内粒子相互作用的方法,而该等离子 体要比太阳的核心还要热,而且控制计算机和纠错将占用许多通讯带宽。工程师们也可能已经解决 了某些节点封装的问题。 在某种意义上,如果你认对了人,你事实上已经能够买到这样的装置。一千克的一块物质完全 转化为能量——这正是一颗2000万吨级氢弹的工作定义。爆炸的核武器正在处理巨量的信息,其初 始结构给出其输入,其辐射给出其输出。

从钠米科技到稀米科技

如果任何物质团块都是电脑,那么黑洞就是个被压缩到最小可能体积的电脑了。当电脑缩小时,其组件间相互施加的重力会变得非常强大,最终将强大到没有任何实质物体可以逃脱的地步。黑洞的大小称为史瓦西半径(Schwarzschild radius),其数值与质量成正比。

1000g质量的黑洞有着大约10*-27米的半径(一个质子的半径是10*-15米)。压缩后的计算机并未改 变其能量内容,因此它能像以前一样每秒执行10*51次运算。发生改变的仅是它的存储容量。当引力 小到可忽略时,总存储容量正比于粒子数,也正比于体积。而当引力起支配作用时,它使各粒子之 间相互联结,因此它们整体上所能存储的信息容量就较少。一个黑洞的总存储容量正比于它的表面积。1970年代,霍金和以色列希伯莱大学的Jacob Bekenstein计算一千克质量的黑洞能够记录大约 10*16个比特的信息,比压缩前要少得多。

那么,黑洞电脑实际上如何工作呢?输入不会是个问题:将资料数据以物质或能量的型态编码,再掷入黑洞即可。只要适当地准备好要掷入的材料,骇客将能够为黑洞设计程式来执行任何要求的运算。物质一旦进入黑洞,它将永远消失﹔所谓的事件视界就表示这个消逝点。快速坠落的粒子相互作用,在抵达黑洞中心奇异点前的有限时间里进行运算,然后消逝。物质在奇异点被压扁时发生了什么事,取决于量子重力理论的细节,这理论目前尚不清楚。

黑洞电脑输出的是霍金辐射。因为能量守恒的缘故,其质量必定会减少,一公斤的黑洞在发出霍金辐射后,短短的10的-21秒内就会消失殆尽。最强辐射所对应的波长等于黑洞的半径;对于一公斤的黑洞而言,所对应的是极强烈的γ射线。粒子侦测器可捕捉这辐射,将它解码后供人类使用。 霍金研究这个以他为名的辐射,结果颠覆了黑洞是个没有任何东西可逃离其力场之物体的传统认知。黑洞的辐射速率与其大小成反比,因此像那些位在星系中心的大黑洞,能量的漏失远比它们吞噬物质的速率慢。但未来的实验或许能在粒子加速器中创造出微型黑洞。这些 黑洞应会在诞生后不久便立即爆炸,迸发大量辐射。所以

黑洞不该被认为是个固定物体,而是个会以最大可能速率进行运算且转瞬即逝的物质聚合体。

逃脱计划真正的问题在于霍金辐射是否提出了运算的答案,或只是一番胡言乱语。此议题仍有争论,但包括霍金在内的大多数物理学家认为,这辐射是在黑洞形成时坠入其中的信息,经高度处理后产生。虽然物质无法离开黑洞, 但其信息却可以。了解这个现象究竟如何造成,是目前物理学界最热中的问题之一。

计算机化的时空结构

黑洞的性质与时空的性质纠结缠合,难以厘清。所以如果黑洞可被看做是计算机,那么时空应该也可以。量子力学预测,时空与其他物理系统一样,都是离散而不连 续的。空间距离与时间间距是无法被度量到无限精准的;在小尺度下,时空看起来像是充满泡泡的泡沫组织。在一个空间区域中所能输入信息的最大量,取决于信息的大小,而它们绝不会比泡沫单元小。

物理学家一向假定这些泡沫单元的大小为普朗克长度(lP, 10-35公尺);在此距离范围内,量子涨落与重力效应都很重要。如果真是这样,时空的泡泡性质就变得太细微而无法被察觉。但是正如本文作者之一吴哲义与美国北卡罗莱纳大学教堂山分校的范达姆(Hendr ik van Dam),以及匈牙利罗兰大学的卡罗宜海兹(Fr igyes Karolyhazy)的研究显示,这些泡沫单元其实比想像中大得多,而且没有固定的大小:时空区域愈大,它的组成单元就愈大。乍听之下,这个主张似乎是 矛盾的──就像是在说构成大象的原子会比构成老鼠的原子还大一样。事实上,罗伊德已经利用使计算机能力受限的同样定律导出这个结果了。

绘测时空几何的过程是一种运算,其中,距离是靠传递和处理信息来测定的。一种方法是,在空间区域中布满大量装有时钟和无线电发送器的全球定位系统卫星(见 下页〈运算时空〉)。要测量距离时,卫星会送出一个讯号,并计算讯号抵达另一个卫星的时间。这种测量的精确度是由时钟滴答(ticking)计时的节奏决 定的。由于滴答计时是一种运算操作,马枸勒斯—莱维汀定理限定了它的最大速率:滴答的时间间距与能量成反比。 另一方面,能量也是受到限制的。如果你给卫星太多能量,或是把它们排得太靠近,它们将会形成黑洞而无法再参与测量。(黑洞仍会持续发出霍金辐射,但由于此 辐射的波长等于黑洞本身的大小,因此不能用来测量尺度较小的特征。)整组卫星的最大总能量与所欲绘测区域的半径成正比。

因此,能量增加的速率小于该区域体积增加的速率。当区域变大时,绘图人员将面对一个无可回避的抉择:降低卫星的分布密度(增加它们彼此间的距离)或减少每 颗卫星所能使用的能量(会使它们的时钟节奏变慢)。

不论用哪一个方式,测量的结果都变得较不精确。用数学式表示,在绘测一个半径为R的区域所需的时间内,所有卫星的总滴答数是R2/ lP2。如果每颗卫星在绘测的过程中都精准地滴答一次,那么卫星分布的平均距离便是R1/3lP2/3。在一个分区内,较短的 距离仍可测定,但必须牺牲在其他分区内测量的精确度。这个论证同样适用于空间扩张的情况。

这个式子给定了测量距离时的精确度。它可应用在当测量仪器濒临变成黑洞之时。在最小尺度之下,时空几何将不存在。这样的精确度远比普朗克长度大得多,但那仍然非常地小。测量可见宇宙大小的平均不准确度大约是10-15公尺。虽然如此,这幺小的不准确度仍有可能被非常精准的测距仪器所检测到,例如引力波 观测站。

从理论学家的观点看来,这项结果的重大意义在于它提供了检视黑洞的新方法。吴哲义已证明了时空起伏与距离立方根的奇怪比例关系,提供一个方便法门,可以导 出关于黑洞记忆容量的柏肯斯坦—霍金公式。它也暗指了黑洞计算机的普适范围:记忆容量的信息比特数目与运算速率的平方成正比。该比例常量为Gh/c5──这在数学上证实了信息与狭义相对论(光速c是其特征参数)、广义相对论(重力常量G)和量子力学(h)的关联。

或许最具意义的是,此结果直接导致全像原理,此原理认为我们的三维宇宙在某个深邃而难以理解的层面上, 其实是个二维世界。任何空间区域里所能保存的最大信息量,似乎不是与其体积、而是其表面积成正比。全像原理通常被认为源自于量子重力中尚未被知晓的细节,但它同时遵循对测量精确度的基础量子限制。

运算的答案

运算的原理不仅适用于最致密的计算机(黑洞)和最微小的计算机(时空泡沫),同时也适用于最大的计算机 ──宇宙。宇宙或许辽远而无边际,但至少以它当前的 形式,宇宙的年龄是有限的。当前可观测到的部份,大约横跨100多亿光年。因此,结果为我们所知的运算,必定是发生在这片广大的苍穹之内。 上述关于时钟滴答节奏的分析,也得到自宇宙诞生以来所有可能发生过的运算次数:10123次。此极限可用来与我们周遭物质的行为做比较,也就是可见的物 质、暗物质和所谓的暗能量(造成宇宙加速膨胀的成份)。由于观测到的宇宙能量密度约为每立方公尺10-9焦耳,所以宇宙所含能量为1072焦耳。根据马枸 勒斯—莱维汀定理,宇宙每秒可进行多达10106次运算,也就是说到当前为止总共进行了10123次运算。换言之,宇宙所执 行的运算操作已达物理定律所容 许的最大可能次数。

为了计算如原子等传统物质的记忆容量,我们可使用统计力学和宇宙学中的标准方法。物质在转换成活跃的无质量粒子(例如微中子或光子这类粒子)时,可包含最 多的信息;其熵的密度与其温度的立方成正比。粒子的能量密度(这个量决定了它们可执行的运算次数)则与其温度的四次方成正比。因此,总信息比特数等于总运算次数的3/4次方。对整个宇宙来说,相当于1092个信息比特。假如粒子还含有某些内在构造的话,信息比特数目可能还要再高些。这些信息比特翻转的速率比彼此间通讯的速率还快,所以传统物质类似于终极笔记型计算机而非黑洞,是高度平行化的计算机。 至于暗能量,物理学家并不知道它究竟是什么东西,更别说要如何计算它可保存的信息量了。但全像原理暗示了宇宙最多可保存10123个信息比特──几乎与总运算 次数相同。这两个数字的大致相等,绝非偶然。我们的宇宙接近临界密度。

假如它的密度比临界密度再高一些,将会导致重力塌缩,就像掉入黑洞的物质一样。因此宇宙的密度符合(或大致符合)达到最大运算次数所需的条件。这个最大值 是R2/ lP2,与全像原理所预测的信息比特数相同。在其历史中的每一个时期里,宇宙所拥有的最大信息比特数目,大致等于它到当时为止已经执行过的总运算次数。

相对于普通物质经过大量的运算操作,暗能量的举措则大相径庭。假如它编码出全像原理所允许最大量的信息比特数,则绝大多数的信息比特在宇宙历史的过程中,只有足够 的时间翻转一次。所以这些不寻常的信息比特,应该只能旁观那些数目少了许多的普通信息比特进行着高速运算。不管暗能量是什么,它并没有执行大量的运算。事实上,它也不需要执行大量运算。因为就运算而言,补偿宇宙的失踪质量并使宇宙加速膨胀,只是个简单的工作。

宇宙究竟在运算什么?

当前我们所知道的是,宇宙并不像科幻经典《银河系漫游指南》中那部巨大的「沉思者」计算机一样,每次只为一个问题提供单一的答案。相 反的,宇宙运算的是它自己。以标准模型为动力来源,宇宙计算量子场、化学物质、细菌、人类、星球和星系。当它运算时,会把自身的时空几何,以物理定律所允许的极限精确度描绘出来。运算即存在。

这些延伸涵盖了普通计算机、黑洞、时空泡沫和宇宙学的结果,就是自然统一性的证明。它们显示了基础物理观念内在的连结。虽然物理学家还尚未拥有一套完整的 量子重力理论,但不论那是什么,他们知道那必定与量子信息紧密地结合在一起。

一切事物都是由量子信息比特衍生而来。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
""荒诞不经""的黑洞计算机
重大发现!量子纠缠:所谓的“迷信”,可能就是超级科学
黑洞或成寻找暗物质的“实验室”
宇宙十大怪兽
粒子对撞揭开宇宙秘密
关于宇宙的10件奇异之事
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服