首页

速读谷

菜单

可令人遗憾是,截止到现在,cern仍然仅仅观测到了标准模型中预测的不到30%的希格斯玻色子衰变。

其中就包括了2015年观测到希格斯与第三代轻子(陶子t)的汤川耦合现象。

但这仅仅只是标准模型预测中的一部分。剩下的可能衰变仍然难以捉摸,没人能从里面找到痕迹。

而希格斯与第三代重夸克(顶夸克 t和底夸克 b)的汤川耦合就是标准模型预测中的一种衰变。

它能与第三代重夸克进行汤川耦合,赋予一部分粒子质量。

而这部分粒子,可能就是构成我们日常生活中常见物质的原料,比如铁、铜、镍、金、银等各种金属。

但截止到目前为止,cern的对撞机lhc还未能从对撞实验中找到它衰变和耦合的痕迹。

目前观察这种衰变模式并测量其速率,是通过汤川相互作用来确定或不确定费米子质量生成的。

可在对撞实验中,各类探测设备,比如atlas超环面仪器实验探测器能观测到的,不仅仅有粒子对撞数据,还有更多的背景波动、嘈杂信号、其他信号等等。

这些东西占据了整体对撞数据的绝对大头。

按照以为的对撞数据来看,有用的数据在这些废物数据中的占比仅仅只有三百万之一。

要从这么夸张的占比中分析出有用的数据,就不得不提cern的超级计算机与全球计算网格,以及粒子物理学家为分析这些数据编写的计算机代码上了。

lhc在2015年重启时,加倍的碰撞率将每年产生大约30pb的数据,几乎相当于每秒产生1gb的数据。

为了分析和处理这么庞大的数据,如今的粒子物理学家将大部分时间用在了编写计算机代码上。

cern的物理家和工程师编写了成千上万行代码,平均每天都有超过两万个程序在运行,用于在数百万个事件中搜寻不同寻常的信号。

这些优秀的程序,不仅仅用于分析粒子数据,还能作为大数据分析、数据检测之类的工作。

谷歌就在这里建立了全世界最大的云数据智能分析,借助cern每天诞生的庞大数据完善算法。

上一页目录下一页

相关小说全部