顾然设计的这个数学物理体系中,客观的运行着。
在计算模型和算力集群的加持下,输入一次参数,在一毫秒的时间,云服务器会进行上亿次的模拟实验,
随后通过短暂的数据分析之后,从这上亿次实验中,总结出最终的结果。
整个过程不到一秒钟的时间。
而这个实验结果,和实验室验证之后的结果,基本一致。
这种一致,毫无疑问的让所有人都感受到了深深地恐怖。
因为在之前的核物理研究,都是非常成定式的。
先通过旷日持久的实验,然后观察出一系列数据和变量。
然后通过自己的观察,开始数据分析,进行最后的规律总结,
最后在论文中体现出这次实验出现了什么样的变量,有多少能量的损耗和粒子的逃逸,从而完成最后的总结,并随之提出自己的理论。
而这些理论也往往是以马后炮的形式出现,
因为在这个时候实验已经结束,
没有人在实验之前发现这些变量的出现,也没有人能在实验开始之前就预测到有多少电子会逃逸。
所以,最后的所谓结论也只是简单的宣布这一次实验的战果。
而长久以来,所有人似乎已经习惯了这种方法。
按照这样的流程不厌其烦的勤劳的向前推进研究。
人们将其称为“脚踏实地,”
但实际上,这样的流程,是是核物理发展缓慢的主要原因。
因为每一次实验得出的结论,几乎无法对下一次产生有效的预测。
每一次进步,都只是在上一次观察到的现象中进行改进。
起初的改进,还有效果。
因为那是客观存在的设计失误和实验误差,总是能修正过来的。
但当这些设计失误和实验误差被弥补上去之后,
人们便很难再向前一步了。
因为基本粒子的世界是完全随机的,
同样的现象,甚至在同样的仪器、同样的参数、同样的环境下,都不可能同时出现两次。
所以,这个时候所有的结论和总结、函数、公式,
都没有任何参考意义。
而在这种情况下该怎么做?
答案是束手无策。
很多人将可控核聚变的局限归因到了材料问题上,
但实际上并非如此,在这个伟大的宇宙
本章未完,请点击下一页继续阅读!