首页 » 网站推广 » php模子化技巧_重整化群碰识趣械进修多尺度视角探索复杂系统内在的统一性

php模子化技巧_重整化群碰识趣械进修多尺度视角探索复杂系统内在的统一性

访客 2024-12-03 0

扫一扫用手机浏览

文章目录 [+]

正由于“太小的构造我们看不清,太大的构造我们看不全”,以是我们须要利用重整化群的方法,不断把系统的主要特色突出,把不主要的特色抹除,终极我们会创造,或许全体天下是由一个个有限的岛屿组成,每个别系都会属于一个岛屿,再无其他。
本文从伊辛模型的重整化开始先容了重整化群理论,然后系统梳理了重整化群和机器学习结合之处的系列研究,末了磋商了与重整化群殊途同归的多尺度动力学建模在探索非平衡动力系统方面的前沿进展,包括因果呈现理论、本征微不雅观态理论、强化学习天下模型等。

撰文 | 陶快意

php模子化技巧_重整化群碰识趣械进修多尺度视角探索复杂系统内在的统一性 php模子化技巧_重整化群碰识趣械进修多尺度视角探索复杂系统内在的统一性 网站推广

编辑 | 梁金

php模子化技巧_重整化群碰识趣械进修多尺度视角探索复杂系统内在的统一性 php模子化技巧_重整化群碰识趣械进修多尺度视角探索复杂系统内在的统一性 网站推广
(图片来自网络侵删)

重整化群在物理领域,尤其是粒子物理和统计物理领域具有非常主要的地位。
引用加州大学圣迭戈分校尤亦庄老师(E大)关于重整化群的利用场景的总结便是:太小的构造我们看不清,太大的构造我们看不全。
以是,我们须要重整化群来对系统进行截断或者进行“粗糙化”的描述。

关于什么是重整化群,本文紧张以我的学习路径为锚点分享对付重整化群的理解。
在当前阶段实在便是这样一句话:它实质上是描述系统参数空间动力学的一套图像。
末了,我们会再回到E大的描述进行呼应。
以是,让我们从动力学的话题开始。

01

什么是重整化群

首先我们先形式化地表示一个别系。
对付一个动力系统,我们可以利用这样一个方程来描述:

dx/dt = f(x, θ) (1)

个中x是系统的变量,而θ和f的形式在特定问题下常日是固定的。
比如一个弹簧振子的微分方程是

当然,这里写成了动力学形式,是由于动态系统对我们研究繁芜系统的人来说更为常见。
而如果我们要建模的系统是一个平衡系统,那么就可以用一个概率分布p(x, θ)来描述这个别系。
而下述内容为了方便论述,我们都以繁芜系统更常见的动力学系统展示为主,这并不妨碍我们对全体理论的理解。
总之呢,我们现在可以用形式化的数学把一个别系描述出来。

而这个时候我们再引入尺度的观点。
引入尺度意味着什么呢?实际上引入尺度的视角,就彷佛我们在用不同分辨率的眼睛重新看这个别系,比如我们利用的分辨率更低了,那么我们看到的系统就会更“糊”,丢失了很多细节,但我们还是能看到系统在运动。
在这个新的尺度上我们也可以用一套新的动力学方程来描述,比如可以写成

dy/dt = f'(y, θ')(平衡态系统则可以写成p'(y, θ') (2)

在这个新的描述形式下,系统的变量可以和原来不一样,参数可以不一样,就连方程的形式也可以不一样(从f变成了f')。
实在各个领域的传统方法,便是这么去处理一个别系不同尺度的。
我们在处理每一个尺度上的问题可以说是游刃有余,并且也发明了很多非常成熟的工具用来剖析各种动力学中的微分方程和偏微分方程。
线性动力学就不用说了,非线性动力学也有诸如流(flow)、混沌、吸引子、分形等丰富的剖析工具(推举书本:Stenven Strogatz 的 Nonlinear dynamics and chaos)。

不过,物理学家便是这么一群奇怪的物种,总是喜好另辟路子做一些奇怪的事情。
他们在对系统不断做粗粒化的过程,发明了重整化群的方法。
重整化群这个工具要回答的实际上便是这样一个问题:我们在不断对系统做粗粒化的时候,系统会发生什么样的变革,也便是说在追问的是:系统在不同尺度之间存在什么样的关系?

实际上,延续上文的措辞,重整化群要建模的,是不同尺度系统参数的动力学。

dθ/dl = g(θ, γ) (3)

上面的公式有几个关键点,首先自变量由原来的韶光t变成了尺度l,其次因变量是θ,也便是原系统的参数。
这是在说,方程建模的是系统的参数随尺度的变革。
当然我们能写成上面这条公式的条件,是假设了不同尺度的动力学形式f和f'可以写成基本同等的形式(基本同等这个说法很奇妙,我们会不才文给出阐明)。
这个假设虽然看着很强,但其实在很多物理系统中是非常合理的。

我们以经典的平衡态 Ising model 为例(Ising model 的基本先容见:伊辛模型 | 集智百科),块粗粒化( block coarse-graining)的操作实在可以近似等价于调控系统的耦合系数(也可以理解成温度,耦合系数和温度有直接的关系)。
以是我们会有那张经典的动态 Ising 重整化的图像(如图1所示)。
而可以这么做的条件是,不同尺度的 Ising model 它依然是一个 Ising model, 不会变成其他别的比如Potts模型(Potts模型的变量不是二值的)。
在这一条件下,公式(3)就描述了一个全新的动力系统,这个别系指的便是原来系统的多尺度视角。
我们通过利用动力系统的方法来剖析这个别系,也可以得到一系列的系统关于尺度的定量规律。

图1. Ising 模型2维空间的实空间重整化,外场为0。
每一列代表的是不同的约化温度。
每一行代表的分别是原始系统,1次重整化,2次重整化后的系统。

那么,我们已经得到什么样的规律呢?既然他是一个动力系统,就可以用一个相图来表示,图2分别是 Ising model 1d 和 2d 为例的重整化方程相图。
1d情形下没有非平凡的不动点(fixed point),2d时则存在一个非平凡的不动点。
而参数空间的不动点意味着在尺度变革的过程中,系统的的参数不发生变革。
这实在是一个挺奇怪的征象,意味着粗粒化的过程不会实质改变系统内元素的相互浸染基本规则。
这只有两种场景才有可能发生:

系统内部元素的关联性要么是0,即没有相互浸染;要么就存在着无穷大的长程关联,以是无论怎么粗粒化我们抹去的只是无关紧要的局部信息。

以是,重整化方程的(非平凡的)不动点在临界系统中实在就对应着相变点。
图2中的K是系统的耦合系数,是一个类似于温度的参数,决定了系统的相互浸染的强度。
并且用这种方法,我们也可以直接打算出系统的临界指数。
在有了这样的直不雅观图像之后,感兴趣的同学就可以连续深挖有关于重整化群的数学细节。

资料推举:

集智百科:Ising模型的重整化 https://wiki.swarma.org/index.php/Ising模型的重整化

书本:Complexity and Criticality、《边缘奇迹:相变与临界征象》

图2. 左图是1维Ising模型的重整化示意图(a)和(b)相图;右图是2维Ising模型的重整化示意图(a)和(b)相图

实际上,还有一个随意马虎被忽略但也很关键的细节,便是在刚刚谈论过程中我们提到重整化群的假设是不同尺度的动力学f和f'基本同等。
实际上我们在Ising model的例子中,微不雅观尺度的耦合强度是一阶最近邻相互浸染,重整化一次之后会涌现更高阶的相互浸染,耦合强度K的变革不仅仅是大略数值的变革,实在更精确的表述还涉及到维度的扩展。
以是图2右边的相图,实在是更高维动力系统的一个降维。
也便是说,这里的耦合强度K实在该当是一个无限维向量,包含了多种类型的相互浸染K=(K1, K2, K3,...),个中K1是最近邻相互浸染常数,K2是次隔壁,K3是三个邻居,以此类推。
其能量函数形如:

而我们常日谈论的 Ising model 除了K1以外其他系数都为0,以是对原始系统的重整化过程更加精确的描述该当是如图3所示。
图3画出了耦合系数的三个维度,每次重整化操作耦合系数在这个空间中变革。

图3. 以3维参数空间示意图。
常日我们评论辩论Ising模型的时候都是指K2和K3两个维度为0。
图中标注了三个不动点在三维空间中的位置。
图2的一维相图实在是这个空间在K1维度上的投影。
图中灰色的面是所有耦合常数都为∞的临界面(Critical surface)

当我们利用重整化群忽略系统的细节之后,还惊喜地创造,自然界中的各种系统虽然千差万别,但只表现出了有限类别的重整化行为。
比如铁磁系统的相变和水的气液相变的相变行为居然非常同等。
基于这一创造,人们就用不同系统在重整化过程中表现出行为的不同,而对系统进行了分类,这便是普适类(universality class)的观点。
普适类的提出使得我们对临界相变系统的理解有了质的飞跃。
这就可以回到了开头E大的那句话:正由于“太小的构造我们看不清,太大的构造我们看不全”,以是我们须要利用重整化群的方法,不断把系统的主要特色突出,把不主要的特色抹除,终极我们会创造,全体天下是由一个个有限的岛屿组成,每个别系都会属于一个岛屿,再无其他。

不过,当我们想利用重整化群理论对具体系统进行剖析的时候,还是存在一些门槛的,比如我们须要设计得当的重整化策略,而有时候我们实在并不知道该当遵照什么原则来设计这一策略,这非常依赖于科学家的履历乃至是灵感。
再比如是不是可以发明一些方法,把全体打算流程自动化,让机器自动去打算普适类,从而解放科学家的生产力,让科学家们去思考更主要的问题。
于是,就涌现了一批数据驱动和重整化群理论结合的方法。

02

Renormalization Group and Machine Learning

Renormalization Group for Machine Learning

机器学习和重整化群的结合是一个非常前沿但也早就被人关注的领域,从PCA[1]开始就有干系的谈论。
并且,深度学习的深度构造和重整化在形式上又有非常多的相似之处:重整化群通过不断粗粒化的办法提取系统的关键特色,而深度学习的每一层也是提取特色的过程,并且不同层的特色也有尺度的含义,越是浅层的神经网络编码的是小尺度的特色,越是深层则编码的便是大尺度的特色。

文章[2]首次明确指出了这种联系,并且考试测验布局一个基于受限玻尔兹曼机(Restricted Boltzmann Machine,下文简称 RBM) 的神经网络架构,建立了 Ising 模型 Kadanoff 的块粗粒化和神经网络在解析上的精确映射,证明了深度学习算法可能确实是在用类似于重整化流的模式从数据中提取特色。
这对付理解深度学习的运作机制有很大的启示。

[1] Bradde, Serena, and William Bialek. "Pca meets rg." Journal of statistical physics 167 (2017): 462-475.

[2] Mehta, Pankaj, and David J. Schwab. An exact mapping between the variational renormalization group and deep learning. arXiv preprint arXiv:1410.3831 (2014).

[3]是对上篇文章直接的推进——只管中间过了6年。
这篇文章同样利用RBM构造复现了Ising模型的重整化流,乃至能在数值上找到各种临界指数。
这让重整化和机器学习的对应更为明确,也更贴近详细的运用。

[3] Koch, Ellen De Mello, Robert De Mello Koch, and Ling Cheng. Is deep learning a renormalization group flow?. IEEE Access 8 (2020): 106487-106505.

与此类探索对应的还有一类文献[4, 5],则直接研究演习好的RBM有什么样的特色,创造了所谓的RBM的重整化群流(RG flow),并且得出结论说RBM的稳定不动点便是一个 non-trivel 的临界点。
这个图像和Ising model描述的图像恰好相反(Ising的临界点是不稳定的不动点),背后的事理非常值得进一步探究。

[4] Iso S, Shiba S, Yokoo S. Scale-invariant feature extraction of neural network and renormalization group flow. Phys Rev E. 2018;97(5):1-16. doi:10.1103/PhysRevE.97.053304,

[5] Funai SS, Giataganas D. Thermodynamics and feature extraction by machine learning. Phys Rev Res. 2020;2(3):1-11. doi:10.1103/PhysRevResearch.2.033415

诸如此类的研究都非常有趣,关注的问题核心实在是如何用统计物理的视角更好地理解神经网络的表征。
不过这类探索每每局限于某一特定的神经网络框架,常日这个架构便是RBM,由于这个框架险些便是为了和统计物理对应而设计的。
这无论对付办理详细问题,还是对统计物理本身理论的进展而言,在科学层面实在都并没有特殊实质的推进。
就彷佛是物理学家们把RBM当做一个玩具一样反复把玩,虽然也有对付临界指数打算的考试测验,但受限于RBM的构造,始终没有在更繁芜的系统中进一步运用,以是和现实还是有一段间隔。

实在除了RBM这一传统的构造之外,CNN,张量网络,乃至各种天生模型都有和RG结合的潜力。
我们更须要回答的该当是,这种结合可以有什么样的实际运用,或者对付增强神经网络的能力有什么样的帮助。
这就有了下文先容的另一类的文章,考试测验利用RG理论作为神经网络设计的先验知识,真正用于办理实际问题,或者真正能够对物理理论起到本色性的帮助。

Machine Learning for Renormalization Group

这类文章最经典的便是18年发在 Nature Physics 上基于信息论做重整化群的事情[6]。
文章的动机是希望利用数据驱动的办法自动布局粗粒化策略,从而对系统实现重整化。
而实现这一目标的手段便是约束系统在粗粒化后,宏不雅观变量与原来系统的“环境变量”的互信息最大,而没有其他任何的先验知识。
这里的“环境变量”可以理解不参与当前局部的实空间块重整化的其他变量。
终极,神经网络学习出的宏不雅观变量便是有关的变量(relevant variable)。
这和RG的图像同等,并且用这种办法也能得到临界指数。

[6]Koch-Janusz M, Ringel Z. Mutual information, neural networks and the renormalization group. Nat Phys. 2018;14(6):578-582. doi:10.1038/s41567-018-0081-4

随后揭橥在PRX上的事情[7]更是从理论层面严格推导了这种基于信息论的粗粒化的解析形式,为重整化策略的构建供应了非常有代价的原则,使得物理学家们有希望摆脱只能依赖于先验知识或者灵感对系统人工设计粗粒化规则的局限 。

[7]. Lenggenhager PM, Gökmen DE, Ringel Z, Huber SD, Koch-Janusz M. Optimal renormalization group transformation from information theory. Phys Rev X. 2020;10(1):1-27. doi:10.1103/PhysRevX.10.011037

更进一步,王磊和尤亦庄老师的事情则是提出最小化全息互信息的事理[8],即每次扔掉的信息之间互信息是最小的,这样同样能保留系统有关的信息,实质上是对前文环境互信息最大化的扩展。
并且更fancy的是,他们引入了可逆神经网络(Invertible Neural Network),使得重整化过程扩展成了一个真正的群操作——而不是传统重整化的半群操作。
这就使得学习出的神经网络实质上构成了一个天生模型:不仅可以类似传统重整化的办法提取关键变量,还能实现“逆重整化”重新采样出原来尺度的构型。
这种建模的好处是,神经网络的每一层表征都可以对应到实际的物理含义。
这篇文章的后续更多的是在磋商将这种框架运用于实际的任务时[9],比传统的方法会更具有哪些可阐明性。
目前还并没有在理论层面进一步展开剖析。

[8] Hu HY, Li SH, Wang L, You YZ. Machine learning holographic mapping by neural network renormalization group. Phys Rev Res. 2020;2(2):23369. doi:10.1103/PhysRevResearch.2.023369

[9]Sheshmani A, You Y zhuang, Fu W, Azizi A. Categorical representation learning and RG flow operators for algorithmic classifiers. Mach Learn Sci Technol. 2023;4:20.

其余,尤亦庄老师团队还有一个有趣的事情[10],他们设计了一个自演习的框架,只要给定系统的对称性而不用给出详细的仿照数据,就可以自动创造系统的普适类。
基本的思路是构建一个“细粒度”的模型和一个“粗粒度”的模型,让粗粒度模型尽可能天生和细粒度模型相似的构型,这一过程仿照了重整化过程系统的变革,并且再利用第三个模型作为重整化方程学习器,学习上述两个别系参数的动力学关系。
三个模型一起运转起来后,就可以建模出对应对称性系统的重整化群方程,以及对应的临界指数。

[10]Hou W, You YZ. Machine Learning Renormalization Group for Statistical Physics. arXiv Prepr. Published online 2023:1-13. http://arxiv.org/abs/2306.11054

03

非平衡态系统的多尺度建模

不过,由于重整化群理论本身紧张还是在平衡系统中有很多出彩的剖析,到这里为止我们谈论的也紧张都是关于平衡态模型的重整化。
这一方面是由于,对付非平衡态系统,问题的繁芜程度上升了不止一个水平,实在到目前为止依然没有什么好的剖析手腕能够得出和平衡态类似的统一理论。
而繁芜系统更多的研究工具实在是动力学系统,这类系统每每都是处于非平衡态。
其余,非平衡态的剖析除了缺少完善的根本理论之外,也没有像 Ising model 这样研究的非常透彻的经典系统作为toy model供科学家们把玩,以是重整化群干系的事情并不像平衡态系统那样丰富,更别提数据驱动干系的重整化建模事情了。

然而,多尺度的动力学建模在另一些领域中却百花齐放。
由于人们早就意识到了无论是对付动力系统的预测还是调控,不同尺度的信息确实是会发挥不同的浸染:小尺度的高频信息对付短期预测有帮助,而大尺度的低频信息则在长期建模中起到关键浸染。
从Reduced-Order Model (ROM),到 Equation-free Model (EFM),再到现在前沿的因果呈现理论(Causal Emergence Theory),这些方法都是在用各自的原则考试测验对一个动力系统进行降维或者简化。

而利用数据驱动的方法对动力系统进行降维的事情,近年来在学术界也有百花齐放之感。
陈晓松老师团队开拓的本征微不雅观态方法从数据出发,利用奇异值分解方法对物理系统的数据进行模式分解,并在这些模式中创造了明确的物理含义[11],这套方法不仅可以求解经典平衡系统的临界相变问题,还在许多繁芜系统(包括集群系统,湍流,景象,金融,量子等等)中都取得了打破性的进展。

[11] Hu GK, Liu T, Liu MX, Chen W, Chen XS. Condensation of eigen microstate in statistical ensemble and phase transition. Sci China Physics, Mech Astron. 2019;62(9). doi:10.1007/s11433-018-9353-x

而[12,13]等一系列的事情结合了数据驱动的方法和Koopman算子(Koopman算子是一个对非线性动力系统线性化的算子,但很难打算)实现对动力学的模式分解(Dynamic Mode Decomposition)或者隐空间的学习。
还有启示于EFM,直策应用机器学习的降维方法(如VAE等),将系统的变量降维后直接在隐空间学习动力学——这被称之为有效动力学(effective dynamics)——从而实现对系统更好的预测[14]。

[12] Khazaei H. A data–driven approximation of the koopman operator: extending dynamic mode decomposition. AIMS. 2016;X(0):1-33.

[13] Lusch B, Kutz JN, Brunton SL. Deep learning for universal linear embeddings of nonlinear dynamics. Nat Commun. 2018;9(1). doi:10.1038/s41467-018-07210-0

[14] Vlachas PR, Arampatzis G, Uhler C, Koumoutsakos P. Multiscale simulations of complex systems by learning their effective dynamics. Nat Mach Intell. 2022;4(4):359-366. doi:10.1038/s42256-022-00464-w

其余,强化学习领域中基于模型学习的 world models 干系的观点,像是从自己的天下不雅观中开辟出了一个新的但是非常类似的想法[15]:考试测验将和主体互动的环境用一个低维的模型来表示,从而提高预测和掌握任务的效率,也已经成为这个领域非常前沿的话题。

图4. 我们用于预测的信息不是系统的全部,而只须要一个简化的表征

[15] Ha D. World Models. Published online 2018.

总之,由于我们可以获取的数据越来越多,而要处理的系统也越来越繁芜,人们也已经创造引入多尺度的视角对动力学建模,无论是提高运算效率,还是获取对付终极任务的关键低维变量都十分主要,这类方法的思想也在逐渐成为办理实际繁芜问题的主流。
而这些领域的起源乍一看和重整化群毫无关联,却殊途同归,用另一种办法来到了相似的问题上。
乃至由于没有很强的理论约束,使得这些方法有时候在利用时看上去十分“大略粗暴”,但却神奇地在各个领域渗透,成为这些领域办理问题的主要思路。
这些干系的话题集智俱乐部因果呈现系列读书会,AI+Science读书会中上有大量干系的资料可以供大家学习和参考,即将开始的因果呈现读书第五季会进一步向大家展示更多的前沿事情。

04

总结

本文从动力学的视角出发,只管即便用图像的形式先容了重整化群方法的基本思路,并且在第二部分先容了机器学习和重整化群结合的前沿事情。
这类事情充满了奇思妙想,并且也确实为重整化群理论更广泛和更智能的运用供应了非常好的办理方案。
在第三部分,我用非常粗糙的视角罗列了动力学多尺度建模的事情,展示了这一领域的多元和热闹,而这一类问题实质上都是对非平衡动力学系统问题多尺度办理方案的探索,并且确实对办理实际问题供应了非常主要的启示。
其余,还有一个本文没有提到,但对付繁芜系统多尺度建模来说也非常主要的领域:即繁芜网络的重整化。
这类研究相对来说更为独立,关注如何用一个更小的网络来表示一个大的繁芜网络,以办理大网络上的繁芜打算问题,同样也是一个极具潜力的领域。

不过无论是动力学多尺度建模还是繁芜网络的重整化,只管吸引了科学家的容身,目前还并没有涌现像平衡态重整化理论那样的统一理论,帮助我们真正认识繁芜系统内在的统一性。
但我们依然可以相信,在不久的将来,我们也能创造这些繁芜系统的岛屿所处何方。

作者简介

陶快意,北京师范大学系统科学博士在读。
研究方向为繁芜系统建模,关注多尺度动力学、规模法则、重整化、深度学习等。

本文经授权转载自微信"大众号“集智俱乐部”。

特 别 提 示

1. 进入『返朴』微信公众年夜众号底部菜单“佳构专栏“,可查阅不同主题系列科普文章。

2. 『返朴』供应按月检索文章功能。
关注公众年夜众号,回答四位数组成的年份+月份,如“1903”,可获取2019年3月的文章索引,以此类推。

标签:

相关文章

五角星红旗,承载着民族精神与自豪的象征

五角星红旗,是我们伟大祖国的象征,是中华民族精神的集中体现。它以其鲜明的色彩、独特的图案,承载着中华民族的苦难与辉煌,凝聚着全国人...

网站推广 2024-12-05 阅读0 评论0