为什么学线代时不知道:矩阵与图竟然存在等价关系

发布时间:2024-08-22 14:45:25    浏览:

  在学习数学时,我们常因所学知识的难度和抽象而受挫;但有些时候,只需换个角度,我们就能为问题的解答找到一个简单又直观的解法。举个例子,小时候在学习和的平方 (a+b)⊃2; 公式时,我们可能并不理解为什么它等于 a⊃2;+2ab+b⊃2;,只知道书上这么写,老师让这么记;直到某天我们看见了这张动图:

  如下图所示,左侧的 3×3 矩阵其实可以等价地表示成右侧的包含三个节点的有向图,并且这种表示方式对矩阵和图论都大有帮助。

  这个例子来自致力于让每个人都能看懂数学(make math accessible for everyone)的数学家 Tivadar Danka。这位自称「混乱善良(Chaotic good)」的数学家通过一系列推文和博客文章生动地介绍了矩阵和图的这种等价性及其用途。截至目前,这些推文已被阅读了超过 200 万次,收获了超过 3200 次转发和 9100 次收藏。

  如上图的例子所示,如果我们将其中每一行都视为一个节点,则每一个元素都可表示成一条有向且加权的边。当然,0 元素可以忽略不计。如果该元素位于第 i 行第 j 列,则对应于从节点 i 到节点 j 边。

  如图所示,对于这个 3×3 的矩阵,第 1 行对应于最顶部的节点(我们这里称之为 1 号节点),其包含 3 个元素但其中一个为 0,因此该节点延伸出了两条边。其中黄色边表示的是 (1,1) 处的元素 0.5,因此它是指向自身且权重为 0.5 的有向边。同理,蓝色边是指向 2 号节点且权重为 1 的边。

  这样一来,我们便能分析出,矩阵的第 i 列便对应于指向 i 号节点的所有边。

  非负矩阵与有向图之间的这种等价性既能帮助我们更好地理解矩阵及其运算,也能帮助简化一些计算过程;反过来,这也能帮助我们从新的视角理解图。

  如上图所示,对于 n×n 的方形矩阵 A 的 k 次幂,其中每个元素的求和过程都会纳入所有可能的 k 步游走。

  对于运算结果的第一个元素,我们可以得到结果 = 0.5×0.5+1×0.2+0×1.8 = 0.45。最终,我们可以得到完整的结果为:

  但如果借助上述的图游走方法,则可以通过游走路径来得到结果。同样,对于结果矩阵的第一个元素,就需要对符合 a_{1,l}→a_{l,1} 的所有 2 步游走路径求和。

  但是,如果这个有向图表示的是马尔科夫链的状态,其转移概率矩阵的平方本质上就表示该链 2 步之后达到某个状态的概率。

  不仅如此,用图表示矩阵还能让我们深入了解非负矩阵的结构。为此,Danka 表示我们需要先了解「强连通分量(strongly connected components)」这一概念。

  什么是强连通分量?对于一个有向图,如果能从该图中的每个节点到达其它每个节点时,我们就说该图是强连通的。如下图所示。金年会娱乐平台登录

  而强连通分量就是指有向图中能够实现强连通的部分 / 子图。如下图所示,左右各有一个强连通分量,而中间的白色边不属于任何强连通分量。

  对应于强连通图的矩阵是不可约矩阵,而非负矩阵中的所有其它矩阵都是可约矩阵。

  Danka 通过一个例子给出了解释。(为了说明简单,例子中的所有权重均为单元权重,但实践中这些权重值可以是任意非负值。)

  可以看到,在主对角线上的两个子矩阵分别表示两个强连通分量,而右上方的子矩阵表示从第 1 个强连通分量指向第 2 个强连通分量的边,左下方的则表示从第 2 个强连通分量指向第 1 个强连通分量的边(因为没有这样的边,所以全为 0)。

  这种书写分块矩阵的形式被称为弗罗贝尼乌斯标准形(Frobenius normal form)。

  那么,我们很自然就会问:我们能将任意非负矩阵都转换成弗罗贝尼乌斯标准形矩阵吗?

  通过使用有向图来表示非负矩阵,我们可以轻松地看出答案是肯定的,因为任何表示非负矩阵的有向图都可以表示成互相连接的强连通分量。这个过程非常简单:

  首先,将各个强连通分量融合成单个对象,如下图所示。这时候我们可以将每个强连通分量视为一个黑箱 —— 我们不关心其内部结构,只看其外部连接。

  然后,在这个新图中,我们需要找到只有出边而没有入边的分量。这个具体示例中只有一个,我们将其标记为 0 号:

  接下来一步较为麻烦:对每个分量进行编号,使得每个分量的编号都是离 0 号最远的距离。如下示例能更清晰地说明这一点:

  可以看到,0 号到中间的分量有两条路径,那么选择离 0 最远的那条路径对其进行编号。最终得到:

  如果该图本身来自一个矩阵,则这样的重新标注过程就能得到一个弗罗贝尼乌斯标准形矩阵!

  实际上,这个重新标注的过程就是使用一个置换矩阵 P 对原矩阵执行变换,而该置换矩阵由多个转置矩阵的积构成。

  当然,用图表示矩阵的用途远不止于此,比如我们还可以使用矩阵的特征值来定义图的特征值。事实上,这一思路催生了谱图理论(spectral graph theory)这一研究领域。

  很显然,矩阵和图之间的这种等价关系既有助于图论研究,也能为线性代数的计算和分析提供一个新视角。其也有一些重要的实际用途,比如 DNA 数据就常被表示成矩阵或图的形式。

  另外,我们都知道矩阵运算对于当前的大模型 AI 的重要性,而以知识图谱为代表的图也正通过检索增强式搜索等技术成为当前 AI 的重要助力。将这两者关联起来,或许能在 AI 可解释性以及图人工智能方面带来一些新的突破。至少,这能帮助我们更好地学习线性代数。

  实际上,上述内容正是提炼自 Tivadar Danka 正在编写的《Mathematics of Machine Learning》一书。这本书将由浅入深地介绍与机器学习相关的数学知识,让读者真正知其然也知其所以然,并且 Danka 自信地宣称这会是「学习机器学习的最佳资源」。目前他已经在网上发布了两章预览,感兴趣的读者可访问:

  本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问。