网站制作怎样做天元建设集团有限公司官网

张小明 2026/1/10 7:20:57
网站制作怎样做,天元建设集团有限公司官网,网站建设外包兼职平台,三个字公司名字矩阵#xff0c;线性代数里非常常见的元素。 在大多数人的印象里#xff0c;它似乎只是一张枯燥的、由数字排列而成的方方正正的表格。如果不幸通过应试教育去认识它#xff0c;它更像是一个用来进行繁琐加减乘除的“计算容器”。“哦#xff0c;他作用于一堆数字#xff…矩阵线性代数里非常常见的元素。在大多数人的印象里它似乎只是一张枯燥的、由数字排列而成的方方正正的表格。如果不幸通过应试教育去认识它它更像是一个用来进行繁琐加减乘除的“计算容器”。“哦他作用于一堆数字然后通过繁杂的公式得出另一堆数字”…但在我看来矩阵不应当仅仅是枯燥的数字表格。我们需要理解矩阵的“几何直觉”。明白他是列视角下的“空间变换”和行视角下的“信息处理”的语言我们才能更好应用他。无论是在人工智能领域如鱼得水地应用矩阵还是面对”考研“”期末“不想那么痛苦的应试。去建立直觉永远是一个好方向。矩阵乘法为了“作用”而生矩阵不能凭空出现孤零零地呆在那。如果我们还是用“应试”的角度去看矩阵矩阵确实可以孤零零的。 因为它就是一堆毫无意义的数字。然而矩阵从诞生的那一刻起就有个使命“作用”于他人的。这个“作用”在数学上正是矩阵乘法。我们可以这样理解矩阵一旦出现就是为了去“乘”某个对象的。它是一个动词是一个机器而不是一个名词。那么矩阵乘法到底蕴含着什么直觉呢忘掉那背的滚瓜烂熟的“行乘列求和”公式。从现在开始我会展示矩阵乘法但请不要套用公式去验证它。我们要重新建立对它的直觉。矩阵与向量的初次相遇让我们从最基础的场景开始一个矩阵AAA想要“作用”于一个向量xxx。我们默认“作用”是将矩阵放到向量的“左边”位置不能错。OutputMatrix⋅Input \text{Output} \text{Matrix} \cdot \text{Input}OutputMatrix⋅Input我们设定变换机器AAA一个2×22 \times 22×2的矩阵。输入对象xxx一个2×12 \times 12×1的列向量。举个例子[1320]⋅[xy] ? \begin{bmatrix} 1 3 \\ 2 0 \end{bmatrix} \cdot \begin{bmatrix} x \\ y \end{bmatrix} \ ?[12​30​]⋅[xy​]?A是个机器我们不用想它的物理含义 目前只知道它用于变换别人。在按下“计算”按钮之前我们先好好看看这个输入对象。我们可以理解为熟知的二维坐标xy不过高中知识告诉我们我们也可以理解为以原点为起点终点为xy 箭头方向从原点到终点的向量。图《矩阵力量》 https://github.com/Visualize-ML/Book4_Power-of-Matrix那么二维向量[xy]\begin{bmatrix} x \\ y \end{bmatrix}[xy​]其实是两个基向量的组合i^\hat{i}i^横轴单位向量[10]\begin{bmatrix} 1 \\ 0 \end{bmatrix}[10​]j^\hat{j}j^​纵轴单位向量[01]\begin{bmatrix} 0 \\ 1 \end{bmatrix}[01​]显然他们的长度|i|、|j|都是1。向量[xy]\begin{bmatrix} x \\ y \end{bmatrix}[xy​]的本质含义是“沿着i^\hat{i}i^方向走x倍的∣i∣x倍的|i|x倍的∣i∣步再沿着j^\hat{j}j^​方向走y倍的∣j∣y倍的|j|y倍的∣j∣步”。或者直接说x倍的i于y倍的j做向量加法。写成数学式子就是Inputx⋅i^y⋅j^ \text{Input} x \cdot \hat{i} y \cdot \hat{j}Inputx⋅i^y⋅j^​如图向量v可以拆分成i^,j^\hat{i} , \hat{j}i^,j^​的组合本例中为1⋅i^2⋅j^1\cdot \hat{i} 2 \cdot \hat{j}1⋅i^2⋅j^​列视角现在矩阵AAA开始发挥作用了。这个机器到底做了什么列视角告诉我们要盯着矩阵的“列”看矩阵的第一列[12]\begin{bmatrix} 1 \\ 2 \end{bmatrix}[12​]这是i^\hat{i}i^变换后的新位置Newi^\hat{i}i^。矩阵的第二列[30]\begin{bmatrix} 3 \\ 0 \end{bmatrix}[30​]这是j^\hat{j}j^​变换后的新位置Newj^\hat{j}j^​。随着基向量i和j的改变整个坐标轴我们都可以理解为变了。既然原来的向量是 “xxx份的i^\hat{i}i^加上yyy份的j^\hat{j}j^​”那么变换后的向量必然就是“xxx份的新i^\hat{i}i^加上yyy份的新j^\hat{j}j^​”带来的结果是空间里千千万万个向量都变成了新向量。同时网格线始终保持平行且等距原点保持不动。这就叫”线性变换“ 。我们不需要关心空间里千千万万个向量各自去了哪里我们只需要追踪这两个基向量整个空间就被确定了。原来的坐标轴或许已经被拉伸、旋转不再是标准的十字架但我们的路径法则依然有效Outputx⋅(New i^)y⋅(New j^) \text{Output} x \cdot (\text{New } \hat{i}) y \cdot (\text{New } \hat{j})Outputx⋅(Newi^)y⋅(Newj^​)把它代入我们具体的矩阵AAA[1320][xy]x⋅[12]⏟Col 1y⋅[30]⏟Col 2[1x3y2x0y]\begin{bmatrix}1 3 \\2 0\end{bmatrix}\begin{bmatrix}x \\y\end{bmatrix}x \cdot \underbrace{\begin{bmatrix} 1 \\ 2\end{bmatrix}}_{\text{Col 1}} y \cdot \underbrace{\begin{bmatrix} 3 \\ 0 \end{bmatrix}}_{\text{Col 2}} \begin{bmatrix}1x 3y \\2x 0y\end{bmatrix}[12​30​][xy​]x⋅Col 1[12​]​​y⋅Col 2[30​]​​[1x3y2x0y​]如图我们的原始向量v是1⋅i^2⋅j^1\cdot \hat{i} 2 \cdot \hat{j}1⋅i^2⋅j^​现在只不过变成了1⋅(New i^)2⋅(New j^)1\cdot (\text{New } \hat{i}) 2 \cdot (\text{New } \hat{j})1⋅(Newi^)2⋅(Newj^​)。当然实际上可以理解为整个空间坐标轴都因为新的基向量而改变这就是列视角矩阵列向量看做New i^,New j^\text{New } \hat{i},\text{New } \hat{j}Newi^,Newj^​矩阵与向量的乘法本质上是在说基向量变换后的空间向量[xy]\begin{bmatrix}x \\y\end{bmatrix}[xy​]去哪了去到了outputOutputx⋅(New i^)y⋅(New j^)\text{Output} x \cdot (\text{New } \hat{i}) y \cdot (\text{New } \hat{j})Outputx⋅(Newi^)y⋅(Newj^​)也可以看作结果是矩阵列向量的线性组合。输入向量的坐标(x,y)(x, y)(x,y)其实就是分配给这些列向量的权重。维度的逻辑ok 这样一来矩阵的形状几行几列就不再是死记硬背的规则而是逻辑的必然。我们能用一个2×32 \times 32×32行3列的矩阵去变换一个2×12 \times 12×1的向量[xy]\begin{bmatrix}x \\y\end{bmatrix}[xy​]吗不能这个向量是二维的表明只有俩个基向量组成他们。xxx和yyy。那么New i^,New j^\text{New } \hat{i},\text{New } \hat{j}Newi^,Newj^​也一定是俩个则矩阵一定是俩列用线性加权角度思考2×32 \times 32×3的矩阵有3列3个基向量。我们有 3 个基向量等待被缩放却只来了 2 个权重指令。第 3 列基向量就问了“谁来乘我”故而矩阵的列数必须等于输入向量的维度数行数。批量处理假设我们不是处理一个向量而是同时处理两个向量v1⃗[x1y1]\vec{v_1} \begin{bmatrix}x_1 \\y_1\end{bmatrix}v1​​[x1​y1​​]和v2⃗[x2y2]\vec{v_2} \begin{bmatrix}x_2 \\y_2\end{bmatrix}v2​​[x2​y2​​]。我们可以把它们拼起来变成一个2×22 \times 22×2的矩阵B[v1⃗,v2⃗]B [\vec{v_1}, \vec{v_2}]B[v1​​,v2​​]。A⋅[v1⃗v2⃗][Av1⃗Av2⃗] A \cdot \begin{bmatrix} \vec{v_1} \vec{v_2} \end{bmatrix} \begin{bmatrix} A\vec{v_1} A\vec{v_2} \end{bmatrix}A⋅[v1​​​v2​​​][Av1​​​Av2​​​]这只是批量处理矩阵AAA并没有发生什么神奇的变化它只是勤勤恳恳地、独立地对BBB中的每一列分别进行了变换然后把结果并排摆放。输入2个向量。输出2个变换后的向量。维度的含义可能又有人问用刚才这个矩阵A作用于横着写的向量[x,y][x, y][x,y]行不行有的人很容易把这个向量也理解为二维的。可是按照上面那个“批量处理”的法则实际上这应该是一维的数轴上的俩个独立的点拼接的向量所以不可以。行数一共多少行代表维数列数一行有多少个说明了向量的个数。维度的跃迁现在来到最精彩的部分。ok 那我们这样如果矩阵是3×23 \times 23×23行2列的它可以作用于二维向量[xy]\begin{bmatrix}x \\y\end{bmatrix}[xy​]吗检查规则输入向量有 2 个权重x,yx, yx,y。矩阵有 2 列。没问题但是这一次发生了质的变化。让我们看看这个矩阵长什么样A[a1b1a2b2a3b3] A \begin{bmatrix} a_1 b_1 \\ a_2 b_2 \\ a_3 b_3 \end{bmatrix}A​a1​a2​a3​​b1​b2​b3​​​第一列Newi^\hat{i}i^[a1a2a3]\begin{bmatrix} a_1 \\ a_2 \\ a_3 \end{bmatrix}​a1​a2​a3​​​。这是一个三维空间中的向量第二列Newj^\hat{j}j^​[b1b2b3]\begin{bmatrix} b_1 \\ b_2 \\ b_3 \end{bmatrix}​b1​b2​b3​​​。这也是一个三维空间中的向量运算过程Outputx⋅[3D Vector]⏟New i^y⋅[3D Vector]⏟New j^[New 3D Vector] \text{Output} x \cdot \underbrace{\begin{bmatrix} \text{3D Vector} \end{bmatrix}}_{\text{New } \hat{i}} y \cdot \underbrace{\begin{bmatrix} \text{3D Vector} \end{bmatrix}}_{\text{New } \hat{j}} \begin{bmatrix} \text{New 3D Vector} \end{bmatrix}Outputx⋅Newi^[3D Vector​]​​y⋅Newj^​[3D Vector​]​​[New 3D Vector​]如图从矩阵形状来说确实规定了仅有的俩个基向量图中蓝色、红色向量的新去处即New i^,New j^\text{New } \hat{i},\text{New } \hat{j}Newi^,Newj^​但这个新地方不在原来[xy]\begin{bmatrix}x \\y\end{bmatrix}[xy​]如图中绿色向量所生活的二维平面的世界了 而是去了三维世界矩阵的列数Columns输入空间的维度因为列数就是原来空间的基向量个数。矩阵的行数Rows输出空间的维度把你送去几维世界。读者你现在可以自己想象一个1×21 \times 21×2的向量当作矩阵变换的机器作用于2×22 \times 22×2的拼接向量当然我们也称其为矩阵会发生什么维度的“降维”现在让我们把思维逆转过来。如果我们的矩阵A这个变换的机器变得非常薄只有一行会发生什么设想我们的机器AAA是一个1×21 \times 21×2的矩阵A[12] A \begin{bmatrix} 1 2 \end{bmatrix}A[1​2​]与我们之前建立的“列视角”依然坚不可摧逻辑完全一致看第一列[1][1][1]这意味着原来的横向基向量i^\hat{i}i^在这个一维新世界里变成了数字1。看第二列[2][2][2]这意味着原来的纵向基向量j^\hat{j}j^​在这个一维新世界里变成了数字2。变换过程输入向量[xy]\begin{bmatrix} x \\ y \end{bmatrix}[xy​]本质上是xxx个i^\hat{i}i^加上yyy个j^\hat{j}j^​。既然i^\hat{i}i^变成了111j^\hat{j}j^​变成了222那么结果自然就是Outputx⋅(1)y⋅(2)x2y \text{Output} x \cdot (1) y \cdot (2) x 2yOutputx⋅(1)y⋅(2)x2y我们的输入对象BBB是一个2×22 \times 22×2的矩阵代表两个二维向量B[3014] B \begin{bmatrix} 3 0 \\ 1 4 \end{bmatrix}B[31​04​]让我们看看AAA是如何“作用”于BBB的[12]⏟1D Machine⋅[3014]⏟2D Data[(1⋅32⋅1)(1⋅02⋅4)][58] \underbrace{\begin{bmatrix} 1 2 \end{bmatrix}}_{\text{1D Machine}} \cdot \underbrace{\begin{bmatrix} 3 0 \\ 1 4 \end{bmatrix}}_{\text{2D Data}} \begin{bmatrix} (1\cdot3 2\cdot1) (1\cdot0 2\cdot4) \end{bmatrix} \begin{bmatrix} 5 8 \end{bmatrix}1D Machine[1​2​]​​⋅2D Data[31​04​]​​[(1⋅32⋅1)​(1⋅02⋅4)​][5​8​]发生了什么输入两个生活在二维平面上的向量[31]\begin{bmatrix} 3 \\ 1 \end{bmatrix}[31​]和[04]\begin{bmatrix} 0 \\ 4 \end{bmatrix}[04​]。输出两个躺在数轴上的数字555和888。这是三体里的“二向箔”攻击啊1×21 \times 21×2的矩阵代表了一个投影动作。它把二维空间中的所有物体强行压缩投影到了一根数轴上。虽然输入有xxx和yyy两个维度的信息但经过这个机器的降维最后只剩下一个维度的标量。行视角在纯几何变换移动向量的世界里列视角确实够了。但一旦涉及到数据处理、方程求解、AI特征提取行视角就是不可或缺的上帝视角。假设我们要计算CA⋅BC A \cdot BCA⋅B。列视角会如何看待这个过程如”批量处理“那一小节BBB实际上是看作一列一列的向量 (b1⃗,b2⃗,...\vec{b_1}, \vec{b_2}, ...b1​​,b2​​,...)拼起来等待A的作用。AAA是什么一个空间的变换机器。它勤勤恳恳地分别把b1⃗\vec{b_1}b1​​扭曲成了c1⃗\vec{c_1}c1​​把b2⃗\vec{b_2}b2​​扭曲成了c2⃗\vec{c_2}c2​​…最后得到C[Ab1⃗ ∣ Ab2⃗ ∣ ...]C [A\vec{b_1} \ | \ A\vec{b_2} \ | \ ... ]C[Ab1​​∣Ab2​​∣...]行视角 会如何看待这个过程BBB是仍然是等待作用的原材料每一行是同一种原料AAA仍然是作用在B上。但我们要把AAA切成一行一行的向量 (r1⃗,r2⃗,...\vec{r_1}, \vec{r_2}, ...r1​​,r2​​,...)。CCC的每一行都是AAA的那一行指令对BBB的所有行原料进行的加权混合公式C[Row1(A)⋅BRow2(A)⋅B...] C \begin{bmatrix} \text{Row}_1(A) \cdot B \\ \text{Row}_2(A) \cdot B \\ ... \end{bmatrix}C​Row1​(A)⋅BRow2​(A)⋅B...​​核心机制点积 (The Dot Product)敲黑板在深入例子之前我们需要看清“加权混合”的数学本质。当矩阵的一行配方作用于一个列向量数据时它们在进行一种最基础的运算——点积。配方⋅数据r⃗⋅x⃗r1x1r2x2⋯rnxn \text{配方} \cdot \text{数据} \vec{r} \cdot \vec{x} r_1 x_1 r_2 x_2 \dots r_n x_n配方⋅数据r⋅xr1​x1​r2​x2​⋯rn​xn​点积的物理意义是双重的代数上它是“加权求和”。配方里的数字就是权重决定了我们要取多少份的对应原料。几何上它是“投影”与“相似度”。衡量了数据x⃗\vec{x}x在配方r⃗\vec{r}r方向上的分量有多少。记住这两点非常关键。案例重演让我们用行视角重新审视那个维度跃迁 (3×23 \times 23×2)的例子。[100111]⋅[xy][xyxy]\begin{bmatrix}1 0 \\0 1 \\1 1\end{bmatrix}\cdot\begin{bmatrix}x \\y\end{bmatrix}\begin{bmatrix}x \\y \\xy\end{bmatrix}​101​011​​⋅[xy​]​xyxy​​我们之前讲的列视角我们在 3D 空间里组合两个基向量现在来看看行视角我们将矩阵看作 3 行独立的“指令”第一行[1,0][1, 0][1,0]“只保留第一个分量忽略第二个。”点积运算1⋅x0⋅yx1 \cdot x 0 \cdot y x1⋅x0⋅yx结果xxx。 提取了 x 轴的信息。第二行[0,1][0, 1][0,1]“忽略第一个分量只保留第二个。”点积运算0⋅x1⋅yy0 \cdot x 1 \cdot y y0⋅x1⋅yy。结果yyy。 提取了 y 轴的信息。第三行[1,1][1, 1][1,1]“把两个分量等比例混合。”点积运算1⋅x1⋅yxy1 \cdot x 1 \cdot y x y1⋅x1⋅yxy。结果xyx yxy。创造了一个新的特征——“总和这三行指令提取的数据结果纵向拼接形成最终的矩阵计算结果。再回到那个1×21 \times 21×2的例子[1,2][1, 2][1,2][xy]\begin{bmatrix} x \\ y \end{bmatrix}[xy​]这俩个矩阵作用看看列视角把基向量变成了1和2。想象空间变化的话确实有点抽象行视角点积这是一个加权配方[1,2][1, 2][1,2]。它计算1⋅x2⋅y1 \cdot x 2 \cdot y1⋅x2⋅y。它把二维数据压缩成了一个读数。AI场景举例点积即“相似度”行视角的威力在人工智能领域特别是计算机视觉展现得淋漓尽致。在神经网络中矩阵WWW权重矩阵通常左乘输入向量xxxyWxy WxyWx本质上就是一堆点积运算的集合。场景手写数字识别输入向量xxx我们将一张28×2828 \times 2828×28像素的图片拉直变成一个784×1784 \times 1784×1的长向量。这就是原材料。假如它是数字”7“权重矩阵WWW假设这是一个10×78410 \times 78410×784的矩阵。它有 10 行分别代表数字 0 到 9 的“过滤器”。如果用列视角嗯… 一个784维的向量其784个基向量每个都被投影到了10维空间里比如W的第645列就是645维方向上的基向量投影到10维空间时的坐标…然后x经过这些新基向量再次组合成新向量…我们只可以粗略理解为输入向量x经过”降维“的空间变换。除此之外再想不到什么特别有效的信息行视角视角则更好理解整个过程我们看WWW的第 “7” 行对应检测数字7的那一行在这行向量里对应图片“顶部横线”和“右侧斜线”位置的数值会非常大正数比如说第600维度到700维度代表了这个含义。其他位置可能是 0 或负数。代表我们想要提取的就是600维度到700维度这些特征的数。当我们用WWW去乘输入图片xxx时WWW的第七行明确说了它要提取的信息就是600维度到700维度 比如这些维度的”配方“是[12,34,12,…]以单独的行视角来看本质上是在做点积Dot Product也就是相似度匹配[00…123412…00]⏟W 的第7行 (模版): 关注 600-700 维的特征⋅[00⋮200255200⋮00]⏟输入图片 x (数据): 在 600-700 维有笔画巨大的正数 \underbrace{\begin{bmatrix} 0 0 \dots 12 34 12 \dots 0 0 \end{bmatrix}}_{\text{W 的第7行 (模版): 关注 600-700 维的特征}} \cdot \underbrace{\begin{bmatrix} 0 \\ 0\\ \vdots \\ 200 \\ 255 \\ 200 \\ \vdots \\ 0 \\0 \end{bmatrix}}_{\text{输入图片 x (数据): 在 600-700 维有笔画}} \text{巨大的正数}W的第7行(模版):关注600-700维的特征[0​0​…​12​34​12​…​0​0​]​​⋅输入图片x (数据):在600-700维有笔画​00⋮200255200⋮00​​​​巨大的正数点积结果算出来一个巨大的正数。 我们的输入图片xxx这些维度真的有数字且不小也可以说向量的方向很一致。模版是 7输入也是 7匹配成功看WWW的第 “0” 行它去乘输入图片 “7”600维到700维没多几个数即像素位置对不上。 算出来很小甚至接近 0。 向量方向几乎垂直无关。确实证明它不是”0“如图 我们看左中右三种矩阵左边这就是我们的输入向量x⃗\vec{x}x。虽然在计算时它是 高维的列向量但在行视角下我们把它这个列向量重新排列下看做一张图片。图中所有矩阵同理。中间“行视角”的核心这个红蓝相间的图。就是矩阵的一行数字r7⃗\vec{r_7}r7​​和r0⃗\vec{r_0}r0​​。红色区域表示正权重“希望这些维度有数字提取他们”。蓝色区域表示负权重“不希望这里有数字”。右边第一行匹配 7输入的黑色笔画完美落在了模版的红色区域。正正得正。结果是一片亮绿色的激活区。 把所有绿色像素加起来总分Sum很高例如 10.5。系统便判定我们的输入是 7第二行匹配 0输入的黑色笔画 “7”大部分落在了模版Row 0的白色或蓝色区域那是 0 的空心部分。只有很少的地方重合。总分很低例如 2.5。系统判定这不是 0。所以在 AI 里行视角的”信息提取“非常有用.行视角与列视角的统一说实话用两种视角解释同一种东西确实有一种强行解释的感觉。 而不是从矩阵诞生最初的意义自下而上地梳理。实际上创造矩阵的人也没想到矩阵在如今能有这么多的应用而对不同的应用几何变换 vs 数据挖掘我们选择不同的角度不同的思维模型来应对去给计算结果一个恰当的解释是非常便于我们更好使用矩阵的。在刚才我们分别介绍了列视角和行视角的应用场景而接下来我们来研究一个能同时用这俩个视角思考的场景。并最后做出视角的”统一“。我们知道无论列视角还是行视角设矩阵为AAA输入向量为xxx当然也可以把它看作矩阵AxAxAx都会产出一个结果。上面的例子我都是给出AAA和xxx分析输出。如果我们已知的只有AAA以及他们的输出”0“ 求xxx呢即Ax0⃗ A x \vec{0}Ax0让我们用一个简单的2×22 \times 22×2矩阵来看看这一切是如何发生的。A[1−12−2] A \begin{bmatrix} 1 -1 \\ 2 -2 \end{bmatrix}A[12​−1−2​]我们要找Ax0Ax0Ax0的解。这里我就告诉大家一个答案当x[x1x2][11]x \begin{bmatrix} x_1 \\ x_2 \end{bmatrix}\begin{bmatrix} 1 \\ 1 \end{bmatrix}x[x1​x2​​][11​]时结果为 0。 也就是[11]\begin{bmatrix} 1 \\ 1 \end{bmatrix}[11​]就为一个解。【列视角看待整个过程】A这个空间变换把基向量变成新基向量。Ax0⃗A x \vec{0}Ax0代表最后向量按照x的组合加起来恰巧为0。比如两个向量方向相反或者三个向量在一个平面上互相抵消。x1⋅(Col1)x2⋅(Col2)⋯0⃗ x_1 \cdot (\text{Col}_1) x_2 \cdot (\text{Col}_2) \dots \vec{0}x1​⋅(Col1​)x2​⋅(Col2​)⋯0在本例中x1⋅[12]x2⋅[−1−2]0⃗ x_1 \cdot \begin{bmatrix} 1 \\ 2 \end{bmatrix} x_2 \cdot \begin{bmatrix} -1 \\ -2 \end{bmatrix} \vec{0}x1​⋅[12​]x2​⋅[−1−2​]0新基向量[1,2]与[-1,-2]和x的搭配非常独特俩个新向量刚好相反。这里我没说怎么求解x 而是让大家思考下 为什么一定有非零解x其实.用列视角我们可以观察到俩个新的基向量[12]\begin{bmatrix} 1 \\ 2 \end{bmatrix}[12​]和[−1−2]\begin{bmatrix} -1 \\ -2 \end{bmatrix}[−1−2​]是共线的 他们张成了一维空间一条线。原来的二维空间坍缩成了一条线。二维到一维一维没有足够的地盘映射二维所以一定有输入向量被挤压到了 0 点。我们正是求解这些挤压到0点的向量。x[11]x \begin{bmatrix} 1 \\ 1 \end{bmatrix}x[11​]是其中一个。图中红色与蓝色线是新基向量虚线就是新基向量张成的空间。【行视角看待整个过程】在行视角中矩阵的每一行都是一个针对输入向量xxx的特征提取器。在本例中第一行r1⃗[1,−1]\vec{r_1} [1, -1]r1​​[1,−1]。即取 1 份x1x_1x1​减去 1 份x2x_2x2​。第二行r2⃗[2,−2]\vec{r_2} [2, -2]r2​​[2,−2]。同理。当我们将解向量x[1,1]Tx [1, 1]^Tx[1,1]T放入机器时两行提取的结果统统是 0。这意味着这组提取器在输入向量xxx身上什么特征都没提取到。这在几何上到底意味着什么1. 核心原理点积与垂直还记得吗让我们看看老朋友点积 (Dot Product)。当我们写下Row⋅x0\text{Row} \cdot x 0Row⋅x0时我们实际上是在说这两个向量的点积为 0。而在几何公理中点积为 0 的唯一几何含义就是垂直。因此我们可以得出一个普适的结论无论矩阵里的数字多么复杂维度多么高Ax0Ax0Ax0是按第 1 行的组合方式提取x的结果是 0。第 2 行提取结果是 0。…mmm行提取结果全是 0。{Row1⋅x0Row2⋅x0⋮Rowm⋅x0⇒Ax0⃗ \begin{cases} \text{Row}_1 \cdot x 0 \\ \text{Row}_2 \cdot x 0 \\ \vdots \\ \text{Row}_m \cdot x 0 \end{cases} \quad \Rightarrow \quad A x \vec{0}⎩⎨⎧​Row1​⋅x0Row2​⋅x0⋮Rowm​⋅x0​⇒Ax0那它的含义就是“寻找一个向量xxx它必须同时垂直于矩阵AAA的所有行向量。”2.视觉验证我们可以验证一下看看那个x在哪里解的样子 (xxx)既然x1x2x_1 x_2x1​x2​那么这个xxx向量一定躺在yxyxyx这条直线上比如[1,1],[2,2][1,1], [2,2][1,1],[2,2]。这是一条45度朝向右上方的线。配方的样子 (Row1\text{Row}_1Row1​)行向量本身是[1,−1][1, -1][1,−1]。这是一个向右(x1x1x1)、向下(y−1y-1y−1)的向量。这是一条-45度朝向右下方的线。第二行也躺在这视角上解向量xxx往右上45度。行向量Row1\text{Row}_1Row1​往右下-45度。它们相交的角度正是 90 度垂直如图紫色和淡紫色是”配方“的向量。 绿色是解。通过刚才点积的回顾我们知道这个垂直的几何关系不是这个例子特殊而是一个特有的性质。3. 结论苛刻的过滤器矩阵是极为苛刻的过滤器。要求输入向量必须满足其配方最终配出来为0。绝大多数输入向量都不满足此配方出来是0而只有一些向量满足即我们要求解的x。他们的特点就是若把配方”可视化“为向量这些x与这些配方”垂直“。在输入空间里绝大多数向量都被过滤掉了只有躲在一个垂直方向里的向量能满足应用配方的结果”0“。总结行与列现在让我们把两个视角拼在一起列视角看输出它展示了空间发生了坍缩平面压成线根据维度守恒必然有向量被压成了 0。它证明了非零解一定存在。行视角看输入它展示了矩阵内部的结构。解向量必须躲在所有行向量的垂直死角里。它帮我们具体算出了这个解是谁。秩与核我们给俩个视角看到的两个关键现象正式命名。(1) 秩 (Rank)回到列视角。我们看到原本二维的输入空间平面经过矩阵AAA的变换后坍缩成了一条一维的直线由[12]\begin{bmatrix} 1 \\ 2 \end{bmatrix}[12​]与[−1−2]\begin{bmatrix} -1 \\ -2 \end{bmatrix}[−1−2​]张成这个“变换后剩下的空间”数学上叫列空间。这个空间的维度这里是 1就叫做秩 (Rank)记为r(A)r(A)r(A)。秩代表了矩阵AAA“保留信息的能力”。我们通过列视角俩个新基向量能很轻松地判断出”秩“。此情景下秩 1说明它把二维世界的信息压缩成了一维丢失了一部分信息。(2) 核 (Kernel)再看行视角。我们发现矩阵的配方极其挑剔只有躺在yxyxyx这条直线上的向量比如[1,1][1,1][1,1]会被矩阵变成 0。这个“所有变成 0 的向量组成的集合”数学上叫核空间 (Null Space)或零空间。其维度这里也是 1因为是一条线叫做零度 (Nullity)。核代表了矩阵AAA“毁灭信息的能力”。掉进核空间里的向量再也找不回来了变成0了。行视角通过配方的可视化让我们看出”核空间“到底在哪里统一视角现在让我们再次总结一下。我们的输入是一个2维的向量有两个自由度x1,x2x_1, x_2x1​,x2​。经过矩阵AAA的处理后通过列视角我们能清楚新基向量张成的维度即对于输入一部分维度被“显现”了出来变成了秩也就是输出的那条线。通过行视角我们能看到到底哪些向量会被变成0即对于输入有另一部分维度被“毁灭”了那一部分为核也就是与配方垂直的那条线。你会发现一个算术关系输入总维度 (2)幸存的维度 (1)毁灭的维度 (1) \text{输入总维度 (2)} \text{幸存的维度 (1)} \text{毁灭的维度 (1)}输入总维度(2)幸存的维度(1)毁灭的维度(1)这不是巧合。这就是线性代数中最伟大的“秩-零度定理” (Rank-Nullity Theorem)的直觉版nr(A)dim(N(A)) n r(A) \text{dim}(N(A))nr(A)dim(N(A))输入空间的维度 秩 核的维度此刻行与列的视角碰撞终于有了意义。列视角让你看到 新维度去哪了秩行视角让你看到原来的维度哪些消失了核它们共同构成了矩阵完整的“降维画像”。结语至此我们已经建立了一套关于矩阵的全新直觉矩阵是机器它既可以从列视角看作空间的变换也可以从行视角看作信息的提取。乘法是作用它是变换的叠加也是配方的组合。秩是灵魂它决定了信息的保留与丢失。但这仅仅是开始。我们不仅要能“看见”这些直觉还要能用它们去解决具体的问题如果AxbAxbAxb中的bbb不再是 0解还在哪里如何精准地算出那些“被毁灭的维度”基础解系那些复杂的“初等变换”究竟是在对空间做什么…在下一篇文章中我们将带上这套行与列视角的直觉正式踏入线性方程组的阵地去拆解那些让无数考生头疼的计算与证明线代此时是不是并不枯燥了呢
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

网站建设 人和商圈重庆大渡口营销型网站建设公司推荐

《固定接入网:光纤的“最后一公里”》 第6篇 01. 引子:深夜的“网络悬案”与背后的隐形大佬 先问你一个扎心的问题: 当你在工作日的晚上八九点,正开着重要的视频会议,或者全家人一起刷剧、打游戏时,突然网络开始“转圈圈”,视频卡成了PPT。你第一反应是怪谁? 99% 的…

张小明 2026/1/6 10:26:00 网站建设

如何建立免费公司网站中国设计网 字体

BilibiliDown视频下载器完整使用教程 【免费下载链接】BilibiliDown (GUI-多平台支持) B站 哔哩哔哩 视频下载器。支持稍后再看、收藏夹、UP主视频批量下载|Bilibili Video Downloader 😳 项目地址: https://gitcode.com/gh_mirrors/bi/BilibiliDown Bilibil…

张小明 2026/1/6 16:28:01 网站建设

网上商城开发网站建设wordpress的google字体

芯片失效分析总结 芯片失效分析是一门结合材料科学、电子工程、物理学和化学的综合性学科,其核心目标是定位失效点、确定失效机理、找出失效根因,从而改进设计、工艺和封装,提升产品良率、可靠性和寿命。 一、 核心价值与目的 提升良率&#…

张小明 2026/1/10 2:35:03 网站建设

虚拟机可以做多个网站wordpress slider代码

第一章:Open-AutoGLM性能实测:10倍加速基因表达数据分析的背后技术解析Open-AutoGLM在处理高通量基因表达数据时展现出显著性能优势,实测表明其相较传统分析流程实现近10倍加速。这一突破源于其底层架构对大规模稀疏矩阵运算的深度优化&#…

张小明 2026/1/6 16:43:33 网站建设

哪些网站可以做免费答题外贸营销邮件范文

抖音无水印视频下载终极指南:3分钟快速上手完整教程 【免费下载链接】douyin_downloader 抖音短视频无水印下载 win编译版本下载:https://www.lanzous.com/i9za5od 项目地址: https://gitcode.com/gh_mirrors/dou/douyin_downloader 还在为抖音视…

张小明 2026/1/9 13:56:18 网站建设