# 物理上的张量以及深度学习中的张量 张量是一种可以用来表示多个向量、标量和其他张量之间的线性关系的数学对象,它们在物理学和深度学习中都有重要的应用。本文将简要介绍张量的定义、性质和例子,以及它们在两个领域中的作用。 ## 张量的定义 数学上,一个 $(p,q)$ 型的张量 $T$ 被定义为一个多重线性映射: $$ T: \underbrace{V^* \times \cdots \times V^*}_{p\text{ times}} \times \underbrace{V \times \cdots \times V}_{q\text{ times}} \to \mathbb{R} $$ 其中 $V$ 是一个向量空间,$V^*$ 是其对偶空间。这意味着张量可以接受 $p$ 个协变向量(或 1-形式)和 $q$ 个逆变向量(或向量)作为输入,并输出一个实数。我们可以用指标记法来表示张量及其分量: $$ T = T^{i_1 i_2 \cdots i_p}_{j_1 j_2 \cdots j_q} e_{i_1} \otimes e_{i_2} \otimes \cdots e_{i_p} \otimes e^{j_1} \otimes e^{j_2} \otimes \cdots e^{j_q} $$ 其中 $\{e_i\}$ 和 $\{e^j\}$ 分别是 $V$ 和 $V^*$ 的一组基,$\otimes$ 表示张量积,$T^{i_1 i_2 \cdots i_p}_{j_1 j_2 \cdots j_q}$ 表示张量在这组基下的分量。当我们改变坐标系或基时,张量的分量会按照一定的变换规则进行线性变换,这些规则有两种:即协变或逆变转换。具体地说,如果有两组基 $\{e_i\}$ 和 $\{\tilde{e}_i\}$ 以及它们之间的转换矩阵 $A^i_j$: $$ \tilde{e}_i = A^j_i e_j $$ 那么一个逆变向量(或 $(1,0)$ 型张量)$v = v^i e_i = v'^i\tilde{e}_i$ 的分量会按照如下规则转换: $$ v'^i = A^{-1}_j^i v^j $$ 而一个协变向量(或 $(0,1)$ 型张量)$\omega = w_i e^i = w'_i\tilde{e}^i$ 的分量会按照如下规则转换: $$ w'_i = A_i^j w_j $$ 对于更高阶的张类型,每个指标都要遵循相应的转换规则。例如,一个 $(2,0)$ 型张类型 $S = S^{ij} e_i\otimes e_j = S'^{ij}\tilde{e}_i\otimes\tilde{e}_j$ 的分量会按照如下规则转换: $$ S'^{ij} = A^{-1}_k^i A^{-1}_l^j S^{kl} $$ 而一个 $(0,2)$ 型张类型 $R = R_{ij} e^i\otimes e^j = R'_{ij}\tilde{e}^i\otimes\tilde{e}^j$ 的分配会按照如下规则转换: $$ R'_{ij} = A_i^k A_j^l R_{
×
Sign in
Email
Password
Forgot password
or
By clicking below, you agree to our
terms of service
.
Sign in via Facebook
Sign in via Twitter
Sign in via GitHub
Sign in via Dropbox
Sign in with Wallet
Wallet (
)
Connect another wallet
New to HackMD?
Sign up