テンソルのシンメトライゼーション(対称化)マップ(写像)はリニア(線形)であることの記述/証明
話題
About: ベクトルたちスペース(空間)
この記事の目次
開始コンテキスト
- 読者は、テンソルのいくつかの引数たちに関するシンメトライゼーション(対称化)の定義を知っている。
- 読者は、リニアマップ(線形写像)の定義を知っている。
ターゲットコンテキスト
- 読者は、任意の、テンソルのシンメトライゼーション(対称化)マップ(写像)はリニア(線形)であるという命題の記述および証明を得る。
オリエンテーション
本サイトにてこれまで議論された定義たちの一覧があります。
本サイトにてこれまで議論された命題たちの一覧があります。
本体
1: 構造化された記述
ここに'構造化された記述'のルールたちがある。
エンティティ(実体)たち:
\(F\): \(\in \{\text{ 全てのフィールド(体)たち }\}\)
\(\{V_1, ..., V_k, W\}\): \(\subseteq \{\text{ 全ての } F \text{ ベクトルたちスペース(空間)たち }\}\)、ここで、\(V_{j_1} = ... = V_{j_l} := V\)、いくつかの\(\{V_{j_1}, ..., V_{j_l}\} \subseteq \{V_1, ..., V_k\}\)たちに対して
\(L (V_1, ..., V_k: W)\): \(= \text{ 当該テンソルたちスペース(空間) }\)
\(Sym_{\{j_1, ..., j_l\}}\): \(: L (V_1, ..., V_k: W) \to L (V_1, ..., V_k: W)\), \(= \text{ 当該シンメトライゼーション(対称化)マップ(写像) }\)
//
ステートメント(言明)たち:
\(Sym_{\{j_1, ..., j_l\}} \in \{\text{ 全てのリニアマップ(線形写像)たち }\}\)
//
2: 証明
全体戦略: ステップ1: \(f_1, f_2 \in L (V_1, ..., V_k: W)\)は任意のものであるとし、\(Sym_{\{j_1, ..., j_l\}} (r_1 f_1 + r_2 f_2) = r_1 Sym_{\{j_1, ..., j_l\}} (f_1) + r_2 Sym_{\{j_1, ..., j_l\}} (f_2)\)であることを見る。
ステップ1:
\(f_1, f_2 \in L (V_1, ..., V_k: W)\)および\(r_1, r_2 \in F\)は任意のものたちであるとしよう。
\(Sym_{\{j_1, ..., j_l\}} (r_1 f_1 + r_2 f_2) (v_1, ..., v_k) = 1 / l! \sum_{\sigma \in P_{\{j_1, ..., j_l\}}} (r_1 f_1 + r_2 f_2) (v_{\sigma_1}, ..., v_{\sigma_k})) = 1 / l! \sum_{\sigma \in P_{\{j_1, ..., j_l\}}} (r_1 f_1 (v_{\sigma_1}, ..., v_{\sigma_k}) + r_2 f_2 (v_{\sigma_1}, ..., v_{\sigma_k})) = r_1 1 / l! \sum_{\sigma \in P_{\{j_1, ..., j_l\}}} f_1 (v_{\sigma_1}, ..., v_{\sigma_k}) + r_2 1 / l! \sum_{\sigma \in P_{\{j_1, ..., j_l\}}} f_2 (v_{\sigma_1}, ..., v_{\sigma_k})) = r_1 Sym_{\{j_1, ..., j_l\}} (f_1) (v_1, ..., v_k) + r_2 Sym_{\{j_1, ..., j_l\}} (f_2) (v_1, ..., v_k) = (r_1 Sym_{\{j_1, ..., j_l\}} (f_1) + r_2 Sym_{\{j_1, ..., j_l\}} (f_2)) (v_1, ..., v_k)\)。