2025年2月23日日曜日

1017: テンソルのアンチシンメトライゼーション(反対称化)マップ(写像)はリニア(線形)である

<このシリーズの前の記事 | このシリーズの目次 | このシリーズの次の記事>

テンソルのアンチシンメトライゼーション(反対称化)マップ(写像)はリニア(線形)であることの記述/証明

話題


About: ベクトルたちスペース(空間)

この記事の目次


開始コンテキスト



ターゲットコンテキスト



  • 読者は、任意の、テンソルのアンチシンメトライゼーション(反対称化)マップ(写像)はリニア(線形)であるという命題の記述および証明を得る。

オリエンテーション


本サイトにてこれまで議論された定義たちの一覧があります。

本サイトにてこれまで議論された命題たちの一覧があります。


本体


1: 構造化された記述


ここに'構造化された記述'のルールたちがある

エンティティ(実体)たち:
\(F\): \(\in \{\text{ 全てのフィールド(体)たち }\}\)
\(\{V_1, ..., V_k, W\}\): \(\subseteq \{\text{ 全ての } F \text{ ベクトルたちスペース(空間)たち }\}\)、ここで、\(V_{j_1} = ... = V_{j_l} := V\)、いくつかの\(\{V_{j_1}, ..., V_{j_l}\} \subseteq \{V_1, ..., V_k\}\)たちに対して
\(L (V_1, ..., V_k: W)\): \(= \text{ 当該テンソルたちスペース(空間) }\)
\(Asym_{\{j_1, ..., j_l\}}\): \(: L (V_1, ..., V_k: W) \to L (V_1, ..., V_k: W)\), \(= \text{ 当該アンチシンメトライゼーション(反対称化)マップ(写像) }\)
//

ステートメント(言明)たち:
\(Asym_{\{j_1, ..., j_l\}} \in \{\text{ 全てのリニアマップ(線形写像)たち }\}\)
//


2: 証明


全体戦略: ステップ1: \(f_1, f_2 \in L (V_1, ..., V_k: W)\)は任意のものであるとし、\(Asym_{\{j_1, ..., j_l\}} (r_1 f_1 + r_2 f_2) = r_1 Asym_{\{j_1, ..., j_l\}} (f_1) + r_2 Asym_{\{j_1, ..., j_l\}} (f_2)\)であることを見る。

ステップ1:

\(f_1, f_2 \in L (V_1, ..., V_k: W)\)および\(r_1, r_2 \in F\)は任意のものたちであるとしよう。

\(Asym_{\{j_1, ..., j_l\}} (r_1 f_1 + r_2 f_2) (v_1, ..., v_k) = 1 / l! \sum_{\sigma \in P_{\{j_1, ..., j_l\}}} sgn \sigma (r_1 f_1 + r_2 f_2) (v_{\sigma_1}, ..., v_{\sigma_k})) = 1 / l! \sum_{\sigma \in P_{\{j_1, ..., j_l\}}} sgn \sigma (r_1 f_1 (v_{\sigma_1}, ..., v_{\sigma_k}) + r_2 f_2 (v_{\sigma_1}, ..., v_{\sigma_k})) = r_1 1 / l! \sum_{\sigma \in P_{\{j_1, ..., j_l\}}} sgn \sigma f_1 (v_{\sigma_1}, ..., v_{\sigma_k}) + r_2 1 / l! \sum_{\sigma \in P_{\{j_1, ..., j_l\}}} sgn \sigma f_2 (v_{\sigma_1}, ..., v_{\sigma_k})) = r_1 Asym_{\{j_1, ..., j_l\}} (f_1) (v_1, ..., v_k) + r_2 Asym_{\{j_1, ..., j_l\}} (f_2) (v_1, ..., v_k) = (r_1 Asym_{\{j_1, ..., j_l\}} (f_1) + r_2 Asym_{\{j_1, ..., j_l\}} (f_2)) (v_1, ..., v_k)\)。


参考資料


<このシリーズの前の記事 | このシリーズの目次 | このシリーズの次の記事>