1-コベクトルたちのウェッジプロダクト(楔積)は1-コベクトルたちのサイン(符号)付き並べ替えられたテンソルプロダクト(積)たちの和であることの記述/証明
話題
About: ベクトルたちスペース(空間)
この記事の目次
開始コンテキスト
- 読者は、マルチコベクトルたちのウェッジプロダクト(楔積)の定義を知っている。
ターゲットコンテキスト
- 読者は、任意の1-コベクトルたちのウェッジプロダクト(楔積)は当該1-コベクトルたちのサイン(符号)付き並べ替えられたテンソルプロダクト(積)たちの和であるという命題の記述および証明を得る。
オリエンテーション
本サイトにてこれまで議論された定義たちの一覧があります。
本サイトにてこれまで議論された命題たちの一覧があります。
本体
1: 構造化された記述
ここに'構造化された記述'のルールたちがある。
エンティティ(実体)たち:
\(F\): \(\in \{\text{ 全てのフィールド(体)たち }\}\)
\(V\): \(\in \{\text{ 全ての } F \text{ ベクトルたちスペース(空間)たち }\}\)
\(\{t_1, ..., t_n\}\): \(\subseteq \Lambda_1 (V: F)\)
\(t_1 \wedge ... \wedge t_n\): \(\in \Lambda_n (V: F)\)
//
ステートメント(言明)たち:
\(t_1 \wedge ... \wedge t_n = \sum_{\sigma \in S_n} sgn \sigma t_{\sigma_1} \otimes ... \otimes t_{\sigma_n}\)
//
2: 注
ウェッジプロダクト(楔積)の定義の扱いにくいところは、ウェッジプロダクト(楔積)は、その中へ何らかの引数たちを入れることなしには扱えないということ。
本命題は、ウェッジプロダクト(楔積)を何らかのテンソルプロダクト(積)たちのコンビネーションとして扱えるようにする。
3: 証明
全体戦略: 両辺の任意の引数たちコンビネーションへの結果たちが同一であることを見る; ステップ1: ベクトルたちの任意のファイナイト(有限)シーケンス(列)\((v_1, ..., v_n)\)を取る; ステップ2: \((v_1, ..., v_n)\)を\(t_1 \wedge ... \wedge t_n\)の中へ入れる; ステップ3: \((v_1, ..., v_n)\)を\(\sum_{\sigma \in S_n} sgn \sigma t_{\sigma_1} \otimes ... \otimes t_{\sigma_n}\)の中へ入れ、当該結果がステップ2のそれに等しいことを見る。
ステップ1:
ベクトルたちの任意のファイナイト(有限)シーケンス(列)\((v_1, ..., v_n)\)、ここで、\(v_j \in V\)、を取ろう。
\(\Lambda_n (V: F)\)の各要素はテンソルであり、それは、それが当該引数たちにどのように作用するかによってユニークに決定されるから、もしも、\(t_1 \wedge ... \wedge t_n\)と\(\sum_{\sigma \in S_n} sgn \sigma t_{\sigma_1} \otimes ... \otimes t_{\sigma_n}\)の\((v_1, ..., v_n)\)への結果たちが同一であれば、\(t_1 \wedge ... \wedge t_n\)と\(\sum_{\sigma \in S_n} sgn \sigma t_{\sigma_1} \otimes ... \otimes t_{\sigma_n}\)は同一要素であろう。
ステップ2:
\(t_1 \wedge ... \wedge t_n (v_1, ..., v_n) = n! / (1! ... 1!) Asym (t_1 \otimes ... \otimes t_n) (v_1, ..., v_n) = n! 1 / n! \sum_{\sigma \in S_n} sgn \sigma t_1 \otimes ... \otimes t_n (v_{\sigma_1}, ..., v_{\sigma_n}) = \sum_{\sigma \in S_n} sgn \sigma t_1 \otimes ... \otimes t_n (v_{\sigma_1}, ..., v_{\sigma_n}) = \sum_{\sigma \in S_n} sgn \sigma t_1 (v_{\sigma_1}) ... t_n (v_{\sigma_n})\)。
ステップ3:
他方で、\(\sum_{\sigma \in S_n} sgn \sigma t_{\sigma_1} \otimes ... \otimes t_{\sigma_n} (v_1, ..., v_n) = \sum_{\sigma \in S_n} sgn \sigma t_{\sigma_1} (v_1) ... t_{\sigma_n} (v_n)\)。
\(t_{\sigma_1}, ..., t_{\sigma_n}\)は\(t_1, ..., t_n\)のあるパーミュテーション(並べ替え)である、したがって、\(t_{\sigma_1} (v_1) ... t_{\sigma_n} (v_n)\)は並べ替えて\(t_1 (v_{\lambda (1)}) ... t_n (v_{\lambda (n)})\)にできる、ここで、\(\lambda: \{1, ..., n\} \to \{1, ..., n\}\)はあるファンクション(関数)である。
\(\lambda\)は実際にはどのようなものであるか?各\(j \in \{1, ..., n\}\)に対して、\(t_j (v_{\lambda (j)}) = t_{\sigma_l} (v_l)\)、ある\(l \in \{1, ..., n\}\)に対して。したがって、\(j = \sigma_l = \sigma (l)\)(\(\sigma\)は実際にバイジェクティブ(全単射)マップ(写像)である)、したがって、\(l = \sigma^{-1} (j)\)。\(\lambda (j) = l\)、したがって、\(\lambda (j) = l = \sigma^{-1} (j)\)。したがって、\(\lambda = \sigma^{-1}\)。
したがって、\(t_{\sigma_1} (v_1) ... t_{\sigma_n} (v_n) = t_1 (v_{\sigma^{-1} (1)}) ... t_n (v_{\sigma^{-1} (n)})\)。
したがって、\(\sum_{\sigma \in S_n} sgn \sigma t_{\sigma_1} \otimes ... \otimes t_{\sigma_n} (v_1, ..., v_n) = \sum_{\sigma \in S_n} sgn \sigma t_1 (v_{\sigma^{-1} (1)}) ... t_n (v_{\sigma^{-1} (n)})\)、しかし、\(sgn \sigma = sgn \sigma^{-1}\)であるから、\(= \sum_{\sigma \in S_n} sgn \sigma^{-1} t_1 (v_{\sigma^{-1} (1)}) ... t_n (v_{\sigma^{-1} (n)})\)、しかし、\(\sum_{\sigma \in S_n} = \sum_{\sigma^{-1} \in S_n}\)であるから、\(= \sum_{\sigma^{-1} \in S_n} sgn \sigma^{-1} t_1 (v_{\sigma^{-1} (1)}) ... t_n (v_{\sigma^{-1} (n)})\)。
それは、\(\sum_{\sigma \in S_n} sgn \sigma t_1 (v_{\sigma_1}) ... t_n (v_{\sigma_n})\)、ステップ2の結果、に等しい。
したがって、\(t_1 \wedge ... \wedge t_n = \sum_{\sigma \in S_n} sgn \sigma t_{\sigma_1} \otimes ... \otimes t_{\sigma_n}\)。