ベクトルたちスペース(空間)およびフィールド(体)上方のスクウェアマトリックス(正方行列)でディメンショナル(次元)がベクトルたちスペース(空間)のディメンショナル(次元)に等しいかそれより小さいものに対して、マトリックス(行列)はインバーティブル(可逆)である、もしも、それが、ベクトルたちのリニア(線形)にインディペンデント(独立)なセット(集合)をベクトルたちのリニア(線形)にインディペンデント(独立)なセット(集合)へマップする場合、そしてその場合に限って、ことの記述/証明
話題
About: ベクトルたちスペース(空間)
この記事の目次
開始コンテキスト
ターゲットコンテキスト
- 読者は、任意のフィールド(体)上方の任意のベクトルたちスペース(空間)および当該フィールド(体)上方の任意のスクウェアマトリックス(正方行列)でディメンショナル(次元)が当該ベクトルたちスペース(空間)のディメンショナル(次元)に等しいかそれより小さいものに対して、当該マトリックス(行列)はインバーティブル(可逆)である、もしも、それが、ベクトルたちのリニア(線形)にインディペンデント(独立)なあるセット(集合)をベクトルたちのリニア(線形)にインディペンデント(独立)なセット(集合)へマップする場合、そして、もしも、当該マトリックス(行列)はインバーティブル(可逆)である場合、それは、ベクトルたちのリニア(線形)にインディペンデント(独立)な任意のセット(集合)をベクトルたちのリニア(線形)にインディペンデント(独立)なセット(集合)へマップする、という命題の記述および証明を得る。
オリエンテーション
本サイトにてこれまで議論された定義たちの一覧があります。
本サイトにてこれまで議論された命題たちの一覧があります。
本体
1: 構造化された記述
ここに'構造化された記述'のルールたちがある。
エンティティ(実体)たち:
\(F\): \(\in \{\text{ 全てのフィールド(体)たち }\}\)
\(V\): \(\in \{\text{ 全ての } F \text{ ベクトルたちスペース(空間)たち }\}\)
\(n\): \(\in \mathbb{N} \setminus \{0\}\)、ここで、\(n\)は\(V\)のディメンション(次元)に等しいかそれより小さい
\(M\): \(\in \{\text{ 全ての } n \times n F \text{ マトリックス(行列)たち }\}\)
//
ステートメント(言明)たち:
(
\(det M \neq 0\)
\(\implies\)
\(\forall \{v_1, ..., v_n\} \in \{V \text{ の全てのリニア(線形)にインディペンデント(独立)なセット(集合)たち }\} (M \begin{pmatrix} v_1 \\ ... \\ v_n \end{pmatrix} \in \{V \text{ の全てのリニア(線形)にインディペンデント(独立)なセット(集合)たち }\})\)
)
\(\land\)
(
\(\exists \{v_1, ..., v_n\} \in \{V \text{ の全てのリニア(線形)にインディペンデント(独立)なセット(集合)たち }\} (M \begin{pmatrix} v_1 \\ ... \\ v_n \end{pmatrix} \in \{V \text{ の全てのリニア(線形)にインディペンデント(独立)なセット(集合)たち }\})\)
\(\implies\)
\(det M \neq 0\)
)
//
\(V\)は、インフィニット(無限)-ディメンショナル(次元)であり得る(そのケースでは、\(n\)は\(\mathbb{N} \setminus \{0\}\)内の任意のものでよい)。
2: 証明
全体戦略: ステップ1: \(det M \neq 0\)であると仮定し、\(M \begin{pmatrix} v_1 \\ ... \\ v_n \end{pmatrix}\)はリニア(線形)にインディペンデント(独立)であることを見る; ステップ2: あるリニア(線形)にインディペンデント(独立)な\(\{v_1, ..., v_n\}\)があると仮定し、\(det M \neq 0\)であることを見る。
ステップ1:
\(det M \neq 0\)であると仮定しよう。
\(\{v_1, ..., v_n\}\)を任意のリニア(線形)にインディペンデント(独立)なセット(集合)としよう。
\(M \begin{pmatrix} v_1 \\ ... \\ v_n \end{pmatrix}\)はリニア(線形)にインディペンデント(独立)であることを見よう。
\(c_1 \sum_{j_1} M^1_{j_1} v_{j_1} + ... + c_n \sum_{j_n} M^n_{j_n} v_{j_n} = 0\)であるとしよう。
それは、\(\sum_{j_1} c_{j_1} M^{j_1}_1 v_1 + ... + \sum_{j_n} c_{j_n} M^{j_n}_n v_n = 0\)である。
したがって、\(\begin{pmatrix} c_1 & ... & c_n \end{pmatrix} M = \begin{pmatrix} 0 & ... & 0 \end{pmatrix}\)、なぜなら、\(\{v_1, ..., v_n\}\)はリニア(線形)にインディペンデント(独立)である。
\(det M \neq 0\)であるから、\(M^{-1}\)は存在する、任意のフィールド(体)上方にて、任意のスクウェアマトリックス(正方行列)はインバース(逆)を持つ、もしも、そのデターミナント(行列式)が非ゼロである場合、そしてその場合に限って、そして、インバース(逆)はこれであるという命題によって。
したがって、\(\begin{pmatrix} c_1 & ... & c_n \end{pmatrix} M M^{-1} = \begin{pmatrix} 0 & ... & 0 \end{pmatrix} M^{-1}\)、しかし、左辺は、\(\begin{pmatrix} c_1 & ... & c_n \end{pmatrix} I = \begin{pmatrix} c_1 & ... & c_n \end{pmatrix}\)であり、右辺は、\(\begin{pmatrix} 0 & ... & 0 \end{pmatrix}\)である。
したがって、\(\begin{pmatrix} c_1 & ... & c_n \end{pmatrix} = \begin{pmatrix} 0 & ... & 0 \end{pmatrix}\)。
それが意味するのは、\(M \begin{pmatrix} v_1 \\ ... \\ v_n \end{pmatrix}\)はリニア(線形)にインディペンデント(独立)であること。
ステップ2:
以下を満たすあるリニア(線形)にインディペンデント(独立)な\(\{v_1, ..., v_n\}\)、つまり、\(M \begin{pmatrix} v_1 \\ ... \\ v_n \end{pmatrix}\)はリニア(線形)にインディペンデント(独立)である、がある。
\(c_1 \sum_{j_1} M^1_{j_1} v_{j_1} + ... + c_n \sum_{j_n} M^n_{j_n} v_{j_n} = 0\)としよう。
それは、\(\sum_{j_1} c_{j_1} M^{j_1}_1 v_1 + ... + \sum_{j_n} c_{j_n} M^{j_n}_n v_n = 0\)である。
したがって、\(\begin{pmatrix} c_1 & ... & c_n \end{pmatrix} M = \begin{pmatrix} 0 & ... & 0 \end{pmatrix}\)、なぜなら、\(\{v_1, ..., v_n\}\)はリニア(線形)にインディペンデント(独立)である。
それは、\(M^t \begin{pmatrix} c_1 \\ ... \\ c_n \end{pmatrix} = \begin{pmatrix} 0 \\ ... \\ 0 \end{pmatrix}\)。
\(det M^t = 0\)であると仮定しよう。
すると、\(det M^t\)のランク(階数)は\(n\)より小さいことになる。
連立リニア(線形)方程式に対するクラメールのルールによって、ある\(c_j\)を恣意的に取れることになる: 少なくとも、ある解\((c_1, ..., c_n) = (0, ..., 0)\)があることになる。
そうした非ゼロのある\((c_1, ..., c_n)\)は\(M^t \begin{pmatrix} c_1 \\ ... \\ c_n \end{pmatrix} = \begin{pmatrix} 0 \\ ... \\ 0 \end{pmatrix}\)を満たすことになる、したがって、\(\begin{pmatrix} c_1 & ... & c_n \end{pmatrix} M = \begin{pmatrix} 0 & ... & 0 \end{pmatrix}\)を満たすことになる、したがって、\(\sum_{j_1} c_{j_1} M^{j_1}_1 v_1 + ... + \sum_{j_n} c_{j_n} M^{j_n}_n v_n = 0\)を満たすことになる、それは、\(c_1 \sum_{j_1} M^1_{j_1} v_{j_1} + ... + c_n \sum_{j_n} M^n_{j_n} v_{j_n} = 0\)に他ならない。
それは、\(c_1 \sum_{j_1} M^1_{j_1} v_{j_1} + ... + c_n \sum_{j_n} M^n_{j_n} v_{j_n} = 0\)はある非ゼロ\((c_1, ..., c_n)\)を持っていたことを意味することになる、\(M \begin{pmatrix} v_1 \\ ... \\ v_n \end{pmatrix}\)はリニア(線形)にインディペンデント(独立)であることに反する矛盾。
したがって、\(det M = det M^t \neq 0\)。