2025年8月3日日曜日

1227: ベクトルたちスペース(空間)およびフィールド(体)上方のスクウェアマトリックス(正方行列)でディメンショナル(次元)がベクトルたちスペース(空間)のディメンショナル(次元)に等しいかそれより小さいものに対して、マトリックス(行列)はインバーティブル(可逆)である、もしも、それが、ベクトルたちのリニア(線形)にインディペンデント(独立)なセット(集合)をベクトルたちのリニア(線形)にインディペンデント(独立)なセット(集合)へマップする場合、そしてその場合に限って

<このシリーズの前の記事 | このシリーズの目次 | このシリーズの次の記事>

ベクトルたちスペース(空間)およびフィールド(体)上方のスクウェアマトリックス(正方行列)でディメンショナル(次元)がベクトルたちスペース(空間)のディメンショナル(次元)に等しいかそれより小さいものに対して、マトリックス(行列)はインバーティブル(可逆)である、もしも、それが、ベクトルたちのリニア(線形)にインディペンデント(独立)なセット(集合)をベクトルたちのリニア(線形)にインディペンデント(独立)なセット(集合)へマップする場合、そしてその場合に限って、ことの記述/証明

話題


About: ベクトルたちスペース(空間)

この記事の目次


開始コンテキスト



ターゲットコンテキスト



  • 読者は、任意のフィールド(体)上方の任意のベクトルたちスペース(空間)および当該フィールド(体)上方の任意のスクウェアマトリックス(正方行列)でディメンショナル(次元)が当該ベクトルたちスペース(空間)のディメンショナル(次元)に等しいかそれより小さいものに対して、当該マトリックス(行列)はインバーティブル(可逆)である、もしも、それが、ベクトルたちのリニア(線形)にインディペンデント(独立)なあるセット(集合)をベクトルたちのリニア(線形)にインディペンデント(独立)なセット(集合)へマップする場合、そして、もしも、当該マトリックス(行列)はインバーティブル(可逆)である場合、それは、ベクトルたちのリニア(線形)にインディペンデント(独立)な任意のセット(集合)をベクトルたちのリニア(線形)にインディペンデント(独立)なセット(集合)へマップする、という命題の記述および証明を得る。

オリエンテーション


本サイトにてこれまで議論された定義たちの一覧があります。

本サイトにてこれまで議論された命題たちの一覧があります。


本体


1: 構造化された記述


ここに'構造化された記述'のルールたちがある

エンティティ(実体)たち:
\(F\): \(\in \{\text{ 全てのフィールド(体)たち }\}\)
\(V\): \(\in \{\text{ 全ての } F \text{ ベクトルたちスペース(空間)たち }\}\)
\(n\): \(\in \mathbb{N} \setminus \{0\}\)、ここで、\(n\)は\(V\)のディメンション(次元)に等しいかそれより小さい
\(M\): \(\in \{\text{ 全ての } n \times n F \text{ マトリックス(行列)たち }\}\)
//

ステートメント(言明)たち:
(
\(det M \neq 0\)
\(\implies\)
\(\forall \{v_1, ..., v_n\} \in \{V \text{ の全てのリニア(線形)にインディペンデント(独立)なセット(集合)たち }\} (M \begin{pmatrix} v_1 \\ ... \\ v_n \end{pmatrix} \in \{V \text{ の全てのリニア(線形)にインディペンデント(独立)なセット(集合)たち }\})\)
)
\(\land\)
(
\(\exists \{v_1, ..., v_n\} \in \{V \text{ の全てのリニア(線形)にインディペンデント(独立)なセット(集合)たち }\} (M \begin{pmatrix} v_1 \\ ... \\ v_n \end{pmatrix} \in \{V \text{ の全てのリニア(線形)にインディペンデント(独立)なセット(集合)たち }\})\)
\(\implies\)
\(det M \neq 0\)
)
//

\(V\)は、インフィニット(無限)-ディメンショナル(次元)であり得る(そのケースでは、\(n\)は\(\mathbb{N} \setminus \{0\}\)内の任意のものでよい)。


2: 証明


全体戦略: ステップ1: \(det M \neq 0\)であると仮定し、\(M \begin{pmatrix} v_1 \\ ... \\ v_n \end{pmatrix}\)はリニア(線形)にインディペンデント(独立)であることを見る; ステップ2: あるリニア(線形)にインディペンデント(独立)な\(\{v_1, ..., v_n\}\)があると仮定し、\(det M \neq 0\)であることを見る。

ステップ1:

\(det M \neq 0\)であると仮定しよう。

\(\{v_1, ..., v_n\}\)を任意のリニア(線形)にインディペンデント(独立)なセット(集合)としよう。

\(M \begin{pmatrix} v_1 \\ ... \\ v_n \end{pmatrix}\)はリニア(線形)にインディペンデント(独立)であることを見よう。

\(c_1 \sum_{j_1} M^1_{j_1} v_{j_1} + ... + c_n \sum_{j_n} M^n_{j_n} v_{j_n} = 0\)であるとしよう。

それは、\(\sum_{j_1} c_{j_1} M^{j_1}_1 v_1 + ... + \sum_{j_n} c_{j_n} M^{j_n}_n v_n = 0\)である。

したがって、\(\begin{pmatrix} c_1 & ... & c_n \end{pmatrix} M = \begin{pmatrix} 0 & ... & 0 \end{pmatrix}\)、なぜなら、\(\{v_1, ..., v_n\}\)はリニア(線形)にインディペンデント(独立)である。

\(det M \neq 0\)であるから、\(M^{-1}\)は存在する、任意のフィールド(体)上方にて、任意のスクウェアマトリックス(正方行列)はインバース(逆)を持つ、もしも、そのデターミナント(行列式)が非ゼロである場合、そしてその場合に限って、そして、インバース(逆)はこれであるという命題によって。

したがって、\(\begin{pmatrix} c_1 & ... & c_n \end{pmatrix} M M^{-1} = \begin{pmatrix} 0 & ... & 0 \end{pmatrix} M^{-1}\)、しかし、左辺は、\(\begin{pmatrix} c_1 & ... & c_n \end{pmatrix} I = \begin{pmatrix} c_1 & ... & c_n \end{pmatrix}\)であり、右辺は、\(\begin{pmatrix} 0 & ... & 0 \end{pmatrix}\)である。

したがって、\(\begin{pmatrix} c_1 & ... & c_n \end{pmatrix} = \begin{pmatrix} 0 & ... & 0 \end{pmatrix}\)。

それが意味するのは、\(M \begin{pmatrix} v_1 \\ ... \\ v_n \end{pmatrix}\)はリニア(線形)にインディペンデント(独立)であること。

ステップ2:

以下を満たすあるリニア(線形)にインディペンデント(独立)な\(\{v_1, ..., v_n\}\)、つまり、\(M \begin{pmatrix} v_1 \\ ... \\ v_n \end{pmatrix}\)はリニア(線形)にインディペンデント(独立)である、がある。

\(c_1 \sum_{j_1} M^1_{j_1} v_{j_1} + ... + c_n \sum_{j_n} M^n_{j_n} v_{j_n} = 0\)としよう。

それは、\(\sum_{j_1} c_{j_1} M^{j_1}_1 v_1 + ... + \sum_{j_n} c_{j_n} M^{j_n}_n v_n = 0\)である。

したがって、\(\begin{pmatrix} c_1 & ... & c_n \end{pmatrix} M = \begin{pmatrix} 0 & ... & 0 \end{pmatrix}\)、なぜなら、\(\{v_1, ..., v_n\}\)はリニア(線形)にインディペンデント(独立)である。

それは、\(M^t \begin{pmatrix} c_1 \\ ... \\ c_n \end{pmatrix} = \begin{pmatrix} 0 \\ ... \\ 0 \end{pmatrix}\)。

\(det M^t = 0\)であると仮定しよう。

すると、\(det M^t\)のランク(階数)は\(n\)より小さいことになる。

連立リニア(線形)方程式に対するクラメールのルールによって、ある\(c_j\)を恣意的に取れることになる: 少なくとも、ある解\((c_1, ..., c_n) = (0, ..., 0)\)があることになる。

そうした非ゼロのある\((c_1, ..., c_n)\)は\(M^t \begin{pmatrix} c_1 \\ ... \\ c_n \end{pmatrix} = \begin{pmatrix} 0 \\ ... \\ 0 \end{pmatrix}\)を満たすことになる、したがって、\(\begin{pmatrix} c_1 & ... & c_n \end{pmatrix} M = \begin{pmatrix} 0 & ... & 0 \end{pmatrix}\)を満たすことになる、したがって、\(\sum_{j_1} c_{j_1} M^{j_1}_1 v_1 + ... + \sum_{j_n} c_{j_n} M^{j_n}_n v_n = 0\)を満たすことになる、それは、\(c_1 \sum_{j_1} M^1_{j_1} v_{j_1} + ... + c_n \sum_{j_n} M^n_{j_n} v_{j_n} = 0\)に他ならない。

それは、\(c_1 \sum_{j_1} M^1_{j_1} v_{j_1} + ... + c_n \sum_{j_n} M^n_{j_n} v_{j_n} = 0\)はある非ゼロ\((c_1, ..., c_n)\)を持っていたことを意味することになる、\(M \begin{pmatrix} v_1 \\ ... \\ v_n \end{pmatrix}\)はリニア(線形)にインディペンデント(独立)であることに反する矛盾。

したがって、\(det M = det M^t \neq 0\)。


参考資料


<このシリーズの前の記事 | このシリーズの目次 | このシリーズの次の記事>