セパラブル(可分)ヒルベルトスペース(空間)はオーソノーマル(正規直交)シャウダーベーシス(基底)を持つことの記述/証明
話題
About: ベクトルたちスペース(空間)
この記事の目次
開始コンテキスト
- 読者は、ヒルベルトスペース(空間)の定義を知っている。
- 読者は、セパラブル(可分)トポロジカルスペース(空間)の定義を知っている。
- 読者は、ノルム付きベクトルたちスペース(空間)に対するシャウダーベーシス(基底)の定義を知っている。
- 読者は、メトリック(計量)によってインデュースト(誘導された)トポロジーの定義を知っている。
- 読者は、ベクトルたちスペース(空間)でインナープロダクト(内積)を持つもののカウンタブル(可算)サブセット(部分集合)のグラム-シュミットオーソノーマライゼーション(正規直交化)の定義を知っている。
- 読者は、任意のヒルベルトスペース(空間)、任意のカウンタブル(可算)オーソノーマル(正規直交)サブセット(部分集合)、当該ヒルベルトスペース(空間)の任意の要素に対して、当該サブセット(部分集合)のリニアコンビネーション(線形結合)で当該要素とサブセット(部分集合)要素のインナープロダクト(内積)コエフィシェント(係数)たちを持つものはコンバージ(収束)するという命題を認めている。
- 読者は、任意のリアル(実)またはコンプレックス(複素)ベクトルたちスペース(空間)で任意のインナープロダクト(内積)によってインデュースト(誘導された)ノルムによってインデュースト(誘導された)メトリック(計量)によってインデュースト(誘導された)トポロジーを持つものに対して、任意の1個の引数を固定したインナープロダクト(内積)はコンティニュアス(連続)マップ(写像)であるという命題を認めている。
- 読者は、任意のコンティニュアス(連続)マップ(写像)およびダイレクテッド(有向)インデックスセット(集合)による任意のネットで当該ドメイン(定義域)上の任意のポイントへコンバージ(収束)するものに対して、当該ネットのイメージ(像)は当該ポイントのイメージ(像)へコンバージ(収束)し、もしも、当該コドメイン(余域)がハウスドルフである場合、当該ネットのイメージ(像)のコンバージェンス(収束ポイント)は当該ポイントのイメージ(像)であるという命題を認めている。
ターゲットコンテキスト
- 読者は、任意のセパラブル(可分)ヒルベルトスペース(空間)はあるオーソノーマル(正規直交)シャウダーベーシス(基底)を持つという命題の記述および証明を得る。
オリエンテーション
本サイトにてこれまで議論された定義たちの一覧があります。
本サイトにてこれまで議論された命題たちの一覧があります。
本体
1: 構造化された記述
ここに'構造化された記述'のルールたちがある。
エンティティ(実体)たち:
\(F\): \(\in \{\mathbb{R}, \mathbb{C}\}\)で、カノニカル(正典)なフィールド(体)ストラクチャー(構造)を持つもの
\((V, dist)\): \(\in \{\text{ 当該ヒルベルトスペース(空間) }\}\)で、任意のインナープロダクト(内積)\(\langle \bullet, \bullet \rangle\)を持ち、\(dist\)によってインデュースト(誘導された)トポロジーを持つもの
//
ステートメント(言明)たち:
\(V \in \{\text{ 全てのセパラブル(可分)トポロジカルスペース(空間)たち }\}\)で任意のカウンタブル(可算)デンス(密)サブセット(部分集合)\(S\)
\(\implies\)
\(\widetilde{S} := S \text{ のグラム-シュミットオーソノーマライゼーション(正規直交化) } = \{b_1, b_2, ...\} \in \{V \text{ に対する全てのオーソノーマル(正規直交)シャウダーベーシス(基底)たち }\}\)
//
2: 証明
全体戦略: ステップ1: \(v \in V\)を任意のものとし、\(v' := \sum_j \langle v, b_j \rangle b_j\)はコンバージ(収束)することを見、\(v'' := v - v'\)とする; ステップ2: 各\(w \in (\widetilde{S})\)に対して、\(\Vert v'' \Vert^2 \le \Vert v - w \Vert^2\)であることを見る; ステップ3: 各\(\epsilon\)に対して、以下を満たす任意の\(w \in (\widetilde{S})\)、つまり、\(\Vert v - w \Vert^2 \lt \epsilon^2\)、を取り、\(\Vert v'' \Vert = 0\)であることを見る; ステップ4: 本命題を結論する。
ステップ1:
\(v \in V\)を任意のものとする。
任意のヒルベルトスペース(空間)、任意のカウンタブル(可算)オーソノーマル(正規直交)サブセット(部分集合)、当該ヒルベルトスペース(空間)の任意の要素に対して、当該サブセット(部分集合)のリニアコンビネーション(線形結合)で当該要素とサブセット(部分集合)要素のインナープロダクト(内積)コエフィシェント(係数)たちを持つものはコンバージ(収束)するという命題によって、\(v' := \sum_j \langle v, b_j \rangle b_j\)はコンバージ(収束)する。
\(v'' := v - v'\)としよう。
当該インナープロダクト(内積)の任意の1引数を固定したものはコンティニュアス(連続)である、任意のリアル(実)またはコンプレックス(複素)ベクトルたちスペース(空間)で任意のインナープロダクト(内積)によってインデュースト(誘導された)ノルムによってインデュースト(誘導された)メトリック(計量)によってインデュースト(誘導された)トポロジーを持つものに対して、任意の1個の引数を固定したインナープロダクト(内積)はコンティニュアス(連続)マップ(写像)であるという命題によって。
したがって、インナープロダクト(内積)の任意の引数のリミット(極限)は当該インナープロダクト(内積)の外に取り出せる、任意のコンティニュアス(連続)マップ(写像)およびダイレクテッド(有向)インデックスセット(集合)による任意のネットで当該ドメイン(定義域)上の任意のポイントへコンバージ(収束)するものに対して、当該ネットのイメージ(像)は当該ポイントのイメージ(像)へコンバージ(収束)し、もしも、当該コドメイン(余域)がハウスドルフである場合、当該ネットのイメージ(像)のコンバージェンス(収束ポイント)は当該ポイントのイメージ(像)であるという命題によって、それは、これ以降、これ以上の説明なく使われる。
各\(b_l \in \widetilde{S}\)に対して、\(\langle v'', b_l \rangle = 0\)であることを見よう、それは、後に使われる。
\(\langle v'', b_l \rangle = \langle v - v', b_l \rangle = \langle v - lim_n \sum^n_{j = 1} \langle v, b_j \rangle b_j, b_l \rangle = \langle lim_n (v - \sum^n_{j = 1} \langle v, b_j \rangle b_j), b_l \rangle = lim_n \langle v - \sum^n_{j = 1} \langle v, b_j \rangle b_j, b_l \rangle = lim_n (\langle v, b_l \rangle - \sum^n_{j = 1} \langle v, b_j \rangle \langle b_j, b_l \rangle) = lim_n (\langle v, b_l \rangle - \sum^n_{j = 1} \langle v, b_j \rangle \delta_{j, l}) = lim_n (\langle v, b_l \rangle - \langle v, b_l \rangle) = lim_n 0 = 0\)。
ステップ2:
\(\widetilde{S}\)によって生成されたサブスペース(部分空間)を\((\widetilde{S})\)と表わそう。
\(w \in (\widetilde{S})\)を任意のものとしよう。
\(\Vert v'' \Vert^2 \le \Vert v - w \Vert^2\)であることを見よう。
\(w = \sum^n_{j = 1} w^j b_j\): ベクトルたちスペース(空間)のサブセット(部分集合)によって生成されたサブベクトルたちスペース(空間)の定義に対する"注"を参照のこと。
\(\langle v - w, v - w \rangle = \langle v'' + v' - \sum^n_{j = 1} w^j b_j, v'' + v' - \sum^n_{l = 1} w^l b_l \rangle = \langle v'', v'' \rangle + \langle v'', v' - \sum^n_{l = 1} w^l b_l \rangle + \langle v' - \sum^n_{j = 1} w^j b_j, v'' \rangle + \langle v' - \sum^n_{j = 1} w^l b_j, v' - \sum^n_{l = 1} w^l b_l \rangle = \langle v'', v'' \rangle + \langle v'', lim_m \sum^m_{j = 1} \langle v, b_j \rangle b_j - \sum^n_{l = 1} w^l b_l \rangle + \langle lim_m \sum^m_{j = 1} \langle v, b_j \rangle b_j - \sum^n_{j = 1} w^j b_j, v'' \rangle + \langle v' - \sum^n_{j = 1} w^l b_j, v' - \sum^n_{l = 1} w^l b_l \rangle = \langle v'', v'' \rangle + \langle v'', lim_m (\sum^m_{j = 1} \langle v, b_j \rangle b_j - \sum^n_{l = 1} w^l b_l) \rangle + \langle lim_m (\sum^m_{j = 1} \langle v, b_j \rangle b_j - \sum^n_{j = 1} w^j b_j), v'' \rangle + \langle v' - \sum^n_{j = 1} w^l b_j, v' - \sum^n_{l = 1} w^l b_l \rangle = \langle v'', v'' \rangle + lim_m \langle v'', \sum^m_{j = 1} \langle v, b_j \rangle b_j - \sum^n_{l = 1} w^l b_l \rangle + lim_m \langle \sum^m_{j = 1} \langle v, b_j \rangle b_j - \sum^n_{j = 1} w^j b_j, v'' \rangle + \langle v' - \sum^n_{j = 1} w^l b_j, v' - \sum^n_{l = 1} w^l b_l \rangle = \langle v'', v'' \rangle + lim_m 0 + lim_m 0 + \langle v' - \sum^n_{j = 1} w^l b_j, v' - \sum^n_{l = 1} w^l b_l \rangle = \langle v'', v'' \rangle + 0 + 0 + \langle v' - \sum^n_{j = 1} w^l b_j, v' - \sum^n_{l = 1} w^l b_l \rangle\)、それが意味するのは、\(\langle v'', v'' \rangle \le \langle v - w, v - w \rangle\)。
ステップ3:
\(S\)は\(V\)の中でデンス(密)であるから、\((\widetilde{S})\)は\(V\)の中でデンス(密)である、なぜなら、\(S\)の各要素は\(\widetilde{S}\)のリニアコンビネーション(線形結合)である。
\(\epsilon \in \mathbb{R}\)を\(0 \lt \epsilon\)である任意のものとしよう。
以下を満たすある\(w \in (\widetilde{S})\)、つまり、\(\Vert v - w \Vert^2 \lt \epsilon^2\)、がある、なぜなら、\((\widetilde{S})\)は\(V\)内でデンス(密)である。
しかし、ステップ2によって、\(\langle v'', v'' \rangle \le \langle v - w, v - w \rangle \lt \epsilon^2\)、それが意味するのは、\(\langle v'', v'' \rangle = 0\)、それが含意するのは、\(v'' = 0\)。
それが意味するのは、\(v = v'\)。
ステップ4:
したがって、各\(v \in V\)に対して、\(v = \sum_{j} \langle v, b_j \rangle b_j\)。
当該分解がユニークであることを見よう。
第1に、各\(v = \sum_j v^j b_j\)および\(v' = \sum_j v'^j b_j\)に対して、\(v' - v = \sum_j (v'^j - v^j) b_j\)であることを見よう。
\(\Vert v' - v - \sum^n_{j = 1} (v'^j - v^j) b_j \Vert = \Vert (v' - \sum^n_{j = 1} v'^j b_j) - (v - \sum^n_{j = 1} v^j b_j) \Vert \le \Vert v' - \sum^n_{j = 1} v'^j b_j \Vert + \Vert v - \sum^n_{j = 1} v^j b_j \Vert\)、しかし、以下を満たす各\(\epsilon \in \mathbb{R}\)、つまり、\(0 \lt \epsilon\)、に対して、以下を満たすある\(N' \subseteq \mathbb{N}\)、つまり、以下を満たす各\(n \in \mathbb{N}\)、つまり、\(N' \lt n\)、に対して、\(\Vert v' - \sum^n_{j = 1} v'^j b_j \Vert \lt \epsilon / 2\)、があり、以下を満たすある\(N \subseteq \mathbb{N}\)、つまり、以下を満たす各\(n \in \mathbb{N}\)、つまり、\(N \lt n\)、に対して、\(\Vert v - \sum^n_{j = 1} v^j b_j \Vert \lt \epsilon / 2\)、があり、したがって、\(max (N', N)\)を取ることができ、以下を満たす各\(n \in \mathbb{N}\)、つまり、\(max (N', N) \lt n\)、に対して、\(\Vert v' - \sum^n_{j = 1} v'^j b_j \Vert + \Vert v - \sum^n_{j = 1} v^j b_j \Vert \lt \epsilon / 2 + \epsilon / 2 = \epsilon\)、したがって、\(\Vert v' - v - \sum^n_{j = 1} (v'^j - v^j) b_j \Vert \lt \epsilon\)、それが意味するのは、\(v' - v = \sum_j (v'^j - v^j) b_j\)。
第2に、\(v = \sum_j v^j b_j = 0\)は\(v^j = 0\)を含意することを見よう。
もしも、\(v^l \neq 0\)である場合、\(\langle v, b_l \rangle = \langle \sum_j v^j b_j, b_l \rangle = \langle lim_n \sum^n_{j = 1} v^j b_j, b_l \rangle = lim_n \langle \sum^n_{j = 1} v^j b_j, b_l \rangle = lim_n \sum^n_{j = 1} v^j \langle b_j, b_l \rangle = lim_n \sum^n_{j = 1} v^j \delta_{j, l} = lim_n v^l = v^l \neq 0\)、\(v = 0\)に反する矛盾: \(\langle 0, b_l \rangle = c\)に対して、\(\langle 0, b_l \rangle = \langle 0 + 0, b_l \rangle = \langle 0, b_l \rangle + \langle 0, b_l \rangle = c + c = 2 c = c\)、したがって、\(c = 0\)。
さて、もしも、ある\(v = \sum_j v^j b_j\)がある場合、\(0 = v - v = \sum_j (v^j - \langle v, b_j \rangle) b_j\)、それが含意するのは、\(v^j = \langle v, b_j \rangle\)。
したがって、\(\widetilde{S}\)はオーソノーマル(正規直交)シャウダーベーシス(基底)である。