連続実数は本当に存在するのか──離散的思考が拓くAIと数学の新境地

前回の記事では、「連続実数」の存在は正しいとも間違っているとも言えず、ゲーデルの不完全性定理の影響を受ける、という驚きの事実を紹介しました。

あわせて読みたい
素数から紐解く世界の秩序 — ゴールドバッハ予想とゲーデルの証明に秘められた数学的真理 古代ギリシアの数学者ピタゴラスは、「万物は数でできている」と唱え、その思想をもとに数学の教団を組織しました。 そして、数にまつわるもう一つの重要な数学的命題が...

つまり、数直線上に“なめらかに”数が詰まっているという前提すら、論理的には確定できないのです。

これは、物理量や時間をどのように扱うかという問題にもつながります。


目次

Volterra級数と離散モデル

Volterra級数という数学モデルがあります。非線形(曲がった関数)かつ記憶を持つシステム、たとえば『今の状態は過去の状態に依存する』といった複雑な現象を扱うのに適した表現です。時間が連続していることを前提としたモデルです。

しかしこれに対し、時間を離散的(とびとびの時刻)に扱いながら、同様の現象を表現する方法があります。それが、

Volterra-Kolmogorov-Gabor(VKG)多項式

\[
y_n = a_0 + \sum_{i=1}^{M} a_i x_i + \sum_{i=1}^{M} \sum_{j=1}^{M} a_{ij} x_i x_j + \sum_{i=1}^{M} \sum_{j=1}^{M} \sum_{k=1}^{M} a_{ijk} x_i x_j x_k + \cdots
\]

\[
\mathbf{X} = (x_1, x_2, \ldots, x_M)
\quad \text{:入力変数ベクトル(説明変数や時系列データ)}
\]

\[
\mathbf{A} = (a_0, a_i, a_{ij}, a_{ijk}, \ldots)
\quad \text{:係数ベクトル(学習されるモデルの重み)}
\]

\[
y_n
\quad \text{:モデルの出力(時刻 } n \text{ における予測値)}
\]

\[
M
\quad \text{:入力変数の数(次元数)}
\]

\[
\sum
\quad \text{:各項にわたる総和(高次の交差項を表す)}
\]

と呼ばれる離散時間モデルです。


VKG多項式とGMDH

このVKG多項式は、以前ブログで述べた「GMDH(Group Method of Data Handling)」という、今あらためて注目されつつある学習アルゴリズムに使われています。

あわせて読みたい
ニューラルネットワークにおける電気的モデルの限界。GMDHに見る磁気的アプローチの可能性。 【はじめに】 現代の人工ニューラルネットワーク(ANN)は、人間の脳の神経細胞(ニューロン)のつながりを模倣して作られています。 その基本的な仕組みは、非常にシン...

GMDHは、ニューラルネットワークよりも人間の論理的推論に近い構造をもつとさえ一部で言われており、次のような特徴があります:

  • 物理量の時系列データ(時間や空間に沿った測定値)をそのまま扱える
  • ノード(処理単位)同士を多項式テンプレートで接続し、ネットワークを自動構築する
  • 非線形な関係をデータ駆動的に抽出できる

このGMDHを考案したアレクセイ・イヴァフネンコは、連続実数のような数学的理想に頼るのではなく、離散的なデータの構造から出発して学習・予測を行うという思想を持っていました。

あわせて読みたい
ディープラーニングは本当に「学習」しているのか──GMDHに見る学びの本質。 【はじめに】 近年、ディープラーニングはAIの中核技術として急速に発展し、画像認識や自然言語処理、音声合成など、さまざまな分野で目覚ましい成果を上げています。 ...

数学的理想からの脱却?

我々が扱う現実世界のデータ――センサー値、時系列、空間の計測――は、すべて離散的にサンプリングされた情報です。にもかかわらず、AIや機械学習ではいまだに「連続的な関数」「なめらかな数直線」を仮定してしまうことが多いのです。

GMDHのようなモデルは、そうした連続性の幻想から一歩離れ、現実的な構造に根ざした推論を志向します。


おわりに

連続か、離散か。この問いは単なる数学の話ではなく、我々のAIの設計思想そのものを揺さぶる論点です。

今後さらに、GMDHやVKG多項式の実装や応用例についても掘り下げていきたいと思います。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

コメント

コメントする

目次