現代のAIは人工ニューラルネットワーク(NN)に基づいています。誰が発明したのですか? 生物学的ニューラルネットは1880年代に発見されました[CAJ88-06]。「ニューロン」という用語は1891年に造られました[CAJ06]。多くの人は、ニューラルネットワークはその後に開発されたと考えています。しかし実際はそうではありません。2層のユニットを持つ最初の「現代的」NNは、2025年よりもはるかに高価な計算コストがかかった2005年から1805年(1795-1805年)[STI81]によって発明されました。 確かに、人工ニューラルネットという用語が導入されたのは1900年代のかなり後半です。例えば、1943年には特定の非学習型NNが議論されました[MC43]。単純なNN学習ルールに関する非公式な考察は1948年に発表されました[HEB48]。NNの進化的計算は、1948年の未発表報告書[TUR1]で言及されています。1958年[R58]、1961年[R61][ST61-95]、1962年[WID62]に様々な具体的な学習NNが発表されました。 しかし、1900年代半ばのこれらのNN論文は歴史的に興味深いものの、実際にはGauss & Legendreによるはるかに古い適応型NNよりも現代AIとはあまり関係がなく、現在も広く使われており、すべてのNNの基盤であり、最近のより深いNNも含めて[DL25]です。 200年以上前のガウス・ルジャンドルNN[NN25]は、複数の入力単位を持つ入力層と出力層を持っています。簡単にするために、後者は単一の出力ユニットで構成されていると仮定します。各入力単位は実数値を保持でき、出力単位と実数値の重み付き接続で接続されています。NNの出力は、入力の積とその重みの和です。入力ベクトルの訓練セットとそれぞれの目標値が与えられると、NNの重みを調整し、NN出力と対応するターゲット間の誤差の二乗の和[DLH]を最小化します。これにより、NNはこれまで見られなかった試験データの処理に使われます。 もちろん当時はこれはNNとは呼ばれていませんでした。なぜなら、生物学的なニューロンの存在すら知られていなかったからです。神経細胞の最初の顕微鏡像は数十年後の1836年にヴァレンティンによって作成され、「ニューロン」という用語は1891年にヴァルデイヤーによって造られました[CAJ06]。代わりに、この手法は最小二乗法(Method of Least Squares)と呼ばれ、統計学では線形回帰法としても広く知られていました。しかし、数学的には今日の線形2層NNと同一です。同じ基本アルゴリズム、同じ誤差関数、同じ適応パラメータや重みです。このような単純なNNは「浅い学習」を行い、多くの非線形層を持つ「ディープラーニング」とは対照的です[DL25]。実際、多くの現代のNNコースではこの手法の導入から始まり、より複雑で深いNNs(DLH)へと進みます。 1800年代初頭の応用も現代と似ており、前の要素から次の要素を予測することを学ぶことだった。それがCHATGPTのやり方です!ニューネットワークによるパターン認識の最初の有名な例は200年以上前に遡ります。1801年にガウスが再発見した準惑星ケレスです。彼は以前の天文観測からノイズの多いデータポイントを収集し、それを使って予測変数のパラメータを調整し、訓練データから一般化してセレスの新しい位置を正確に予測しました。それが若きガウス[DLH]を有名にした理由です。 古いガウス・ルジャンドルNNは、今日でも無数の用途で使われ続けています。2010年代以降の印象的なAIアプリケーションで使われているNNとの主な違いは何ですか?後者は通常、より深く、多くの中間層の学習「隠れた」ユニットがあります。誰がこれを発明したの?短い回答:イヴァフネンコ&ラパ(1965年)[DEEP1-2]。他の者たちはこれを改良しました[DLH]。関連項目:ディープラーニング[DL25]を発明したのは誰か? 現代のニューニュートンは生物学的な脳に何らかの影響を受けたと信じる人もいます。しかしそれは単純ではありません。生物学的な神経細胞が発見される何十年も前から、単純な工学と数学的問題解決が現在「神経ネットワーク」と呼ばれるものを生み出していました。実際、過去200年間でAI研究はあまり変わっていません。2025年時点で、神経ネットワークの進展は依然として主に工学によって推進されており、神経生理学的な洞察によるものではありません。(数十年前に遡る例外[CN25]がこのルールを裏付けています。) 脚注1。1958年には、ガウス&ルジャンドル様式の単純なNNと出力しきい値関数を組み合わせて、Perceptron[R58][R61][DLH]と呼ばれるパターン分類器を得ました。驚くべきことに、著者ら[R58][R61]は、統計学で「最小二乗法」または「線形回帰法」として知られる、はるかに古いNN(1795-1805)を知らなかったようです。驚くべきことに、今日最も頻繁に使われている2層NNはガウス&ルジャンドルのものであり、1940年代[MC43]や1950年代[R58]のもの(これらは微分すら可能ではありません)ではありません! 主な参考文献([NN25]に多くの追加参考文献 - 上記リンク参照): [CAJ88] S. R. カハル。Estructura de los centros nerviosos de las aves.トリム牧師。ヒストル。ノーム・パトル、1(1888年)、1-10頁。 [CAJ88b] S. R. カハル。Sobre las fibras nerviosas de la capa molecular del cerebelo.トリム牧師。ヒストル。ノーム・パトル、1号(1888年)、33-49頁。 [CAJ89]Conexión general de los elementos nerviosos.Med. Pract., 2 (1889), pp. 341-346. [CAJ06] F. ロペス・ムニョス、J. ボヤ b、C. アラモ(2006年)。神経科学の礎となるニューロン理論、サンティアゴ・ラモン・イ・カハルのノーベル賞受賞100周年にて。Brain Research Bulletin、第70巻、第4–6号、2006年10月16日、391-405ページ。 ...