Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Сучасний ШІ базується на штучних нейронних мережах (НН). Хто їх винайшов?
Біологічні нейронні мережі були відкриті у 1880-х роках [CAJ88-06]. Термін «нейрон» був введений у 1891 році [CAJ06]. Багато хто вважає, що НН були розроблені ПІСЛЯ ЦЬОГО. Але це не так: перші «сучасні» NN з двома шарами одиниць були винайдені понад 2 століття тому (1795–1805) Лежандром (1805) та Гауссом (1795, неопубліковано) [STI81], коли обчислення було в трильйони разів дорожчим, ніж у 2025 році.
Правда, термінологія штучних нейронних мереж була введена значно пізніше, у 1900-х роках. Наприклад, у 1943 році обговорювалися деякі ненавчальні НН [MC43]. Неформальні думки щодо простого правила навчання NN були опубліковані у 1948 році [HEB48]. Еволюційні обчислення для НН згадувалися у неопублікованому звіті 1948 року [TUR1]. Різні конкретні навчальні NN були опубліковані у 1958 [R58], 1961 [R61][ST61-95] та 1962 [WID62].
Однак, хоча ці статті NN середини 1900-х мають історичний інтерес, вони насправді мають менше спільного з сучасним штучним інтелектом, ніж значно старіший адаптивний nn від Gauss і Legendre, який досі широко використовується і є основою всіх NN, включаючи нещодавні глибші NN [DL25].
NN Гаусса-Лежандра понад два століття тому [NN25] має вхідний шар із кількома вхідними блоками та вихідний шар. Для простоти припустимо, що останній складається з одного вихідного блоку. Кожен вхідний блок може містити дійсне число і з'єднаний з вихідним блоком через з'єднання з дійсною вагою. Вихід NN — це сума добутків входів і їхніх ваг. Маючи навчальний набір вхідних векторів і бажані цільові значення для кожного з них, ваги NN коригуються так, щоб сума квадратів похибок між виходами NN і відповідними цільовими значеннями мінімізувалася [DLH]. Тепер NN можна використовувати для обробки раніше небачних тестових даних.
Звісно, тоді це не називалося НН, бо люди ще навіть не знали про біологічні нейрони — перше мікроскопічне зображення нервової клітини було створене десятиліттями потому, Валентином у 1836 році, а термін «нейрон» був введений Вальдейєром у 1891 році [CAJ06]. Натомість техніка отримала назву Метод найменших квадратів, також широко відомий у статистиці як лінійна регресія. Але він МАТЕМАТИЧНО ІДЕНТИЧНИЙ сучасним лінійним двошаровим NN: ТОЙ самий базовий алгоритм, ТА Ж похибка, ТІ ж адаптивні параметри/ваги. Такі прості NN виконують «поверхневе навчання», на відміну від «глибокого навчання» з багатьма нелінійними шарами [DL25]. Насправді багато сучасних курсів NN починають із введення цього методу, а потім переходять до складніших, глибших NN [DLH].
Навіть застосування початку 1800-х років були схожі на сучасні: навчитися передбачати наступний елемент послідовності, враховуючи попередні елементи. ОСЬ ЧИМ ЗАЙМАЄТЬСЯ CHATGPT! Перший відомий приклад розпізнавання закономірностей за допомогою NN датується понад 200 роками тому: повторне відкриття карликової планети Церера у 1801 році за допомогою Гауса, який зібрав гучні дані з попередніх астрономічних спостережень, а потім використав їх для коригування параметрів предиктора, який фактично навчився узагальнювати з навчальних даних для правильного прогнозування нового місця розташування Церери. Саме це зробило молодого Гаусса відомим [DLH].
Старі NN Gauss-Legendre досі використовуються у безлічі застосувань. Яка основна відмінність від NN, які використовуються в деяких вражаючих AI-застосунках з 2010-х років? Останні зазвичай набагато глибші і мають багато проміжних шарів «прихованих» навчальних одиниць. Хто це винайшов? Коротка відповідь: Івахненко та Лапа (1965) [DEEP1-2]. Інші вдосконалили це [DLH]. Дивіться також: хто винайшов глибоке навчання [DL25]?
Деякі люди досі вважають, що сучасні НН були нібито натхненні біологічним мозком. Але це просто не так: десятиліття до відкриття біологічних нервових клітин звичайна інженерія та математичне розв'язання проблем вже призвели до появи того, що зараз називають NN. Насправді, за останні два століття в дослідженнях ШІ мало що змінилося: станом на 2025 рік прогрес NN все ще здебільшого зумовлений інженерією, а не нейрофізіологічними інсайтами. (Деякі винятки, що датуються багатьма десятиліттями назад [CN25], підтверджують це правило.)
Примітка 1. У 1958 році прості NN у стилі Гауса і Лежандра були поєднані з функцією вихідного порогу для отримання класифікаторів шаблонів, які називалися перцептрони [R58][R61][DLH]. Дивовижно, але автори [R58][R61], здається, не знали про набагато раніший NN (1795–1805), відомий у статистиці як «метод найменших квадратів» або «лінійна регресія». Вражаюче, що найчастіше використовувані сьогодні двошарові NN — це Gauss і Legendre, а не ті, що 1940-х [MC43] і 1950-х [R58] (які навіть не були диференційованими)!
ВИБРАНІ ПОСИЛАННЯ (багато додаткових посилань у [NN25] — див. посилання вище):
[CAJ88] С. Р. Кахаль. Estructura de los centros nerviosos de las aves. Преподобний Трім. Гістол. Norm. Patol., 1 (1888), с. 1-10.
[CAJ88b] С. Р. Кахаль. Sobre las fibras nerviosas de la capa molecular del cerebelo. Преподобний Трім. Гістол. Norm. Patol., 1 (1888), с. 33-49.
[CAJ89] Conexión general de los elementos nerviosos. Med. Práct., 2 (1889), с. 341-346.
[CAJ06] Ф. Лопес-Муньос, Х. Боя б, К. Аламо (2006). Теорія нейронів, наріжний камінь нейронауки, до сторіччя Нобелівської премії Сантьяго Рамона і Кахаля. Brain Research Bulletin, том 70, випуски 4–6, 16 жовтня 2006, сторінки 391-405.
...

Найкращі
Рейтинг
Вибране

