Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Moderní AI je založena na umělých neuronových sítích (NN). Kdo je vynalezl?
Biologické neuronové sítě byly objeveny v 80. letech 19. století [CAJ88-06]. Termín "neuron" byl vytvořen v roce 1891 [CAJ06]. Mnozí si myslí, že neuronové sítě vznikly až POTOM. Ale není tomu tak: první "moderní" NN se dvěma vrstvami jednotek byly vynalezeny před více než 2 stoletími (1795–1805) Legendrem (1805) a Gaussem (1795, nepublikováno) [STI81], kdy výpočetní kapacita byla mnohonásobně bilionkrát dražší než v roce 2025.
Je pravda, že terminologie umělých neuronových sítí byla zavedena až mnohem později v 20. století. Například některé neučící se neuronální sítě byly diskutovány v roce 1943 [MC43]. Neformální úvahy o jednoduchém pravidle učení NN byly publikovány v roce 1948 [HEB48]. Evoluční výpočty pro NN byly zmíněny v nepublikované zprávě z roku 1948 [TUR1]. Různé konkrétní učící neuronové sítě byly publikovány v letech 1958 [R58], 1961 [R61][ST61-95] a 1962 [WID62].
Nicméně, zatímco tyto NN články z poloviny 20. století jsou historicky zajímavé, MAJÍ VE SKUTEČNOSTI MÉNĚ SPOLEČNÉHO S MODERNÍ AI NEŽ MNOHEM STARŠÍ ADAPTIVE NN od Gausse a Legendreho, která je stále hojně používána dodnes, což je samotný základ všech NN, včetně nedávných hlubších NN [DL25].
Gauss-Legendre NN starý více než 2 století [NN25] má vstupní vrstvu s několika vstupními jednotkami a výstupní vrstvu. Pro zjednodušení předpokládejme, že druhý z nich se skládá z jedné výstupní jednotky. Každá vstupní jednotka může obsahovat reálné číslo a je spojena s výstupní jednotkou spojením s reálnou váhou. Výstup NN je součtem součinů vstupů a jejich vah. Pro trénovací sadu vstupních vektorů a požadovaných cílových hodnot pro každý z nich jsou váhy NN upraveny tak, aby součet čtvercových chyb mezi výstupy NN a odpovídajícími cíli byl minimalizován [DLH]. Nyní lze NN použít ke zpracování dosud neviděných testovacích dat.
Samozřejmě, tehdy se tomu neříkalo NN, protože lidé ještě ani nevěděli o biologických neuronech – první mikroskopický obraz nervové buňky vytvořil Valentin o desítky let později v roce 1836 a termín "neuron" zavedl Waldeyer v roce 1891 [CAJ06]. Místo toho byla tato technika nazývána metoda nejmenších čtverců, ve statistice také široce známá jako lineární regrese. Ale je MATEMATICKY IDENTICKÝ s dnešními lineárními dvouvrstvými NNs: STEJNÝ základní algoritmus, STEJNÁ chybová funkce, STEJNÉ adaptivní parametry/váhy. Takové jednoduché neuronové sítě provádějí "mělké učení", na rozdíl od "hlubokého učení" s mnoha nelineárními vrstvami [DL25]. Ve skutečnosti mnoho moderních kurzů NN začíná zavedením této metody a poté přechází k složitějším a hlubším NN [DLH].
Dokonce i aplikace z počátku 19. století byly podobné dnešním: naučit se předpovídat další prvek sekvence na základě předchozích prvků. TO JE TO, CO CHATGPT DĚLÁ! První slavný příklad rozpoznávání vzorů prostřednictvím NN sahá více než 200 let zpět: znovuobjevení trpasličí planety Ceres v roce 1801 Gaussem, který sbíral hlučné datové body z předchozích astronomických pozorování a poté je použil k úpravě parametrů prediktoru, který se v podstatě naučil zobecňovat z trénovacích dat a správně předpovědět novou polohu Ceres. To je to, co mladého Gausse proslavilo [DLH].
Staré Gauss-Legendre NN se stále používají v nesčetných aplikacích. Jaký je hlavní rozdíl oproti neuronovým sítím používaným v některých působivých AI aplikacích od roku 2010? Ty jsou obvykle mnohem hlubší a mají mnoho mezistupňů učení "skrytých" jednotek. Kdo to vymyslel? Krátká odpověď: Ivakhnenko & Lapa (1965) [DEEP1-2]. Jiní to [DLH] zdokonalili. Viz také: kdo vynalezl hluboké učení [DL25]?
Někteří lidé stále věří, že moderní neuronautické sítě byly nějakým způsobem inspirovány biologickým mozkem. Ale to prostě není pravda: desetiletí před objevem biologických nervových buněk už jednoduché inženýrství a matematické řešení problémů vedly k tomu, co dnes nazýváme neuronovými sítěmi. Ve skutečnosti se za poslední dvě století ve výzkumu AI příliš nezměnilo: k roku 2025 je pokrok v NN stále převážně poháněn inženýrstvím, nikoli neurofyziologickými poznatky. (Některé výjimky sahající mnoho desetiletí zpět [CN25] toto pravidlo potvrzují.)
Poznámka pod čarou 1. V roce 1958 byly jednoduché NN ve stylu Gausse & Legendrea kombinovány s výstupní prahovou funkcí za účelem získání klasifikátorů vzorů nazývaných Perceptrony [R58][R61][DLH]. Překvapivě autoři [R58][R61] zřejmě netušili o mnohem starším NN (1795–1805), který je ve statistice známý jako "metoda nejmenších čtverců" nebo "lineární regrese". Pozoruhodné je, že dnes nejčastěji používané dvouvrstvé NN jsou ty od Gausse a Legendre, nikoli ty z 40. let [MC43] a 50. let [R58] (které nebyly ani diferencovatelné)!
VYBRANÉ REFERENCE (mnoho dalších odkazů v [NN25] – viz odkaz výše):
[CAJ88] S. R. Cajal. Estructura de los centros nerviosos de las aves. Reverend Trim. Histol. Norm. Patol., 1 (1888), s. 1-10.
[CAJ88b] S. R. Cajal. Sobere las fibras nerviosas de la capa molecular del cerebelo. Reverend Trim. Histol. Norm. Patol., 1 (1888), s. 33-49.
[CAJ89] Conexión general de los elementos nerviosos. Med. Práct., 2 (1889), s. 341-346.
[CAJ06] F. López-Muñoz, J. Boya b, C. Alamo (2006). Teorie neuronů, základní kámen neurovědy, u příležitosti stého výročí udělení Nobelovy ceny Santiagu Ramónovi y Cajalovi. Brain Research Bulletin, svazek 70, čísla 4–6, 16. října 2006, strany 391–405.
...

Top
Hodnocení
Oblíbené

