Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Moderne AI er basert på kunstige nevrale nettverk (NN). Hvem fant dem opp?
Biologiske nevrale nett ble oppdaget på 1880-tallet [CAJ88-06]. Begrepet «nevron» ble introdusert i 1891 [CAJ06]. Mange tror at neurale nettverk ble utviklet ETTER det. Men det er ikke tilfelle: de første «moderne» NN-ene med to lag av enheter ble oppfunnet for over 2 århundrer siden (1795–1805) av Legendre (1805) og Gauss (1795, upublisert) [STI81], da beregning var mange billioner ganger dyrere enn i 2025.
Det er sant at terminologien kunstige nevrale nett først ble introdusert mye senere på 1900-tallet. For eksempel ble visse ikke-lærende NN-er diskutert i 1943 [MC43]. Uformelle tanker om en enkel læringsregel for det ikke-menneskelige systemet ble publisert i 1948 [HEB48]. Evolusjonær beregning for neurale nettverk ble nevnt i en upublisert rapport fra 1948 [TUR1]. Ulike konkrete lærings-NN-er ble publisert i 1958 [R58], 1961 [R61][ST61-95] og 1962 [WID62].
Men selv om disse NN-artiklene fra midten av 1900-tallet er av historisk interesse, HAR DE FAKTISK MINDRE Å GJØRE MED MODERNE AI ENN DEN MYE ELDRE ADAPTIVE NN av Gauss & Legendre, som fortsatt er mye brukt i dag, selve grunnlaget for alle NN-er, inkludert de nyere dypere NN-ene [DL25].
Gauss-Legendre NN fra over 200 år siden [NN25] har et inngangslag med flere inngangsenheter, og et utgangslag. For enkelhets skyld, la oss anta at sistnevnte består av en enkelt utgangsenhet. Hver inngangsenhet kan inneholde et reelt tall og er koblet til utgangsenheten med en forbindelse med reell vekt. NNs output er summen av produktene til innsatsfaktorene og deres vekter. Gitt et treningssett med inputvektorer og ønskede målverdier for hver av dem, justeres NN-vektene slik at summen av kvadrerte feil mellom NN-utgangene og de tilsvarende målene minimeres [DLH]. Nå kan NN brukes til å behandle tidligere usett testdata.
Selvfølgelig ble ikke dette kalt et nevron den gangen, fordi folk ikke engang visste om biologiske nevroner ennå – det første mikroskopiske bildet av en nervecelle ble laget flere tiår senere av Valentin i 1836, og begrepet «nevron» ble laget av Waldeyer i 1891 [CAJ06]. I stedet ble teknikken kalt Minste kvadraters metode, også kjent i statistikk som lineær regresjon. Men den er MATEMATISK IDENTISK med dagens lineære 2-lags NN: SAMME grunnleggende algoritme, SAMME feilfunksjon, SAMME adaptive parametere/vekter. Slike enkle NN-er utfører «grunnlæring», i motsetning til «dyp læring» med mange ikke-lineære lag [DL25]. Faktisk starter mange moderne NN-kurs med å introdusere denne metoden, og går deretter videre til mer komplekse, dypere NN-er [DLH].
Selv anvendelsene fra tidlig 1800-tall var like dagens s: lær å forutsi neste element i en sekvens, gitt tidligere elementer. DET ER DET CHATGPT GJØR! Det første kjente eksempelet på mønstergjenkjenning gjennom et NN går over 200 år tilbake: gjenoppdagelsen av dvergplaneten Ceres i 1801 gjennom Gauss, som samlet inn støyende datapunkter fra tidligere astronomiske observasjoner, og deretter brukte dem til å justere parameterne til en prediktor, som i praksis lærte å generalisere fra treningsdataene for å korrekt forutsi den nye plasseringen av Ceres. Det var det som gjorde den unge Gauss berømt [DLH].
De gamle Gauss-Legendre NN-ene brukes fortsatt i utallige applikasjoner i dag. Hva er hovedforskjellen fra de NN-ene som har vært brukt i noen av de imponerende AI-applikasjonene siden 2010-tallet? De sistnevnte er vanligvis mye dypere og har mange mellomliggende lag med «skjulte» læringsenheter. Hvem fant opp dette? Kort svar: Ivakhnenko & Lapa (1965) [DEEP1-2]. Andre forbedret dette [DLH]. Se også: hvem oppfant dyp læring [DL25]?
Noen tror fortsatt at moderne neurale nettverk på en eller annen måte ble inspirert av den biologiske hjernen. Men det er rett og slett ikke sant: tiår før biologiske nerveceller ble oppdaget, førte ren ingeniørkunst og matematisk problemløsning allerede til det som nå kalles neurale nettverk. Faktisk har ikke så mye endret seg i AI-forskningen de siste to århundrene: per 2025 drives fremgangen i NN fortsatt hovedsakelig av ingeniørkunst, ikke av nevrofysiologiske innsikter. (Visse unntak som går mange tiår tilbake [CN25] bekrefter regelen.)
Fotnote 1. I 1958 ble enkle NN-er i stil med Gauss & Legendre kombinert med en utgangsterskelfunksjon for å oppnå mønsterklassifikatorer kalt Perceptrons [R58][R61][DLH]. Forbløffende nok virket forfatterne [R58][R61] uvitende om den mye tidligere NN (1795-1805) kjent innen statistikk som «minste kvadraters metode» eller «lineær regresjon». Merkverdig nok er dagens mest brukte 2-lags NN-er de fra Gauss & Legendre, ikke de fra 1940-tallet [MC43] og 1950-tallet [R58] (som ikke engang var deriverbare)!
UTVALGTE REFERANSER (mange flere referanser i [NN25] – se lenke ovenfor):
[CAJ88] S. R. Cajal. Estructura de los centros nerviosos de las aves. Rev. Trim. Histol. Norm. Patol., 1 (1888), s. 1-10.
[CAJ88b] S. R. Cajal. Sobre las fibras nerviosas de la capa molecular del cerebelo. Rev. Trim. Histol. Norm. Patol., 1 (1888), s. 33-49.
[CAJ89] Conexión general de los elementos nerviosos. Med. Práct., 2 (1889), s. 341-346.
[CAJ06] F. López-Muñoz, J. Boya b, C. Alamo (2006). Nevronteori, hjørnesteinen i nevrovitenskapen, på hundreårsjubileet for Nobelprisen til Santiago Ramón y Cajal. Brain Research Bulletin, bind 70, utgaver 4–6, 16. oktober 2006, sider 391–405.
...

Topp
Rangering
Favoritter

