Trend Olan Konular
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Modern yapay zeka, yapay sinir ağlarına (NN) dayanmaktadır. Kim icat etti?
Biyolojik sinir ağları 1880'lerde keşfedildi [CAJ88-06]. "Nöron" terimi 1891'de ortaya atıldı [CAJ06]. Birçok kişi NN'lerin SONRASI geliştirildiğini düşünüyor. Ama durum böyle değil: 2 katmanlı ilk "modern" NN'ler, 2 yüzyıldan fazla bir süre önce (1795-1805) Legendre (1805) ve Gauss (1795, yayımlanmamış) [STI81] tarafından icat edilmiştir; o dönemde hesaplama 2025'e göre trilyonlarca kat daha pahalıydı.
Doğru, yapay sinir ağları terminolojisi ancak 1900'lerin çok daha sonrasında tanıtıldı. Örneğin, bazı öğrenmeyen NN'ler 1943'te tartışıldı [MC43]. Basit bir NN öğrenme kuralı hakkında gayri resmi düşünceler 1948'de yayımlandı [HEB48]. NN'ler için evrimsel hesaplama, yayımlanmamış 1948 raporunda [TUR1] bahsedilmiştir. Çeşitli somut öğrenme NN'leri 1958 [R58], 1961 [R61][ST61-95] ve 1962 [WID62] yıllarında yayımlandı.
Ancak, 1900'lerin ortalarındaki bu NN makaleleri tarihsel ilgi çekici olsa da, aslında modern yapay zeka ile daha az ilgilidir; Gauss & Legendre'nin çok daha eski uyarlanabilir nn'i (bugün hâlâ yoğun şekilde kullanılan), tüm NN'lerin, özellikle son zamanlarda daha derin olan NN'lerin temelini oluşturan [DL25].
İki yüzyıldan fazla önceki Gauss-Legendre NN [NN25] birkaç giriş birimi ve çıkış katmanı ile bir giriş katmanına sahiptir. Basitlik için, ikincisinin tek bir çıkış biriminden oluştuğunu varsayalım. Her giriş birimi gerçek değerli bir sayı tutabilir ve gerçek değerli bir ağırlıkta bir bağlantı ile çıkış birimine bağlanır. NN'nin çıktısı, girdilerin çarpımlarının ve ağırlıklarının toplamıdır. Her biri için istenen hedef değerler ve giriş vektörlerinden oluşan bir eğitim seti verildiğinde, NN ağırlıkları NN çıktıları ile ilgili hedefler arasındaki kare hataların toplamı en aza indirilecek şekilde ayarlanır [DLH]. Artık NN, daha önce görülmemiş test verilerini işlemek için kullanılabilir.
Tabii ki, o zamanlar buna NN denmiyordu, çünkü insanlar biyolojik nöronlardan henüz habersizdi - bir sinir hücresinin ilk mikroskobik görüntüsü on yıllar sonra, 1836'da Valentin tarafından oluşturuldu ve "nöron" terimi 1891'de Waldeyer tarafından ortaya atıldı [CAJ06]. Bunun yerine, bu tekniğe En Küçük Kareler Yöntemi denildi ve istatistikte yaygın olarak Doğrusal Regresyon olarak da bilinir. Ama bugünün lineer 2 katmanlı NN'leriyle MATEMATİKİK OLARAK EYNİ: AYNI temel algoritma, AYNI hata fonksiyonu, AYNI uyarlanabilir parametreler/ağırlıklar. Bu tür basit NN'ler, birçok doğrusal olmayan katmana sahip "derin öğrenme" yerine "sığ öğrenme" gerçekleştirir [DL25]. Aslında, birçok modern NN kursu bu yöntemi tanıtarak başlar, sonra daha karmaşık ve derin NN'lere geçer [DLH].
1800'lerin başındaki uygulamalar bile bugünkülere benziyordu: önceki unsurlar verilmiş bir dizi sonraki elemanı tahmin etmeyi öğrenin. CHATGPT BUNU YAPAR! NN aracılığıyla desen tanımanın ilk ünlü örneği 200 yıldan fazla bir zamana dayanır: 1801'de Gauss aracılığıyla cüce gezegen Ceres'in yeniden keşfi; Gauss, önceki astronomik gözlemlerden gürültülü veri noktaları topladı ve bunları kullanarak bir tahmin cihazının parametrelerini ayarlamak için kullandı; bu da eğitim verilerinden genellemeyi öğrenerek Ceres'in yeni konumunu doğru şekilde tahmin etmeyi öğrendi. Genç Gauss'u ünlü yapan şey buydu [DLH].
Eski Gauss-Legendre NN'ler bugün hâlâ sayısız uygulamada kullanılmaktadır. 2010'lardan bu yana etkileyici yapay zeka uygulamalarında kullanılan NN'lerden en büyük fark nedir? İkinciler genellikle çok daha derindir ve birçok ara katmanlı "gizli" öğrenme ünitesi içerir. Bunu kim icat etti? Kısa cevap: Ivakhnenko & Lapa (1965) [DEEP1-2]. Diğerleri bunu [DLH] geliştirdi. Ayrıca bakınız: derin öğrenmeyi [DL25]'i kim icat etti?
Bazı insanlar hâlâ modern NN'lerin bir şekilde biyolojik beyinden ilham aldığına inanıyor. Ama bu kesinlikle doğru değil: biyolojik sinir hücreleri keşfedilmeden onlarca yıl önce, basit mühendislik ve matematiksel problem çözme sayesinde şimdi NN denilen şeyler ortaya çıkmıştı. Aslında, son 2 yüzyılda yapay zeka araştırmalarında pek bir değişiklik olmadı: 2025 itibarıyla NN'deki ilerleme hâlâ büyük ölçüde mühendislik tarafından yönlendirilmektedir, nörofizyolojik içgörülerden ziyade. (Bazı istisnalar onlarca yıl öncesine dayanıyor [CN25] kuralı doğruluyor.)
Dipnot 1. 1958'de, Gauss & Legendre tarzındaki basit NN'ler, Perceptrons [R58][R61][DLH] adı verilen desen sınıflandırıcıları elde etmek için çıktı eşik fonksiyonuyla birleştirildi. Şaşırtıcı bir şekilde, yazarlar [R58][R61] istatistik alanında "en küçük kareler yöntemi" veya "doğrusal gerileme" olarak bilinen çok daha eski NN (1795-1805) hakkında habersiz görünüyorlardı. İlginç bir şekilde, günümüzde en çok kullanılan 2 katmanlı NN'ler Gauss & Legendre'ninkilerdir; 1940'lar [MC43] ve 1950'ler [R58] (ki bunlar bile farklılaştırılabilir değildi)!
SEÇTİK REFERANSLAR ([NN25]'te birçok ek referans - yukarıdaki bağlantıya bakınız):
[CAJ88] S. R. Cajal. Estructura de los centros nerviosos de las aves. Rahip Trim. Histol. Norm. Patol., 1 (1888), s. 1-10.
[CAJ88b] S. R. Cajal. Sobre las fibras nerviosas de la capa molecular del cerebelo. Rahip Trim. Histol. Norm. Patol., 1 (1888), s. 33-49.
[CAJ89] Conexión general de los elementos nerviosos. Med. Práct., 2 (1889), s. 341-346.
[CAJ06] F. López-Muñoz, J. Boya b, C. Alamo (2006). Nöronbilimin temel taşı olan Nöron teorisi, Nobel Ödülü ödülünün yüzüncü yılına Santiago Ramón y Cajal'a verildi. Beyin Araştırmaları Bülteni, Cilt 70, Sayı 4–6, 16 Ekim 2006, Sayfa 391-405.
...

En İyiler
Sıralama
Takip Listesi

