Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
La IA moderna se basa en redes neuronales artificiales (NNs). ¿Quién los inventó?
Las redes neuronales biológicas se descubrieron en la década de 1880 [CAJ88-06]. El término "neurona" fue acuñado en 1891 [CAJ06]. Muchos piensan que las NN se desarrollaron DESPUÉS de eso. Pero no es así: las primeras NN "modernas" con 2 capas de unidades fueron inventadas hace más de 2 siglos (1795-1805) por Legendre (1805) y Gauss (1795, inédito) [STI81], cuando el cálculo era muchas billones de veces más caro que en 2025.
Es cierto que la terminología de redes neuronales artificiales se introdujo mucho más tarde, en el siglo XX. Por ejemplo, ciertos NNs no aprendices se discutieron en 1943 [MC43]. Reflexiones informales sobre una regla sencilla de aprendizaje de NN se publicaron en 1948 [HEB48]. El cálculo evolutivo de las NN fue mencionado en un informe inédito de 1948 [TUR1]. Diversos NNs concretos de aprendizaje se publicaron en 1958 [R58], 1961 [R61][ST61-95] y 1962 [WID62].
Sin embargo, aunque estos artículos sobre NN de mediados del siglo XX son de interés histórico, EN REALIDAD TIENEN MENOS QUE VER CON LA IA MODERNA QUE EL MUCHO MÁS ANTIGUO NN ADAPTATIVO de Gauss y Legendre, que sigue siendo muy utilizado hoy en día, la base misma de todas las NN, incluidas las recientes y más profundas [DL25].
La NN Gauss-Legendre de hace más de 2 siglos [NN25] tiene una capa de entrada con varias unidades de entrada y una capa de salida. Para simplificar, supongamos que esta última consiste en una única unidad de salida. Cada unidad de entrada puede contener un número de valor real y está conectada a la unidad de salida mediante una conexión con un peso de valor real. La salida de la NN es la suma de los productos de las entradas y sus pesos. Dado un conjunto de entrenamiento de vectores de entrada y valores objetivo deseados para cada uno de ellos, los pesos de las NN se ajustan de modo que la suma de los errores cuadráticos entre las salidas de las NN y los objetivos correspondientes se minimice [DLH]. Ahora la NN puede usarse para procesar datos de prueba que no se habían visto antes.
Por supuesto, en aquel entonces esto no se llamaba NN, porque la gente ni siquiera conocía aún las neuronas biológicas: la primera imagen microscópica de una célula nerviosa fue creada décadas después por Valentin en 1836, y el término "neurona" fue acuñado por Waldeyer en 1891 [CAJ06]. En su lugar, la técnica se llamó Método de los Mínimos Cuadrados, también ampliamente conocido en estadística como Regresión Lineal. Pero es MATEMÁTICAMENTE IDÉNTICO a las NN lineales de 2 capas actuales: MISMO algoritmo básico, MISMA función de error, MISMOS parámetros/pesos adaptativos. Estas NN simples realizan "aprendizaje superficial", en contraposición al "aprendizaje profundo" con muchas capas no lineales [DL25]. De hecho, muchos cursos modernos de NN comienzan introduciendo este método y luego pasan a NN más complejos y profundos [DLH].
Incluso las aplicaciones de principios del siglo XIX eran similares a las actuales: aprender a predecir el siguiente elemento de una secuencia, dados elementos previos. ¡ESO ES LO QUE HACE CHATGPT! El primer ejemplo famoso de reconocimiento de patrones a través de una NN data de hace más de 200 años: el redescubrimiento del planeta enano Ceres en 1801 gracias a Gauss, quien recopiló datos ruidosos de observaciones astronómicas previas y luego los utilizó para ajustar los parámetros de un predictor, que esencialmente aprendió a generalizar a partir de los datos de entrenamiento para predecir correctamente la nueva ubicación de Ceres. Eso fue lo que hizo famoso al joven Gauss [DLH].
Las antiguas NN Gauss-Legendre siguen utilizándose hoy en día en innumerables aplicaciones. ¿Cuál es la principal diferencia respecto a las NN utilizadas en algunas de las impresionantes aplicaciones de IA desde la década de 2010? Estos últimos suelen ser mucho más profundos y tienen muchas capas intermedias de unidades de aprendizaje "ocultas". ¿Quién inventó esto? Respuesta corta: Ivakhnenko & Lapa (1965) [DEEP1-2]. Otros refinaron este [DLH]. Véase también: ¿quién inventó el aprendizaje profundo [DL25]?
Algunas personas todavía creen que los NN modernos se inspiraron de alguna manera en el cerebro biológico. Pero eso simplemente no es cierto: décadas antes de que se descubrieran las células nerviosas biológicas, la simple ingeniería y la resolución matemática de problemas ya dieron lugar a lo que ahora se llaman NNs. De hecho, en los últimos dos siglos, no ha cambiado tanto en la investigación en IA: a fecha de 2025, el progreso de las NN sigue estando impulsado principalmente por la ingeniería, no por los conocimientos neurofisiológicos. (Ciertas excepciones que datan de hace muchas décadas [CN25] confirman la regla.)
Nota al pie 1. En 1958, las NN simples al estilo de Gauss & Legendre se combinaron con una función umbral de salida para obtener clasificadores de patrones llamados Perceptrones [R58][R61][DLH]. Sorprendentemente, los autores [R58][R61] parecían desconocer la mucho más antigua NN (1795-1805), conocida en el campo de la estadística como "método de mínimos cuadrados" o "regresión lineal". Sorprendentemente, las NN de 2 capas más utilizadas hoy en día son las de Gauss & Legendre, no las de los años 40 [MC43] y los 50 [R58] (¡que ni siquiera eran diferenciables)!
REFERENCIAS SELECCIONADAS (muchas referencias adicionales en [NN25] - ver enlace arriba):
[CAJ88] S. R. Cajal. Estructura de los centros nerviosos de las aves. Rev. Trim. Histol. Norm. Patol., 1 (1888), pp. 1-10.
[CAJ88b] S. R. Cajal. Sobre las fibras nerviosas de la capa molecular del cerebelo. Rev. Trim. Histol. Norm. Patol., 1 (1888), pp. 33-49.
[CAJ89] Conexión general de los elementos nerviosos. Med. Práct., 2 (1889), pp. 341-346.
[CAJ06] F. López-Muñoz, J. Boya venció, C. Alamo (2006). La teoría neuronal, piedra angular de la neurociencia, en el centenario del premio Nobel a Santiago Ramón y Cajal. Brain Research Bulletin, Volumen 70, Números 4–6, 16 de octubre de 2006, Páginas 391-405.
...

Populares
Ranking
Favoritas

