#OpenAI El concepto de redes neuronales fue inventado en 1943, mucho antes de ChatGPT, Midjourney y otros sistemas de "IA mágica". Dos científicos — McCulloch y Pitts — describieron cómo se podía modelar una neurona utilizando una fórmula. Las computadoras apenas existían, pero ya soñaban con la inteligencia de las máquinas.
🔴 1943 — Warren McCulloch y Walter Pitts crean el primer modelo matemático de una neurona. Pura teoría.
🔴 1957 — Frank Rosenblatt construye el Perceptrón — la primera red neuronal entrenable, funcionando en una computadora militar.
🔴 1969 — Minsky y Papert demuestran que el Perceptrón es demasiado limitado. El interés en el tema se apaga durante décadas.
🔴 1986 — Hinton y colegas reavivan el interés en las redes neuronales proponiendo el algoritmo de retropropagación.
🔴 1990s–2000s — Un letargo. Las redes neuronales funcionan, pero lentamente e ineficientemente. Pocos datos, hardware débil.
🔴 2012 — AlexNet (Hinton de nuevo) gana la competencia de ImageNet. Comienza la era moderna del aprendizaje profundo.
🔴 2014 — VGG16: más profunda, más simple, más poderosa. Una red con convoluciones de 3×3 y 16 capas se convierte en un clásico y la base para muchos modelos.
🔴 2017 — La arquitectura Transformer (artículo Attention is All You Need de un equipo de Google). En lugar de redes recurrentes — pura atención (atención propia), lo que llevó a un gran salto en la velocidad y calidad del entrenamiento. Esta es la base para BERT, GPT, T5, LLaMA y casi todos los modelos de lenguaje modernos.
🔴 2018+ — GPT, Midjourney, IA de voz, bots, agentes, memes. Las redes neuronales están en todas partes.
La idea tiene más de 80 años, pero realmente despegó solo con la llegada de potentes GPUs, grandes datos e Internet.
Más noticias interesantes — suscríbete