#OpenAI Концепция нейронных сетей была придумана еще в 1943 году, задолго до появления ChatGPT, Midjourney и других "магических ИИ" систем. Два ученых — МакКуллох и Питтс — описали, как нейрон можно смоделировать с помощью формулы. Компьютеры едва существовали, но они уже мечтали о машинном интеллекте.
🔴 1943 — Уоррен МакКуллох и Уолтер Питтс создают первую математическую модель нейрона. Чистая теория.
🔴 1957 — Фрэнк Розенблатт строит Перцептрон — первую обучаемую нейронную сеть, работающую на военном компьютере.
🔴 1969 — Мински и Паперт доказывают, что Перцептрон слишком ограничен. Интерес к теме угасает на десятилетия.
🔴 1986 — Хинтон и коллеги возрождают интерес к нейронным сетям, предложив алгоритм обратного распространения ошибки.
🔴 1990-е–2000-е — Затишье. Нейронные сети работают, но медленно и неэффективно. Мало данных, слабое оборудование.
🔴 2012 — AlexNet (снова Хинтон) выигрывает соревнование ImageNet. Начинается современная эпоха глубокого обучения.
🔴 2014 — VGG16: глубже, проще, мощнее. Сеть с 3×3 свертками и 16 слоями становится классикой и основой для многих моделей.
🔴 2017 — Архитектура Трансформер (статья "Внимание — это всё, что вам нужно" от команды Google). Вместо рекуррентных сетей — чистое внимание (самовнимание), что привело к значительному скачку в скорости и качестве обучения. Это основа для BERT, GPT, T5, LLaMA и почти всех современных языковых моделей.
🔴 2018+ — GPT, Midjourney, голосовые ИИ, боты, агенты, мемы. Нейронные сети повсюду.
Идея более 80 лет, но она действительно взлетела только с появлением мощных графических процессоров, больших данных и интернета.
Более интересные новости — подписывайтесь