Skip to content
К списку статей
AI Technologies

Настоящая история ИИ, часть 1: перцептрон, символьный ИИ и первая зима (1943–1980)

ИИ не появился вместе с ChatGPT. Первый математический нейрон описали в 1943 году, рабочий перцептрон собрали в 1958-м, а к 1969 году нейросети уже похоронили на пятнадцать лет. Откуда на самом деле растёт современный ИИ.

Mikhail Savchenko28 апреля 2026 г.6 мин чтения
AIHistoryNeural NetworksSymbolic AI

Искусственный интеллект как академическая дисциплина оформился летом 1956 года на конференции в Дартмуте. Первая работающая нейросеть - перцептрон Розенблатта - заработала в 1958 году на компьютере IBM 704. Идее искусственного нейрона к моменту запуска ChatGPT в 2022 году было 79 лет. Большая часть математики, на которой держится современный 'ИИ', была заложена между 1940-ми и 1980-ми.

Ключевые факты

  • 1943: Уоррен Мак-Каллок и Уолтер Питтс формализовали первый математический нейрон - за 13 лет до самого термина 'искусственный интеллект'.
  • 1958: Перцептрон Розенблатта на IBM 704 классифицировал изображения 20×20 пикселей с точностью около 88% после обучения.
  • 1965: программа DENDRAL (Стэнфорд) автоматизировала химический анализ масс-спектров - первая успешная экспертная система.
  • 1969: книга Минского и Пейперта 'Перцептроны' показала, что однослойный перцептрон не способен вычислить XOR - финансирование нейросетей было заморожено почти на 15 лет.
  • 1973: отчёт Лайтхилла в Великобритании свернул государственные ИИ-программы - официальное начало первой 'зимы ИИ'.

Что было до ChatGPT

Когда в ноябре 2022 года ChatGPT вышел в открытый доступ, у массовой аудитории сложилось ощущение, что искусственный интеллект только что родился. Это не так. К моменту запуска ChatGPT идее искусственного нейрона было 79 лет, термину «искусственный интеллект» - 66 лет, первой работающей обучающейся нейросети - 64 года, а первой коммерческой экспертной системе, экономившей крупному вендору десятки миллионов долларов в год, - 40 лет.

В этой серии из пяти частей я разбираю настоящую историю ИИ - от математического нейрона 1943 года до момента, когда поверх готовой технологии надели чат-интерфейс и весь мир вдруг «узнал об ИИ». Это первая часть: с зарождения идеи до первой «зимы ИИ» 1970-х.

1943: нейрон на бумаге раньше компьютера

В 1943 году нейрофизиолог Уоррен Мак-Каллок и логик Уолтер Питтс опубликовали статью "A Logical Calculus of the Ideas Immanent in Nervous Activity". В ней они формализовали биологический нейрон в виде булевой функции: входы со взвешенными связями, пороговое срабатывание, бинарный выход. Чистая математика - ни одного работающего компьютера ещё не существовало (ENIAC заработает только в 1945-м).

Главная мысль статьи: сети из таких упрощённых нейронов теоретически могут вычислять любую логическую функцию. То есть мозг можно описать как логическую машину, а логическую машину - в принципе - можно построить. Эта работа стала фундаментом всего, что позже назовут нейронными сетями.

1956: Дартмут и рождение термина

Летом 1956 года в Дартмутском колледже состоялась конференция, организованная Джоном Маккарти, Марвином Минским, Натаниэлом Рочестером и Клодом Шенноном. В заявке на неё (1955) Маккарти впервые употребил словосочетание "artificial intelligence" - «искусственный интеллект».

Цель конференции звучала по-сегодняшним меркам наивно и амбициозно одновременно: за два летних месяца десять человек должны были сдвинуть с места проблему машинного интеллекта. Сдвинуть, конечно, не получилось. Но получилось другое: появилось имя поля, появилось сообщество, и почти все участники Дартмута определили направление ИИ-исследований на следующие двадцать лет.

1958: перцептрон Розенблатта - машина, которая училась смотреть

В 1958 году психолог Фрэнк Розенблатт из Корнельской аэронавигационной лаборатории представил перцептрон - первую обучающуюся нейросеть, реализованную в железе. Перцептрон Mark I получал на вход изображение 20×20 пикселей с фотоэлементной матрицы, прогонял его через слой искусственных нейронов и классифицировал. Веса связей хранились в массиве потенциометров, которые обучающий алгоритм физически подкручивал.

Розенблатт продемонстрировал, что машина обучается на примерах - по данным, а не по жёсткой программе. После нескольких сотен примеров перцептрон уверенно различал простые фигуры. Газета New York Times в 1958 году писала о перцептроне как о машине, которая «научится ходить, говорить, видеть, писать, размножаться и осознавать своё существование».

Первая публичная демонстрация обучения на примерах. Современная философия "data + compute + simple update rule" - прямой потомок перцептрона.

1964–1972: эра экспертных систем

Параллельно коннекционизму развивалась вторая, более прагматичная ветвь - символьный ИИ. Вместо нейронов и весов символьный ИИ опирался на правила: «если симптом X и анализ Y, то диагноз Z с уверенностью 0.7».

Несколько ключевых систем:

  • ELIZA (Йозеф Вейценбаум, MIT, 1964-1966) - имитация психотерапевта на правилах подстановки. Многие пользователи всерьёз верили, что разговаривают с человеком - первый задокументированный случай «ELIZA-эффекта».
  • DENDRAL (Стэнфорд, 1965-) - автоматический анализ масс-спектров для определения химической структуры. Первая по-настоящему успешная экспертная система, работала с реальными лабораторными данными.
  • MYCIN (Стэнфорд, 1972-1974) - диагностика бактериальных инфекций и подбор антибиотиков. В слепых тестах MYCIN ставила рекомендации не хуже врачей-инфекционистов.

Символьный ИИ был коммерчески успешен задолго до глубокого обучения. Система XCON в DEC (начало 1980-х) автоматически конфигурировала заказы на компьютеры VAX и экономила компании около 40 миллионов долларов в год. К середине 1980-х рынок экспертных систем оценивали в миллиарды.

1969: книга, заморозившая нейросети на 15 лет

В 1969 году Марвин Минский и Сеймур Пейперт опубликовали книгу "Perceptrons". Они математически показали, что однослойный перцептрон Розенблатта в принципе не может вычислить функцию XOR - элементарную логическую операцию. Книга была написана резко и убедительно.

Технически вывод был верным для однослойной сети. Многослойные сети с нелинейными активациями могли решать XOR без проблем, но устойчивого алгоритма обучения для глубоких сетей в 1969 году ещё не было (он появится только в 1986-м с обратным распространением ошибки). Финансирование нейросетевых исследований по обе стороны Атлантики практически прекратилось. Розенблатт погиб в лодочной аварии в 1971 году, защитников у направления почти не осталось.

Первый зафиксированный случай, когда корректная математика практически убила правильную инженерную идею на полтора десятилетия. Символьный ИИ забрал почти все ресурсы поля.

1973–1980: первая «зима ИИ»

К началу 1970-х у поля накопились системные провалы:

  • Машинный перевод не вышел на коммерческое качество. Знаменитая байка про перевод "the spirit is willing, but the flesh is weak" → «виски крепкое, но мясо тухлое» не подтверждена документально, но настроение конца 1960-х передаёт точно.
  • Общий ИИ не появился ни через 10, ни через 20 лет, как обещали оптимисты Дартмутской волны.
  • Отчёт Лайтхилла (1973), заказанный британским правительством, констатировал, что ИИ-исследования не дают обещанных результатов и финансирование надо урезать.
  • DARPA в США сократила программы по распознаванию речи после провала проекта Speech Understanding Research.

С 1974 примерно по 1980 год государственные деньги в ИИ почти не шли. Это и называют первой «зимой ИИ». Исследователи разошлись по соседним полям - статистика, вычислительная лингвистика, базы знаний - но идеи никуда не делись. Они просто ждали железа и алгоритмов.

Личный анекдот: мой первый «противник с интеллектом»

Мой первый осознанный контакт с тем, что я позже узнал как «искусственный интеллект», произошёл в начале 1990-х. У соседа стоял ZX Spectrum с шахматной программой - кажется, "Cyrus". Я был ребёнком, программа меня уверенно обыгрывала, и я был убеждён, что внутри живёт что-то умное.

Через много лет я узнал, что внутри жил алгоритм минимакса с альфа-бета-отсечением - идея, опубликованная в 1950-х, доработанная Дональдом Кнутом в 1975-м. Никаких нейросетей, никакого обучения. Чистый перебор дерева ходов с эвристической оценкой позиции. И вот эту простую штуку 1950-х на 8-битном процессоре 1982 года выпуска образца ZX Spectrum я в десять лет принимал за интеллект.

Это, кажется, главный урок этой части истории. То, что мы называем «интеллектом машины», редко связано с тем, насколько технология новая. Чаще - с тем, насколько хорошо она замаскирована под собеседника. Перцептрон 1958 года, ELIZA 1966 года и шахматы на Spectrum 1980-х производили на современников ровно то же впечатление «магии», что ChatGPT в 2022-м. С той разницей, что у ChatGPT за спиной ещё восемьдесят лет накопленной математики.

Что забрать из этой эпохи

Три тезиса, важных для понимания всего, что было дальше:

  1. К 1969 году нейросети уже умели обучаться на данных. Не работали хорошо - но сама парадигма (входы → веса → выход → корректировка по ошибке) была заложена. Всё, что произошло в 2010-х, - это масштабирование этой парадигмы на железе, которого в 1969-м не существовало.
  2. Символьный ИИ был коммерчески успешен раньше нейросетей. Экспертные системы зарабатывали реальные деньги в 1970-х–80-х, когда нейросети были академической нишей. Это важно помнить, когда сегодня кто-то говорит, что «коммерческий ИИ начался с GPT».
  3. Зимы ИИ происходят из-за отсутствия результата под обещание, а не из-за отсутствия идей. В 1973 году деньги ушли потому, что обещали «общий интеллект через 10 лет», а доставили ELIZA. То, что нейросети при этом ещё и не работали, добавило толчок, но не было причиной. Этот шаблон ещё повторится в конце 1980-х. И, возможно, ждёт нас сегодня.

В следующей части - 1980-е и 1990-е: возвращение нейросетей через обратное распространение ошибки, эра SVM, OCR, который годами читал ваши письма в почтовых отделениях, и почему никто не называл это ИИ.

Часто задаваемые вопросы

Когда на самом деле появился ИИ?

Сам термин 'искусственный интеллект' предложил Джон Маккарти в 1955 году в заявке на летнюю конференцию в Дартмуте, прошедшую в 1956-м. Но математический нейрон Мак-Каллока и Питтса опубликован ещё в 1943 году, а первый рабочий обучающийся перцептрон собран Розенблаттом в 1958-м. К запуску ChatGPT в ноябре 2022 года идее обучаемой нейросети было больше шестидесяти лет.

Что такое первая 'зима ИИ' и почему она наступила?

Первой зимой ИИ называют период примерно с 1974 по 1980 год, когда DARPA в США и государственные программы Великобритании резко сократили финансирование исследований. Причин было три: перцептрон оказался слабее, чем обещали (книга Минского и Пейперта 1969 года), машинный перевод не дотянул до коммерческого качества, а отчёт Лайтхилла 1973 года прямо назвал общие цели ИИ невыполнимыми. Деньги ушли, исследователи разошлись по соседним областям.

Если перцептрон 1958 года был такой плохой, почему мы вернулись к нейросетям?

Перцептрон Розенблатта был однослойным и действительно не мог решать линейно неразделимые задачи - например, XOR. Но многослойные сети с обратным распространением ошибки (1986) эту проблему сняли, а массовое обучение на GPU в 2010-х добавило вычислительную мощность, которой Розенблатту не хватало. То есть идея была правильная, не хватало двух кусков: алгоритма обучения для глубоких сетей и железа.

Использовался ли символьный ИИ коммерчески?

Да, и крайне успешно. Экспертная система XCON (DEC, начало 1980-х) экономила производителю компьютеров около 40 миллионов долларов в год на конфигурации заказов. MYCIN ставила рекомендации по антибиотикам на уровне врачей-инфекционистов. К концу 1980-х рынок экспертных систем оценивали в миллиарды долларов - это была первая большая коммерческая волна ИИ, задолго до глубокого обучения.

Почему об этой истории так редко рассказывают?

Потому что она не вписывается в маркетинговый сюжет 'ИИ родился в ноябре 2022 года'. Журналисты, инвесторы и стартапы заинтересованы в нарративе разрыва - 'до ChatGPT ничего не было'. На деле линия не прерывалась: McCulloch-Pitts → Rosenblatt → Minsky → Hinton → Vaswani → OpenAI. Каждый следующий слой стоит на предыдущем, и без 1960-х не было бы 2020-х.

Читать дальше

AI Technologies

Настоящая история ИИ, часть 2: бэкпроп, SVM и вторая зима (1980–2000)

В 1986 году нейросети получили рабочий алгоритм обучения - и большая часть индустрии этого не заметила. Пока мир смотрел на крах экспертных систем, OCR уже годами читал ваши письма на почте, а SVM с тихим лицом выигрывал все соревнования. История 'спрятанного ИИ' между двух зим.

29 апр. 2026 г.7 min
Читать
AI Technologies

Настоящая история ИИ, часть 5: от трансформера до ChatGPT (2017–2022) и кейс с GPT-2

ChatGPT - это не появление ИИ. Это появление UX поверх технологии, которая росла пять лет: BERT, GPT-1, GPT-2, GPT-3, InstructGPT. Я знаю, потому что в 2019 году собрал коммерческого копирайтера новостей на GPT-2 - за три с половиной года до того, как мир 'узнал об ИИ'.

2 мая 2026 г.7 min
Читать
AI Technologies

Настоящая история ИИ, часть 4: большой взрыв глубокого обучения (2012–2017)

30 сентября 2012 года глубокое обучение перестало быть академической нишей. AlexNet выиграл ImageNet с разрывом, которого никто не видел в истории соревнования. Между этим событием и статьёй 'Attention Is All You Need' (декабрь 2017) уместились пять лет, в которые поместилась почти вся современная нейросетевая магия - от word2vec до AlphaGo и GAN.

1 мая 2026 г.7 min
Читать
Настоящая история ИИ, часть 1: перцептрон, символьный ИИ и первая зима (1943–1980) | INITE AI Blog