Настоящая история ИИ, часть 1: перцептрон, символьный ИИ и первая зима (1943–1980)
ИИ не появился вместе с ChatGPT. Первый математический нейрон описали в 1943 году, рабочий перцептрон собрали в 1958-м, а к 1969 году нейросети уже похоронили на пятнадцать лет. Откуда на самом деле растёт современный ИИ.
Искусственный интеллект как академическая дисциплина оформился летом 1956 года на конференции в Дартмуте. Первая работающая нейросеть - перцептрон Розенблатта - заработала в 1958 году на компьютере IBM 704. Идее искусственного нейрона к моменту запуска ChatGPT в 2022 году было 79 лет. Большая часть математики, на которой держится современный 'ИИ', была заложена между 1940-ми и 1980-ми.
Ключевые факты
- 1943: Уоррен Мак-Каллок и Уолтер Питтс формализовали первый математический нейрон - за 13 лет до самого термина 'искусственный интеллект'.
- 1958: Перцептрон Розенблатта на IBM 704 классифицировал изображения 20×20 пикселей с точностью около 88% после обучения.
- 1965: программа DENDRAL (Стэнфорд) автоматизировала химический анализ масс-спектров - первая успешная экспертная система.
- 1969: книга Минского и Пейперта 'Перцептроны' показала, что однослойный перцептрон не способен вычислить XOR - финансирование нейросетей было заморожено почти на 15 лет.
- 1973: отчёт Лайтхилла в Великобритании свернул государственные ИИ-программы - официальное начало первой 'зимы ИИ'.
Что было до ChatGPT
Когда в ноябре 2022 года ChatGPT вышел в открытый доступ, у массовой аудитории сложилось ощущение, что искусственный интеллект только что родился. Это не так. К моменту запуска ChatGPT идее искусственного нейрона было 79 лет, термину «искусственный интеллект» - 66 лет, первой работающей обучающейся нейросети - 64 года, а первой коммерческой экспертной системе, экономившей крупному вендору десятки миллионов долларов в год, - 40 лет.
В этой серии из пяти частей я разбираю настоящую историю ИИ - от математического нейрона 1943 года до момента, когда поверх готовой технологии надели чат-интерфейс и весь мир вдруг «узнал об ИИ». Это первая часть: с зарождения идеи до первой «зимы ИИ» 1970-х.
1943: нейрон на бумаге раньше компьютера
В 1943 году нейрофизиолог Уоррен Мак-Каллок и логик Уолтер Питтс опубликовали статью "A Logical Calculus of the Ideas Immanent in Nervous Activity". В ней они формализовали биологический нейрон в виде булевой функции: входы со взвешенными связями, пороговое срабатывание, бинарный выход. Чистая математика - ни одного работающего компьютера ещё не существовало (ENIAC заработает только в 1945-м).
Главная мысль статьи: сети из таких упрощённых нейронов теоретически могут вычислять любую логическую функцию. То есть мозг можно описать как логическую машину, а логическую машину - в принципе - можно построить. Эта работа стала фундаментом всего, что позже назовут нейронными сетями.
1956: Дартмут и рождение термина
Летом 1956 года в Дартмутском колледже состоялась конференция, организованная Джоном Маккарти, Марвином Минским, Натаниэлом Рочестером и Клодом Шенноном. В заявке на неё (1955) Маккарти впервые употребил словосочетание "artificial intelligence" - «искусственный интеллект».
Цель конференции звучала по-сегодняшним меркам наивно и амбициозно одновременно: за два летних месяца десять человек должны были сдвинуть с места проблему машинного интеллекта. Сдвинуть, конечно, не получилось. Но получилось другое: появилось имя поля, появилось сообщество, и почти все участники Дартмута определили направление ИИ-исследований на следующие двадцать лет.
1958: перцептрон Розенблатта - машина, которая училась смотреть
В 1958 году психолог Фрэнк Розенблатт из Корнельской аэронавигационной лаборатории представил перцептрон - первую обучающуюся нейросеть, реализованную в железе. Перцептрон Mark I получал на вход изображение 20×20 пикселей с фотоэлементной матрицы, прогонял его через слой искусственных нейронов и классифицировал. Веса связей хранились в массиве потенциометров, которые обучающий алгоритм физически подкручивал.
Розенблатт продемонстрировал, что машина обучается на примерах - по данным, а не по жёсткой программе. После нескольких сотен примеров перцептрон уверенно различал простые фигуры. Газета New York Times в 1958 году писала о перцептроне как о машине, которая «научится ходить, говорить, видеть, писать, размножаться и осознавать своё существование».
Первая публичная демонстрация обучения на примерах. Современная философия "data + compute + simple update rule" - прямой потомок перцептрона.
1964–1972: эра экспертных систем
Параллельно коннекционизму развивалась вторая, более прагматичная ветвь - символьный ИИ. Вместо нейронов и весов символьный ИИ опирался на правила: «если симптом X и анализ Y, то диагноз Z с уверенностью 0.7».
Несколько ключевых систем:
- ELIZA (Йозеф Вейценбаум, MIT, 1964-1966) - имитация психотерапевта на правилах подстановки. Многие пользователи всерьёз верили, что разговаривают с человеком - первый задокументированный случай «ELIZA-эффекта».
- DENDRAL (Стэнфорд, 1965-) - автоматический анализ масс-спектров для определения химической структуры. Первая по-настоящему успешная экспертная система, работала с реальными лабораторными данными.
- MYCIN (Стэнфорд, 1972-1974) - диагностика бактериальных инфекций и подбор антибиотиков. В слепых тестах MYCIN ставила рекомендации не хуже врачей-инфекционистов.
Символьный ИИ был коммерчески успешен задолго до глубокого обучения. Система XCON в DEC (начало 1980-х) автоматически конфигурировала заказы на компьютеры VAX и экономила компании около 40 миллионов долларов в год. К середине 1980-х рынок экспертных систем оценивали в миллиарды.
1969: книга, заморозившая нейросети на 15 лет
В 1969 году Марвин Минский и Сеймур Пейперт опубликовали книгу "Perceptrons". Они математически показали, что однослойный перцептрон Розенблатта в принципе не может вычислить функцию XOR - элементарную логическую операцию. Книга была написана резко и убедительно.
Технически вывод был верным для однослойной сети. Многослойные сети с нелинейными активациями могли решать XOR без проблем, но устойчивого алгоритма обучения для глубоких сетей в 1969 году ещё не было (он появится только в 1986-м с обратным распространением ошибки). Финансирование нейросетевых исследований по обе стороны Атлантики практически прекратилось. Розенблатт погиб в лодочной аварии в 1971 году, защитников у направления почти не осталось.
Первый зафиксированный случай, когда корректная математика практически убила правильную инженерную идею на полтора десятилетия. Символьный ИИ забрал почти все ресурсы поля.
1973–1980: первая «зима ИИ»
К началу 1970-х у поля накопились системные провалы:
- Машинный перевод не вышел на коммерческое качество. Знаменитая байка про перевод "the spirit is willing, but the flesh is weak" → «виски крепкое, но мясо тухлое» не подтверждена документально, но настроение конца 1960-х передаёт точно.
- Общий ИИ не появился ни через 10, ни через 20 лет, как обещали оптимисты Дартмутской волны.
- Отчёт Лайтхилла (1973), заказанный британским правительством, констатировал, что ИИ-исследования не дают обещанных результатов и финансирование надо урезать.
- DARPA в США сократила программы по распознаванию речи после провала проекта Speech Understanding Research.
С 1974 примерно по 1980 год государственные деньги в ИИ почти не шли. Это и называют первой «зимой ИИ». Исследователи разошлись по соседним полям - статистика, вычислительная лингвистика, базы знаний - но идеи никуда не делись. Они просто ждали железа и алгоритмов.
Личный анекдот: мой первый «противник с интеллектом»
Мой первый осознанный контакт с тем, что я позже узнал как «искусственный интеллект», произошёл в начале 1990-х. У соседа стоял ZX Spectrum с шахматной программой - кажется, "Cyrus". Я был ребёнком, программа меня уверенно обыгрывала, и я был убеждён, что внутри живёт что-то умное.
Через много лет я узнал, что внутри жил алгоритм минимакса с альфа-бета-отсечением - идея, опубликованная в 1950-х, доработанная Дональдом Кнутом в 1975-м. Никаких нейросетей, никакого обучения. Чистый перебор дерева ходов с эвристической оценкой позиции. И вот эту простую штуку 1950-х на 8-битном процессоре 1982 года выпуска образца ZX Spectrum я в десять лет принимал за интеллект.
Это, кажется, главный урок этой части истории. То, что мы называем «интеллектом машины», редко связано с тем, насколько технология новая. Чаще - с тем, насколько хорошо она замаскирована под собеседника. Перцептрон 1958 года, ELIZA 1966 года и шахматы на Spectrum 1980-х производили на современников ровно то же впечатление «магии», что ChatGPT в 2022-м. С той разницей, что у ChatGPT за спиной ещё восемьдесят лет накопленной математики.
Что забрать из этой эпохи
Три тезиса, важных для понимания всего, что было дальше:
- К 1969 году нейросети уже умели обучаться на данных. Не работали хорошо - но сама парадигма (входы → веса → выход → корректировка по ошибке) была заложена. Всё, что произошло в 2010-х, - это масштабирование этой парадигмы на железе, которого в 1969-м не существовало.
- Символьный ИИ был коммерчески успешен раньше нейросетей. Экспертные системы зарабатывали реальные деньги в 1970-х–80-х, когда нейросети были академической нишей. Это важно помнить, когда сегодня кто-то говорит, что «коммерческий ИИ начался с GPT».
- Зимы ИИ происходят из-за отсутствия результата под обещание, а не из-за отсутствия идей. В 1973 году деньги ушли потому, что обещали «общий интеллект через 10 лет», а доставили ELIZA. То, что нейросети при этом ещё и не работали, добавило толчок, но не было причиной. Этот шаблон ещё повторится в конце 1980-х. И, возможно, ждёт нас сегодня.
В следующей части - 1980-е и 1990-е: возвращение нейросетей через обратное распространение ошибки, эра SVM, OCR, который годами читал ваши письма в почтовых отделениях, и почему никто не называл это ИИ.
Часто задаваемые вопросы
Когда на самом деле появился ИИ?
Сам термин 'искусственный интеллект' предложил Джон Маккарти в 1955 году в заявке на летнюю конференцию в Дартмуте, прошедшую в 1956-м. Но математический нейрон Мак-Каллока и Питтса опубликован ещё в 1943 году, а первый рабочий обучающийся перцептрон собран Розенблаттом в 1958-м. К запуску ChatGPT в ноябре 2022 года идее обучаемой нейросети было больше шестидесяти лет.
Что такое первая 'зима ИИ' и почему она наступила?
Первой зимой ИИ называют период примерно с 1974 по 1980 год, когда DARPA в США и государственные программы Великобритании резко сократили финансирование исследований. Причин было три: перцептрон оказался слабее, чем обещали (книга Минского и Пейперта 1969 года), машинный перевод не дотянул до коммерческого качества, а отчёт Лайтхилла 1973 года прямо назвал общие цели ИИ невыполнимыми. Деньги ушли, исследователи разошлись по соседним областям.
Если перцептрон 1958 года был такой плохой, почему мы вернулись к нейросетям?
Перцептрон Розенблатта был однослойным и действительно не мог решать линейно неразделимые задачи - например, XOR. Но многослойные сети с обратным распространением ошибки (1986) эту проблему сняли, а массовое обучение на GPU в 2010-х добавило вычислительную мощность, которой Розенблатту не хватало. То есть идея была правильная, не хватало двух кусков: алгоритма обучения для глубоких сетей и железа.
Использовался ли символьный ИИ коммерчески?
Да, и крайне успешно. Экспертная система XCON (DEC, начало 1980-х) экономила производителю компьютеров около 40 миллионов долларов в год на конфигурации заказов. MYCIN ставила рекомендации по антибиотикам на уровне врачей-инфекционистов. К концу 1980-х рынок экспертных систем оценивали в миллиарды долларов - это была первая большая коммерческая волна ИИ, задолго до глубокого обучения.
Почему об этой истории так редко рассказывают?
Потому что она не вписывается в маркетинговый сюжет 'ИИ родился в ноябре 2022 года'. Журналисты, инвесторы и стартапы заинтересованы в нарративе разрыва - 'до ChatGPT ничего не было'. На деле линия не прерывалась: McCulloch-Pitts → Rosenblatt → Minsky → Hinton → Vaswani → OpenAI. Каждый следующий слой стоит на предыдущем, и без 1960-х не было бы 2020-х.
Читать дальше
Настоящая история ИИ, часть 2: бэкпроп, SVM и вторая зима (1980–2000)
В 1986 году нейросети получили рабочий алгоритм обучения - и большая часть индустрии этого не заметила. Пока мир смотрел на крах экспертных систем, OCR уже годами читал ваши письма на почте, а SVM с тихим лицом выигрывал все соревнования. История 'спрятанного ИИ' между двух зим.
Настоящая история ИИ, часть 5: от трансформера до ChatGPT (2017–2022) и кейс с GPT-2
ChatGPT - это не появление ИИ. Это появление UX поверх технологии, которая росла пять лет: BERT, GPT-1, GPT-2, GPT-3, InstructGPT. Я знаю, потому что в 2019 году собрал коммерческого копирайтера новостей на GPT-2 - за три с половиной года до того, как мир 'узнал об ИИ'.
Настоящая история ИИ, часть 4: большой взрыв глубокого обучения (2012–2017)
30 сентября 2012 года глубокое обучение перестало быть академической нишей. AlexNet выиграл ImageNet с разрывом, которого никто не видел в истории соревнования. Между этим событием и статьёй 'Attention Is All You Need' (декабрь 2017) уместились пять лет, в которые поместилась почти вся современная нейросетевая магия - от word2vec до AlphaGo и GAN.