Skip to content
Voltar ao blog
AI Technologies

A verdadeira história da IA, parte 1: perceptron, IA simbólica e o primeiro inverno (1943–1980)

A IA não chegou com o ChatGPT. O primeiro neurônio matemático foi descrito em 1943, um perceptron funcional já operava em 1958, e em 1969 as redes neurais já estavam enterradas havia quinze anos. De onde a IA moderna realmente vem.

Mikhail Savchenko28 de abril de 20267 min de leitura
AIHistoryNeural NetworksSymbolic AI

A inteligência artificial como disciplina acadêmica foi nomeada no verão de 1956 na conferência de Dartmouth. A primeira rede neural de aprendizado funcional - o perceptron de Rosenblatt - rodou em 1958 num IBM 704. Quando o ChatGPT foi lançado em novembro de 2022, a ideia do neurônio artificial tinha 79 anos. Boa parte da matemática que sustenta o que hoje chamamos de 'IA' foi assentada entre os anos 1940 e 1980.

Fatos-chave

  • 1943: Warren McCulloch e Walter Pitts formalizam o primeiro neurônio matemático - 13 anos antes do termo 'inteligência artificial' existir.
  • 1958: o perceptron de Rosenblatt no IBM 704 classifica imagens de 20×20 pixels com cerca de 88% de acurácia após o treinamento.
  • 1965: o programa DENDRAL (Stanford) automatiza a análise química de espectros de massa - primeiro sistema especialista bem-sucedido.
  • 1969: o livro 'Perceptrons' de Minsky e Papert prova que um perceptron de uma camada não consegue computar XOR - o financiamento de redes neurais evapora por quase 15 anos.
  • 1973: o relatório Lighthill no Reino Unido encerra os programas governamentais de IA - início formal do primeiro 'inverno da IA'.

O que existia antes do ChatGPT

Quando o ChatGPT abriu ao público em novembro de 2022, boa parte da audiência saiu convencida de que a IA tinha acabado de nascer. Não tinha. Naquela data de lançamento, a ideia do neurônio artificial tinha 79 anos, o termo "inteligência artificial" tinha 66 anos, a primeira rede neural de aprendizado funcional tinha 64 anos, e o primeiro sistema especialista comercial - que economizava ao seu fornecedor dezenas de milhões de dólares por ano - tinha 40 anos.

Esta é a primeira parte de uma série de cinco episódios sobre a história real da IA - do neurônio matemático de 1943 ao momento em que uma interface de chat foi colocada sobre uma tecnologia madura e o mundo "descobriu de repente a IA". Este capítulo cobre desde o nascimento da ideia até o primeiro inverno da IA dos anos 1970.

1943: um neurônio no papel antes do computador

Em 1943, o neurofisiologista Warren McCulloch e o lógico Walter Pitts publicaram "A Logical Calculus of the Ideas Immanent in Nervous Activity." Eles formalizaram o neurônio biológico como uma função booleana: entradas com pesos, um limiar, uma saída binária. Matemática pura - ainda não existia um computador funcional de propósito geral (o ENIAC só rodaria em 1945).

A ideia central: redes desses neurônios simplificados podiam, em princípio, computar qualquer função lógica. O cérebro podia ser descrito como uma máquina lógica, e uma máquina lógica podia - em princípio - ser construída. Este artigo é o alicerce de tudo o que mais tarde se chamou de rede neural.

1956: Dartmouth e o nascimento do termo

No verão de 1956, uma conferência no Dartmouth College foi organizada por John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon. A proposta de 1955 trazia o primeiro uso por escrito da expressão "artificial intelligence" por McCarthy - "inteligência artificial".

O objetivo declarado, pelos padrões de hoje, soava ingênuo e ambicioso ao mesmo tempo: dez pessoas, dois meses de verão, e a inteligência de máquinas como problema que avançariam de forma significativa. O avanço não veio. O que veio foi maior: o campo ganhou um nome, formou-se uma comunidade e a maior parte dos participantes de Dartmouth definiu a agenda dos vinte anos seguintes da pesquisa em IA.

1958: o perceptron de Rosenblatt - uma máquina que aprendia a ver

Em 1958, o psicólogo Frank Rosenblatt, do Cornell Aeronautical Laboratory, apresentou o Perceptron - a primeira rede neural de aprendizado implementada em hardware. O Perceptron Mark I recebia uma imagem de 20×20 pixels de uma matriz de fotocélulas, passava por uma camada de neurônios artificiais e a classificava. Os pesos das conexões eram armazenados em um arranjo de potenciômetros físicos que o algoritmo de treinamento literalmente girava.

Rosenblatt demonstrou uma máquina que aprendia a partir de exemplos - a partir de dados, e não de regras codificadas à mão. Após algumas centenas de exemplos, distinguia com confiança formas simples. O New York Times escreveu em 1958 que o Perceptron "aprenderá a caminhar, falar, ver, escrever, reproduzir-se e ter consciência da própria existência".

Primeira demonstração pública de aprendizado por exemplos. A filosofia moderna de "dados + computação + regra simples de atualização" é descendente direta do Perceptron.

1964–1972: a era dos sistemas especialistas

Em paralelo ao conexionismo, cresceu um ramo mais pragmático: a IA simbólica. Em vez de neurônios e pesos, a IA simbólica rodava em regras: "se sintoma X e resultado de exame Y, então diagnóstico Z com confiança 0,7".

Três sistemas marcantes:

  • ELIZA (Joseph Weizenbaum, MIT, 1964-1966) - imitação baseada em regras de um psicoterapeuta rogeriano. Muitos usuários acreditavam sinceramente estar conversando com uma pessoa - o primeiro "efeito ELIZA" documentado.
  • DENDRAL (Stanford, a partir de 1965) - análise automática de espectros de massa para determinar estrutura molecular. Primeiro sistema especialista que funcionava com dados reais de laboratório.
  • MYCIN (Stanford, 1972-1974) - diagnóstico de infecções bacterianas e seleção de antibióticos. Em testes cegos, o MYCIN igualava especialistas em doenças infecciosas.

A IA simbólica teve sucesso comercial muito antes do aprendizado profundo. O XCON na DEC (início dos anos 1980) configurava automaticamente os pedidos de computadores VAX e economizava à empresa cerca de 40 milhões de dólares por ano. Em meados dos anos 1980, o mercado de sistemas especialistas era estimado em bilhões.

1969: o livro que congelou as redes neurais por 15 anos

Em 1969, Marvin Minsky e Seymour Papert publicaram "Perceptrons". Eles provaram matematicamente que um perceptron de uma camada de Rosenblatt não podia, em princípio, computar XOR - uma operação lógica elementar. O livro foi escrito de forma incisiva e persuasiva.

A prova era tecnicamente correta para redes de uma camada. Redes multicamadas com ativações não lineares podiam resolver XOR sem problema, mas em 1969 não existia ainda um algoritmo de treinamento estável para redes profundas (chegaria em 1986 com a retropropagação). O financiamento da pesquisa em redes neurais entrou em colapso nos dois lados do Atlântico. Rosenblatt morreu em um acidente de barco em 1971; o campo ficou quase sem defensores.

O primeiro caso documentado em que matemática tecnicamente correta praticamente matou uma ideia de engenharia sólida por quinze anos. A IA simbólica levou quase todos os recursos do campo.

1973–1980: o primeiro inverno da IA

No início dos anos 1970 o campo havia acumulado falhas sistêmicas:

  • A tradução automática nunca atingiu qualidade comercial. A famosa anedota de traduzir "the spirit is willing, but the flesh is weak" como "a vodka é boa, mas a carne está podre" não está documentada, mas captura com precisão o clima do final dos anos 1960.
  • A inteligência geral não apareceu em 10 nem em 20 anos, como os otimistas de Dartmouth haviam prometido.
  • O relatório Lighthill (1973), encomendado pelo governo britânico, concluiu que a pesquisa em IA não entregava o prometido e que o financiamento deveria ser cortado.
  • A DARPA, nos EUA, cortou os programas de reconhecimento de fala após o fracasso do projeto Speech Understanding Research.

De aproximadamente 1974 a 1980, o dinheiro governamental para IA quase parou. Esse é o primeiro inverno da IA. Os pesquisadores migraram para campos vizinhos - estatística, linguística computacional, bases de conhecimento - mas as ideias nunca desapareceram. Apenas esperavam hardware e algoritmos melhores.

Anedota pessoal: meu primeiro adversário "inteligente"

Meu primeiro contato consciente com aquilo que mais tarde aprendi a chamar de "inteligência artificial" aconteceu no início dos anos 1990. Um vizinho tinha um ZX Spectrum rodando um programa de xadrez - acho que era o Cyrus. Eu era criança, o programa me vencia com facilidade, e eu estava convencido de que dentro daquela máquina vivia algo genuinamente inteligente.

Anos depois descobri o que de fato vivia ali dentro: o algoritmo minimax com poda alfa-beta - uma ideia dos anos 1950, refinada por Donald Knuth em 1975. Nem rede neural, nem aprendizado. Pura busca em árvore de jogadas com um avaliador heurístico da posição. E essa técnica simples dos anos 1950, rodando em um processador de 8 bits de um ZX Spectrum de 1982, foi suficiente para que uma criança de dez anos acreditasse em inteligência de máquina.

Essa, eu acho, é a lição central desta parte da história. O que chamamos de "inteligência da máquina" raramente segue o quanto a tecnologia é, de fato, nova. Segue o quanto a tecnologia está disfarçada de interlocutor. O perceptron de 1958, o ELIZA em 1966 e o xadrez do Spectrum nos anos 1980 produziam em seus contemporâneos exatamente a mesma reação de "magia" que o ChatGPT produziu em 2022. A diferença é que atrás do ChatGPT existem oitenta anos a mais de matemática acumulada.

O que levar dessa época

Três teses importantes para entender tudo o que vem a seguir:

  1. Em 1969, as redes neurais já aprendiam a partir de dados. Não funcionavam bem - mas o paradigma (entradas → pesos → saída → ajuste pelo erro) já estava posto. Tudo o que aconteceu nos anos 2010 foi escalar esse paradigma em um hardware que em 1969 não existia.
  2. A IA simbólica teve sucesso comercial antes das redes neurais. Os sistemas especialistas geravam dinheiro real nos anos 1970 e 1980, quando as redes neurais eram um nicho acadêmico. Vale lembrar disso quando alguém hoje afirma que "a IA comercial começou com o GPT".
  3. Os invernos da IA ocorrem por falta de resultados à altura das promessas, e não por falta de ideias. Em 1973 o dinheiro saiu porque se prometia "inteligência geral em 10 anos" e se entregava ELIZA. O fato de as redes neurais ainda não funcionarem somou pressão, mas não foi a causa. O mesmo padrão se repetiria no fim dos anos 1980. E, possivelmente, nos espera hoje.

Na parte 2: os anos 1980 e 1990 - o retorno das redes neurais via retropropagação, a era dos SVMs, o OCR que durante anos leu o seu correio nas agências dos Correios e por que ninguém chamava nada disso de IA.

Perguntas frequentes

Quando a IA realmente começou?

O termo 'inteligência artificial' foi cunhado por John McCarthy em 1955, na proposta para a conferência de Dartmouth de 1956. Mas o neurônio matemático de McCulloch-Pitts já havia sido publicado em 1943, e o primeiro perceptron de aprendizado de Rosenblatt rodava em 1958. No lançamento do ChatGPT em novembro de 2022, a ideia da rede neural treinável tinha mais de sessenta anos.

O que foi o primeiro inverno da IA e por que aconteceu?

O primeiro inverno da IA foi o período de aproximadamente 1974 a 1980, quando a DARPA nos EUA e os programas governamentais do Reino Unido cortaram drasticamente o financiamento da pesquisa. Três causas: o perceptron rendeu menos do que o prometido (crítica de Minsky e Papert em 1969), a tradução automática nunca atingiu qualidade comercial, e o relatório Lighthill de 1973 declarou inviáveis os objetivos gerais da IA. O dinheiro saiu, os pesquisadores se dispersaram para campos vizinhos.

Se o perceptron de 1958 era tão fraco, por que voltamos às redes neurais?

O perceptron de Rosenblatt era de uma única camada e de fato não conseguia resolver problemas linearmente inseparáveis, como XOR. Mas as redes multicamadas com retropropagação (1986) removeram esse limite, e o treinamento em GPUs nos anos 2010 forneceu o poder computacional que faltava a Rosenblatt. A ideia estava certa; faltavam duas peças: um algoritmo de aprendizado para redes profundas e o hardware para rodá-lo.

A IA simbólica teve sucesso comercial?

Sim, e enorme. O sistema especialista XCON na DEC (início dos anos 1980) economizava ao fabricante cerca de 40 milhões de dólares por ano configurando pedidos de computadores VAX. O MYCIN igualava médicos infectologistas em recomendações de antibióticos. No fim dos anos 1980, o mercado de sistemas especialistas era estimado em bilhões - a primeira grande onda comercial de IA, muito antes do aprendizado profundo.

Por que essa história quase nunca é contada?

Porque não encaixa no roteiro de marketing de que 'a IA nasceu em novembro de 2022'. Para jornalistas, investidores e startups, o discurso de ruptura é conveniente: nada existia antes do ChatGPT. A linha real nunca se rompeu: McCulloch-Pitts → Rosenblatt → Minsky → Hinton → Vaswani → OpenAI. Cada camada se apoia na anterior. Sem os anos 60 não há os anos 2020.

Continue lendo

A verdadeira história da IA, parte 1: perceptron, IA simbólica e o primeiro inverno (1943–1980) | INITE AI Blog