Skip to content
Volver al blog
AI Technologies

La verdadera historia de la IA, parte 1: perceptrón, IA simbólica y el primer invierno (1943–1980)

La IA no nació con ChatGPT. La primera neurona matemática se describió en 1943, un perceptrón funcional ya operaba en 1958, y para 1969 las redes neuronales ya estaban enterradas durante quince años. De dónde viene en realidad la IA moderna.

Mikhail Savchenko28 de abril de 20268 min de lectura
AIHistoryNeural NetworksSymbolic AI

La inteligencia artificial como disciplina académica recibió su nombre en el verano de 1956 en la conferencia de Dartmouth. La primera red neuronal de aprendizaje funcional - el perceptrón de Rosenblatt - corrió en 1958 sobre una IBM 704. Cuando ChatGPT se lanzó en noviembre de 2022, la idea de la neurona artificial tenía 79 años. Buena parte de las matemáticas que sostienen lo que hoy llamamos 'IA' se asentaron entre los años 40 y los 80.

Datos clave

  • 1943: Warren McCulloch y Walter Pitts formalizan la primera neurona matemática - 13 años antes de que existiera el término 'inteligencia artificial'.
  • 1958: el perceptrón de Rosenblatt sobre IBM 704 clasifica imágenes de 20×20 píxeles con cerca del 88% de precisión tras entrenar.
  • 1965: el programa DENDRAL (Stanford) automatiza el análisis químico de espectros de masas - primer sistema experto exitoso.
  • 1969: el libro 'Perceptrons' de Minsky y Papert demuestra que un perceptrón de una capa no puede calcular XOR - el financiamiento de las redes neuronales se congela casi 15 años.
  • 1973: el informe Lighthill en el Reino Unido cancela los programas estatales de IA - inicio formal del primer 'invierno de la IA'.

Lo que existía antes de ChatGPT

Cuando ChatGPT abrió al público en noviembre de 2022, gran parte de la audiencia se quedó con la sensación de que la IA acababa de nacer. No es así. En esa fecha de lanzamiento la idea de la neurona artificial tenía 79 años, el término "inteligencia artificial" tenía 66 años, la primera red neuronal de aprendizaje funcional tenía 64 años, y el primer sistema experto comercial - que ahorraba a su proveedor decenas de millones de dólares al año - tenía 40 años.

Esta es la primera entrega de una serie de cinco partes sobre la historia real de la IA - desde la neurona matemática de 1943 hasta el momento en que se envolvió una tecnología madura con una interfaz de chat y el mundo "descubrió de pronto la IA". Esta parte cubre desde el nacimiento de la idea hasta el primer invierno de la IA en los 70.

1943: una neurona en papel antes de que existiera el ordenador

En 1943 el neurofisiólogo Warren McCulloch y el lógico Walter Pitts publicaron "A Logical Calculus of the Ideas Immanent in Nervous Activity." Formalizaron la neurona biológica como una función booleana: entradas con pesos, un umbral, una salida binaria. Matemática pura - todavía no existía un ordenador funcional de propósito general (ENIAC arrancaría recién en 1945).

La idea central: redes de estas neuronas simplificadas podían, en principio, calcular cualquier función lógica. El cerebro podía describirse como una máquina lógica, y una máquina lógica podía - en principio - construirse. Este artículo es el cimiento de todo lo que luego se llamará red neuronal.

1956: Dartmouth y el nacimiento del término

En el verano de 1956 se celebró en Dartmouth College una conferencia organizada por John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon. En la propuesta de 1955, McCarthy usó por primera vez por escrito la expresión "artificial intelligence" - "inteligencia artificial".

El objetivo declarado, en términos actuales, sonaba ingenuo y ambicioso a la vez: diez personas, dos meses de verano, y la inteligencia artificial como problema que avanzarían significativamente. El avance no llegó. Lo que sí llegó fue mayor: el campo recibió un nombre, se formó una comunidad y la mayoría de los asistentes a Dartmouth marcaría la agenda de los siguientes veinte años de investigación en IA.

1958: el perceptrón de Rosenblatt - una máquina que aprendía a ver

En 1958, el psicólogo Frank Rosenblatt, del Cornell Aeronautical Laboratory, presentó el Perceptrón - la primera red neuronal de aprendizaje implementada en hardware. El Perceptrón Mark I tomaba una imagen de 20×20 píxeles desde una matriz de fotocélulas, la pasaba por una capa de neuronas artificiales y la clasificaba. Los pesos de las conexiones se almacenaban en un arreglo de potenciómetros físicos que el algoritmo de entrenamiento ajustaba literalmente.

Rosenblatt demostró una máquina que aprendía a partir de ejemplos - a partir de datos, no por reglas codificadas a mano. Tras unos pocos cientos de ejemplos distinguía con confianza figuras simples. El New York Times escribió en 1958 que el Perceptrón "aprenderá a caminar, hablar, ver, escribir, reproducirse y ser consciente de su existencia".

Primera demostración pública del aprendizaje por ejemplos. La filosofía moderna de "datos + cómputo + regla de actualización simple" es descendiente directa del Perceptrón.

1964–1972: la era de los sistemas expertos

En paralelo al conexionismo creció una rama más pragmática: la IA simbólica. En lugar de neuronas y pesos, la IA simbólica funcionaba con reglas: "si síntoma X y resultado de laboratorio Y, entonces diagnóstico Z con confianza 0.7".

Tres sistemas clave:

  • ELIZA (Joseph Weizenbaum, MIT, 1964-1966) - imitación basada en reglas de un psicoterapeuta rogeriano. Muchos usuarios creían sinceramente que conversaban con una persona - el primer "efecto ELIZA" documentado.
  • DENDRAL (Stanford, desde 1965) - análisis automático de espectros de masas para determinar la estructura molecular. Primer sistema experto que funcionaba con datos reales de laboratorio.
  • MYCIN (Stanford, 1972-1974) - diagnóstico de infecciones bacterianas y selección de antibióticos. Las pruebas a ciegas mostraron a MYCIN igualando a especialistas en enfermedades infecciosas.

La IA simbólica fue exitosa comercialmente mucho antes que el aprendizaje profundo. XCON en DEC (principios de los 80) configuraba automáticamente los pedidos de computadoras VAX y ahorraba a la empresa cerca de 40 millones de dólares al año. A mediados de los 80 el mercado de sistemas expertos se estimaba en miles de millones.

1969: el libro que congeló las redes neuronales 15 años

En 1969 Marvin Minsky y Seymour Papert publicaron "Perceptrons". Demostraron matemáticamente que un perceptrón de una capa de Rosenblatt no podía, en principio, calcular XOR - una operación lógica elemental. El libro estaba escrito de forma incisiva y persuasiva.

La demostración era técnicamente correcta para redes de una capa. Las redes multicapa con activaciones no lineales podían resolver XOR sin problema, pero en 1969 no existía aún un algoritmo de entrenamiento estable para redes profundas (llegaría en 1986 con la retropropagación). El financiamiento de las redes neuronales colapsó a ambos lados del Atlántico. Rosenblatt murió en un accidente de bote en 1971; el campo se quedó casi sin defensores.

El primer caso documentado en que matemáticas técnicamente correctas prácticamente mataron una idea de ingeniería sólida durante quince años. La IA simbólica se llevó casi todos los recursos del campo.

1973–1980: el primer invierno de la IA

A inicios de los 70 el campo había acumulado fracasos sistémicos:

  • La traducción automática nunca alcanzó calidad comercial. La famosa anécdota de traducir "the spirit is willing, but the flesh is weak" como "el vodka es bueno pero la carne está podrida" no está documentada, pero captura con exactitud el ánimo de finales de los 60.
  • La inteligencia general no apareció en 10 ni en 20 años, como prometieron los optimistas de Dartmouth.
  • El informe Lighthill (1973), encargado por el gobierno británico, concluyó que la investigación en IA no entregaba lo prometido y que había que recortar el financiamiento.
  • DARPA en EE. UU. recortó los programas de reconocimiento de voz tras el fracaso del proyecto Speech Understanding Research.

Entre 1974 y 1980 aproximadamente, el dinero estatal para IA casi se detuvo. Eso es el primer invierno de la IA. Los investigadores migraron a campos vecinos - estadística, lingüística computacional, bases de conocimiento - pero las ideas no desaparecieron. Solo esperaban hardware y mejores algoritmos.

Anécdota personal: mi primer rival con "inteligencia"

Mi primer contacto consciente con lo que más tarde aprendí a llamar "inteligencia artificial" fue a comienzos de los 90. Un vecino tenía un ZX Spectrum con un programa de ajedrez - creo que era Cyrus. Yo era niño, el programa me ganaba con seguridad, y estaba convencido de que dentro de la máquina vivía algo realmente listo.

Años después aprendí qué vivía allí dentro: el algoritmo minimax con poda alfa-beta - una idea de los años 50, refinada por Donald Knuth en 1975. Ni redes neuronales ni aprendizaje. Búsqueda pura por árbol de jugadas con un evaluador heurístico de la posición. Y esa técnica simple de los 50, corriendo en un procesador de 8 bits de un ZX Spectrum de 1982, bastó para que un niño de diez años creyera en la inteligencia de las máquinas.

Esa, creo, es la lección central de esta parte de la historia. Lo que llamamos "inteligencia de la máquina" rara vez se relaciona con cuán nueva es la tecnología. Se relaciona con qué tan bien la tecnología está disfrazada de interlocutor. El perceptrón de 1958, ELIZA en 1966 y el ajedrez del Spectrum en los 80 producían en sus contemporáneos exactamente la misma reacción de "magia" que ChatGPT en 2022. La diferencia es que detrás de ChatGPT hay ochenta años más de matemáticas acumuladas.

Qué llevarse de esta época

Tres tesis importantes para entender todo lo que sigue:

  1. Para 1969, las redes neuronales ya aprendían de los datos. No funcionaban bien - pero el paradigma (entradas → pesos → salida → ajuste por error) ya estaba puesto. Todo lo que pasó en los 2010 fue escalar ese paradigma sobre hardware que en 1969 no existía.
  2. La IA simbólica fue exitosa comercialmente antes que las redes neuronales. Los sistemas expertos generaban dinero real en los 70 y 80, cuando las redes neuronales eran un nicho académico. Conviene recordarlo cuando alguien hoy afirma que "la IA comercial empezó con GPT".
  3. Los inviernos de la IA ocurren por falta de resultados a la altura de las promesas, no por falta de ideas. En 1973 el dinero se fue porque se prometía "inteligencia general en 10 años" y se entregaba ELIZA. Que las redes neuronales aún no funcionaran sumó presión, pero no fue la causa. El mismo patrón se repetiría a finales de los 80. Y, posiblemente, nos espera hoy.

En la parte 2: los 80 y los 90 - el regreso de las redes neuronales vía retropropagación, la era de los SVM, el OCR que durante años leyó tu correo en las oficinas postales y por qué nadie llamaba a nada de eso IA.

Preguntas frecuentes

¿Cuándo nació realmente la IA?

El término 'inteligencia artificial' lo acuñó John McCarthy en 1955 en la propuesta para la conferencia de Dartmouth de 1956. Pero la neurona matemática de McCulloch-Pitts ya estaba publicada en 1943, y el primer perceptrón de aprendizaje de Rosenblatt funcionaba en 1958. Cuando ChatGPT se lanzó en noviembre de 2022, la idea de la red neuronal entrenable tenía más de sesenta años.

¿Qué fue el primer invierno de la IA y por qué ocurrió?

Se llama primer invierno de la IA al periodo de 1974 a 1980 aproximadamente, cuando DARPA en EE. UU. y los programas estatales del Reino Unido recortaron drásticamente la financiación. Tres causas: el perceptrón rindió por debajo de la promesa (crítica de Minsky y Papert, 1969), la traducción automática nunca alcanzó calidad comercial, y el informe Lighthill de 1973 declaró inalcanzables los objetivos generales de la IA. El dinero se fue, los investigadores se dispersaron a campos vecinos.

Si el perceptrón de 1958 era tan débil, ¿por qué volvimos a las redes neuronales?

El perceptrón de Rosenblatt era de una sola capa y, en efecto, no podía resolver problemas linealmente inseparables como XOR. Pero las redes multicapa con retropropagación (1986) eliminaron esa limitación, y el entrenamiento masivo en GPU en los 2010 aportó la potencia de cómputo que a Rosenblatt le faltaba. La idea era correcta; faltaban dos piezas: un algoritmo de aprendizaje para redes profundas y el hardware para ejecutarlas.

¿La IA simbólica tuvo éxito comercial?

Sí, y mucho. El sistema experto XCON de DEC (principios de los 80) ahorraba al fabricante alrededor de 40 millones de dólares al año configurando pedidos de computadoras VAX. MYCIN igualaba a los médicos infectólogos en recomendaciones de antibióticos. A finales de los 80 el mercado de sistemas expertos se medía en miles de millones - la primera gran ola comercial de IA, mucho antes del aprendizaje profundo.

¿Por qué casi nunca se cuenta esta historia?

Porque no encaja en el relato de marketing de que 'la IA nació en noviembre de 2022'. A periodistas, inversores y startups les conviene la narrativa de ruptura: antes de ChatGPT no había nada. La línea real nunca se rompió: McCulloch-Pitts → Rosenblatt → Minsky → Hinton → Vaswani → OpenAI. Cada capa se apoya en la anterior. Sin los 60 no hay 2020.

Seguir leyendo

La verdadera historia de la IA, parte 1: perceptrón, IA simbólica y el primer invierno (1943–1980) | INITE AI Blog