La verdadera historia de la IA, parte 1: perceptrón, IA simbólica y el primer invierno (1943–1980)
La IA no nació con ChatGPT. La primera neurona matemática se describió en 1943, un perceptrón funcional ya operaba en 1958, y para 1969 las redes neuronales ya estaban enterradas durante quince años. De dónde viene en realidad la IA moderna.
La inteligencia artificial como disciplina académica recibió su nombre en el verano de 1956 en la conferencia de Dartmouth. La primera red neuronal de aprendizaje funcional - el perceptrón de Rosenblatt - corrió en 1958 sobre una IBM 704. Cuando ChatGPT se lanzó en noviembre de 2022, la idea de la neurona artificial tenía 79 años. Buena parte de las matemáticas que sostienen lo que hoy llamamos 'IA' se asentaron entre los años 40 y los 80.
Datos clave
- 1943: Warren McCulloch y Walter Pitts formalizan la primera neurona matemática - 13 años antes de que existiera el término 'inteligencia artificial'.
- 1958: el perceptrón de Rosenblatt sobre IBM 704 clasifica imágenes de 20×20 píxeles con cerca del 88% de precisión tras entrenar.
- 1965: el programa DENDRAL (Stanford) automatiza el análisis químico de espectros de masas - primer sistema experto exitoso.
- 1969: el libro 'Perceptrons' de Minsky y Papert demuestra que un perceptrón de una capa no puede calcular XOR - el financiamiento de las redes neuronales se congela casi 15 años.
- 1973: el informe Lighthill en el Reino Unido cancela los programas estatales de IA - inicio formal del primer 'invierno de la IA'.
Lo que existía antes de ChatGPT
Cuando ChatGPT abrió al público en noviembre de 2022, gran parte de la audiencia se quedó con la sensación de que la IA acababa de nacer. No es así. En esa fecha de lanzamiento la idea de la neurona artificial tenía 79 años, el término "inteligencia artificial" tenía 66 años, la primera red neuronal de aprendizaje funcional tenía 64 años, y el primer sistema experto comercial - que ahorraba a su proveedor decenas de millones de dólares al año - tenía 40 años.
Esta es la primera entrega de una serie de cinco partes sobre la historia real de la IA - desde la neurona matemática de 1943 hasta el momento en que se envolvió una tecnología madura con una interfaz de chat y el mundo "descubrió de pronto la IA". Esta parte cubre desde el nacimiento de la idea hasta el primer invierno de la IA en los 70.
1943: una neurona en papel antes de que existiera el ordenador
En 1943 el neurofisiólogo Warren McCulloch y el lógico Walter Pitts publicaron "A Logical Calculus of the Ideas Immanent in Nervous Activity." Formalizaron la neurona biológica como una función booleana: entradas con pesos, un umbral, una salida binaria. Matemática pura - todavía no existía un ordenador funcional de propósito general (ENIAC arrancaría recién en 1945).
La idea central: redes de estas neuronas simplificadas podían, en principio, calcular cualquier función lógica. El cerebro podía describirse como una máquina lógica, y una máquina lógica podía - en principio - construirse. Este artículo es el cimiento de todo lo que luego se llamará red neuronal.
1956: Dartmouth y el nacimiento del término
En el verano de 1956 se celebró en Dartmouth College una conferencia organizada por John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon. En la propuesta de 1955, McCarthy usó por primera vez por escrito la expresión "artificial intelligence" - "inteligencia artificial".
El objetivo declarado, en términos actuales, sonaba ingenuo y ambicioso a la vez: diez personas, dos meses de verano, y la inteligencia artificial como problema que avanzarían significativamente. El avance no llegó. Lo que sí llegó fue mayor: el campo recibió un nombre, se formó una comunidad y la mayoría de los asistentes a Dartmouth marcaría la agenda de los siguientes veinte años de investigación en IA.
1958: el perceptrón de Rosenblatt - una máquina que aprendía a ver
En 1958, el psicólogo Frank Rosenblatt, del Cornell Aeronautical Laboratory, presentó el Perceptrón - la primera red neuronal de aprendizaje implementada en hardware. El Perceptrón Mark I tomaba una imagen de 20×20 píxeles desde una matriz de fotocélulas, la pasaba por una capa de neuronas artificiales y la clasificaba. Los pesos de las conexiones se almacenaban en un arreglo de potenciómetros físicos que el algoritmo de entrenamiento ajustaba literalmente.
Rosenblatt demostró una máquina que aprendía a partir de ejemplos - a partir de datos, no por reglas codificadas a mano. Tras unos pocos cientos de ejemplos distinguía con confianza figuras simples. El New York Times escribió en 1958 que el Perceptrón "aprenderá a caminar, hablar, ver, escribir, reproducirse y ser consciente de su existencia".
Primera demostración pública del aprendizaje por ejemplos. La filosofía moderna de "datos + cómputo + regla de actualización simple" es descendiente directa del Perceptrón.
1964–1972: la era de los sistemas expertos
En paralelo al conexionismo creció una rama más pragmática: la IA simbólica. En lugar de neuronas y pesos, la IA simbólica funcionaba con reglas: "si síntoma X y resultado de laboratorio Y, entonces diagnóstico Z con confianza 0.7".
Tres sistemas clave:
- ELIZA (Joseph Weizenbaum, MIT, 1964-1966) - imitación basada en reglas de un psicoterapeuta rogeriano. Muchos usuarios creían sinceramente que conversaban con una persona - el primer "efecto ELIZA" documentado.
- DENDRAL (Stanford, desde 1965) - análisis automático de espectros de masas para determinar la estructura molecular. Primer sistema experto que funcionaba con datos reales de laboratorio.
- MYCIN (Stanford, 1972-1974) - diagnóstico de infecciones bacterianas y selección de antibióticos. Las pruebas a ciegas mostraron a MYCIN igualando a especialistas en enfermedades infecciosas.
La IA simbólica fue exitosa comercialmente mucho antes que el aprendizaje profundo. XCON en DEC (principios de los 80) configuraba automáticamente los pedidos de computadoras VAX y ahorraba a la empresa cerca de 40 millones de dólares al año. A mediados de los 80 el mercado de sistemas expertos se estimaba en miles de millones.
1969: el libro que congeló las redes neuronales 15 años
En 1969 Marvin Minsky y Seymour Papert publicaron "Perceptrons". Demostraron matemáticamente que un perceptrón de una capa de Rosenblatt no podía, en principio, calcular XOR - una operación lógica elemental. El libro estaba escrito de forma incisiva y persuasiva.
La demostración era técnicamente correcta para redes de una capa. Las redes multicapa con activaciones no lineales podían resolver XOR sin problema, pero en 1969 no existía aún un algoritmo de entrenamiento estable para redes profundas (llegaría en 1986 con la retropropagación). El financiamiento de las redes neuronales colapsó a ambos lados del Atlántico. Rosenblatt murió en un accidente de bote en 1971; el campo se quedó casi sin defensores.
El primer caso documentado en que matemáticas técnicamente correctas prácticamente mataron una idea de ingeniería sólida durante quince años. La IA simbólica se llevó casi todos los recursos del campo.
1973–1980: el primer invierno de la IA
A inicios de los 70 el campo había acumulado fracasos sistémicos:
- La traducción automática nunca alcanzó calidad comercial. La famosa anécdota de traducir "the spirit is willing, but the flesh is weak" como "el vodka es bueno pero la carne está podrida" no está documentada, pero captura con exactitud el ánimo de finales de los 60.
- La inteligencia general no apareció en 10 ni en 20 años, como prometieron los optimistas de Dartmouth.
- El informe Lighthill (1973), encargado por el gobierno británico, concluyó que la investigación en IA no entregaba lo prometido y que había que recortar el financiamiento.
- DARPA en EE. UU. recortó los programas de reconocimiento de voz tras el fracaso del proyecto Speech Understanding Research.
Entre 1974 y 1980 aproximadamente, el dinero estatal para IA casi se detuvo. Eso es el primer invierno de la IA. Los investigadores migraron a campos vecinos - estadística, lingüística computacional, bases de conocimiento - pero las ideas no desaparecieron. Solo esperaban hardware y mejores algoritmos.
Anécdota personal: mi primer rival con "inteligencia"
Mi primer contacto consciente con lo que más tarde aprendí a llamar "inteligencia artificial" fue a comienzos de los 90. Un vecino tenía un ZX Spectrum con un programa de ajedrez - creo que era Cyrus. Yo era niño, el programa me ganaba con seguridad, y estaba convencido de que dentro de la máquina vivía algo realmente listo.
Años después aprendí qué vivía allí dentro: el algoritmo minimax con poda alfa-beta - una idea de los años 50, refinada por Donald Knuth en 1975. Ni redes neuronales ni aprendizaje. Búsqueda pura por árbol de jugadas con un evaluador heurístico de la posición. Y esa técnica simple de los 50, corriendo en un procesador de 8 bits de un ZX Spectrum de 1982, bastó para que un niño de diez años creyera en la inteligencia de las máquinas.
Esa, creo, es la lección central de esta parte de la historia. Lo que llamamos "inteligencia de la máquina" rara vez se relaciona con cuán nueva es la tecnología. Se relaciona con qué tan bien la tecnología está disfrazada de interlocutor. El perceptrón de 1958, ELIZA en 1966 y el ajedrez del Spectrum en los 80 producían en sus contemporáneos exactamente la misma reacción de "magia" que ChatGPT en 2022. La diferencia es que detrás de ChatGPT hay ochenta años más de matemáticas acumuladas.
Qué llevarse de esta época
Tres tesis importantes para entender todo lo que sigue:
- Para 1969, las redes neuronales ya aprendían de los datos. No funcionaban bien - pero el paradigma (entradas → pesos → salida → ajuste por error) ya estaba puesto. Todo lo que pasó en los 2010 fue escalar ese paradigma sobre hardware que en 1969 no existía.
- La IA simbólica fue exitosa comercialmente antes que las redes neuronales. Los sistemas expertos generaban dinero real en los 70 y 80, cuando las redes neuronales eran un nicho académico. Conviene recordarlo cuando alguien hoy afirma que "la IA comercial empezó con GPT".
- Los inviernos de la IA ocurren por falta de resultados a la altura de las promesas, no por falta de ideas. En 1973 el dinero se fue porque se prometía "inteligencia general en 10 años" y se entregaba ELIZA. Que las redes neuronales aún no funcionaran sumó presión, pero no fue la causa. El mismo patrón se repetiría a finales de los 80. Y, posiblemente, nos espera hoy.
En la parte 2: los 80 y los 90 - el regreso de las redes neuronales vía retropropagación, la era de los SVM, el OCR que durante años leyó tu correo en las oficinas postales y por qué nadie llamaba a nada de eso IA.
Preguntas frecuentes
¿Cuándo nació realmente la IA?
El término 'inteligencia artificial' lo acuñó John McCarthy en 1955 en la propuesta para la conferencia de Dartmouth de 1956. Pero la neurona matemática de McCulloch-Pitts ya estaba publicada en 1943, y el primer perceptrón de aprendizaje de Rosenblatt funcionaba en 1958. Cuando ChatGPT se lanzó en noviembre de 2022, la idea de la red neuronal entrenable tenía más de sesenta años.
¿Qué fue el primer invierno de la IA y por qué ocurrió?
Se llama primer invierno de la IA al periodo de 1974 a 1980 aproximadamente, cuando DARPA en EE. UU. y los programas estatales del Reino Unido recortaron drásticamente la financiación. Tres causas: el perceptrón rindió por debajo de la promesa (crítica de Minsky y Papert, 1969), la traducción automática nunca alcanzó calidad comercial, y el informe Lighthill de 1973 declaró inalcanzables los objetivos generales de la IA. El dinero se fue, los investigadores se dispersaron a campos vecinos.
Si el perceptrón de 1958 era tan débil, ¿por qué volvimos a las redes neuronales?
El perceptrón de Rosenblatt era de una sola capa y, en efecto, no podía resolver problemas linealmente inseparables como XOR. Pero las redes multicapa con retropropagación (1986) eliminaron esa limitación, y el entrenamiento masivo en GPU en los 2010 aportó la potencia de cómputo que a Rosenblatt le faltaba. La idea era correcta; faltaban dos piezas: un algoritmo de aprendizaje para redes profundas y el hardware para ejecutarlas.
¿La IA simbólica tuvo éxito comercial?
Sí, y mucho. El sistema experto XCON de DEC (principios de los 80) ahorraba al fabricante alrededor de 40 millones de dólares al año configurando pedidos de computadoras VAX. MYCIN igualaba a los médicos infectólogos en recomendaciones de antibióticos. A finales de los 80 el mercado de sistemas expertos se medía en miles de millones - la primera gran ola comercial de IA, mucho antes del aprendizaje profundo.
¿Por qué casi nunca se cuenta esta historia?
Porque no encaja en el relato de marketing de que 'la IA nació en noviembre de 2022'. A periodistas, inversores y startups les conviene la narrativa de ruptura: antes de ChatGPT no había nada. La línea real nunca se rompió: McCulloch-Pitts → Rosenblatt → Minsky → Hinton → Vaswani → OpenAI. Cada capa se apoya en la anterior. Sin los 60 no hay 2020.
Seguir leyendo
La verdadera historia de la IA, parte 2: retropropagación, SVM y el segundo invierno (1980–2000)
En 1986 las redes neuronales recibieron un algoritmo de aprendizaje funcional y la mayoría de la industria no lo notó. Mientras el mundo veía caer a los sistemas expertos, el OCR ya leía tu correo en la oficina postal, y los SVM ganaban en silencio cada benchmark. La historia de la 'IA escondida' entre los dos inviernos.
La verdadera historia de la IA, parte 5: del transformer a ChatGPT (2017–2022) y un caso con GPT-2
ChatGPT no es la llegada de la IA. Es la llegada de la UX sobre una tecnología que llevaba cinco años creciendo: BERT, GPT-1, GPT-2, GPT-3, InstructGPT. Lo sé porque en 2019 monté un copywriter comercial de noticias sobre GPT-2 - tres años y medio antes de que el mundo 'descubriera la IA'.
La verdadera historia de la IA, parte 4: el big bang del aprendizaje profundo (2012–2017)
El 30 de septiembre de 2012, el aprendizaje profundo dejó de ser un nicho académico. AlexNet ganó ImageNet con un margen jamás visto en el concurso. Entre ese día y el paper de diciembre de 2017 'Attention Is All You Need' caben cinco años con casi toda la magia arquitectónica de la IA moderna - de word2vec a AlphaGo y las GAN.