01-01-01 — IA Simbólica e os Invernos da IA (1956–2000)
TL;DR
A IA nasceu em 1956 apostando em regras explícitas escritas por humanos (symbolic AI). Funcionou bem em domínios fechados, mas quebrou ao tocar na complexidade do mundo real. Resultado: dois "invernos" de corte de verbas — 1974 e 1987 — que mataram empresas e laboratórios inteiros. A lição: promessas impossíveis + hardware insuficiente = morte de ciclo tecnológico.
O Otimismo Original: Dartmouth 1956
Em agosto de 1956, John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon reuniram um grupo no Dartmouth College com uma proposta direta: "Todo aspecto da aprendizagem ou qualquer outra característica da inteligência pode ser descrito com precisão suficiente para uma máquina simulá-lo."
A premissa central da IA simbólica (também chamada GOFAI — Good Old-Fashioned AI) era simples: inteligência é manipulação de símbolos segundo regras. Se você conseguir formalizar o conhecimento humano em regras lógicas, uma máquina pode ser inteligente.
Os Marcos da Era Simbólica
ELIZA (1966)
Joseph Weizenbaum no MIT criou um programa que simulava um psicoterapeuta usando pattern matching simples: se você digita "Minha mãe...", ELIZA responde "Fale mais sobre sua família." Sem compreensão real — só reflexo de padrões. O efeito colateral foi descobrir que humanos projetam intenção em qualquer coisa que pareça responder. Isso ficou conhecido como o Efeito ELIZA.
SHRDLU (1970)
Terry Winograd criou um sistema que entendia comandos em inglês em um mundo de blocos coloridos ("Coloque o bloco vermelho em cima do azul"). Funcionava perfeitamente — em um universo de 10 objetos com regras fixas. Extrapolou zero para o mundo real.
Expert Systems (1970s–1980s)
MYCIN (Stanford, 1972) diagnosticava infecções bacterianas com 69% de acurácia — melhor que médicos residentes. XCON (DEC, 1980) configurava pedidos de computadores VAX, economizando US$40 milhões/ano para a empresa. O mercado explodiu: Symbolics, LMI, e dezenas de empresas vendiam hardware LISP especializado.
Primeiro Inverno (1974–1980)
Em 1973, Sir James Lighthill publicou um relatório devastador para o governo britânico: "Artificial Intelligence: A General Survey". Sua conclusão: a IA havia falhado em cumprir qualquer de suas principais promessas. O relatório foi direto ao ponto — robótica, processamento de linguagem natural, e aprendizado de máquina não haviam entregado resultados práticos.
Consequências concretas:
- Reino Unido cortou financiamento para pesquisa de IA quase totalmente
- DARPA reduziu investimentos em IA nos EUA
- Pesquisa de tradução automática foi interrompida (relatório ALPAC de 1966 já havia preparado o terreno)
O problema técnico central: os computadores da época tinham memória medida em kilobytes. O que funcionava em mundos de brinquedo explodia em complexidade combinatorial no mundo real (combinatorial explosion).
Segundo Inverno (1987–2000)
Os expert systems pareciam ter ressuscitado a IA nos anos 80. Empresas investiram pesado. Em 1987, o mercado de hardware LISP (máquinas Symbolics custavam US$70.000 cada) entrou em colapso da noite para o dia quando Apple e IBM lançaram PCs que rodavam software equivalente por uma fração do custo.
Em paralelo, os expert systems mostraram seus limites estruturais:
- Brittle knowledge: uma regra errada derrubava todo o sistema
- No learning: o sistema não aprendia com novos casos — precisava de reprogramação manual
- Closed world assumption: só sabia lidar com o que havia sido explicitamente codificado
O projeto FGCS (Fifth Generation Computer Systems) do Japão, que prometia criar computadores inteligentes até 1992 com investimento de US$400 milhões, foi abandonado sem entregar nada.
Timeline das Eras
O que a IA Simbólica nos Ensinou
Não foi tudo em vão. Os invernos produziram insights duradouros:
- Representação importa: como você representa o conhecimento determina o que você pode raciocinar sobre
- Escala não é linear: o que funciona pequeno não necessariamente escala
- Dados > Regras: o mundo é complexo demais para ser codificado manualmente
- Hype mata projetos: promessas além da capacidade real geram desconfiança duradoura
Exemplo Prático: Expert System em .NET
Se você já usou Windows Workflow Foundation ou uma engine de regras como NRules no seu stack, você usou a essência dos expert systems:
// NRules — herdeiro direto dos expert systems dos anos 80
public class DescontoClienteVIP : Rule
{
public override void Define()
{
Customer customer = null;
Order order = null;
When()
.Match(() => customer, c => c.IsVip)
.Match(() => order, o => o.Amount > 1000);
Then()
.Do(ctx => order.ApplyDiscount(0.15));
}
}
A diferença hoje: você combina regras explícitas (NRules) com modelos de ML para os casos que não cabem em regras. Isso é o que a indústria chama de hybrid AI.
Desafio
🎯 Desafio 01-01-01
Pense em um sistema da Impar que usa regras de negócio explícitas (validações, workflows, aprovações). Responda:
- Quantas regras o sistema tem? Alguém sabe o número exato?
- Quando foi a última vez que uma regra foi atualizada? Quem fez?
- Existe alguma regra que ninguém entende mais por que existe?
Esse exercício revela o "knowledge rot" — o mesmo problema que derrubou os expert systems nos anos 80.
Como isso se conecta
- 🔗 01-01-02 — O que quebrou o ciclo dos invernos foi hardware (GPUs) + dados + uma abordagem diferente (aprendizado ao invés de regras)
- 🔗 01-03-01 — A distinção supervisionado vs. não-supervisionado é a resposta direta ao problema de "dados rotulados" que a IA simbólica ignorou
- 🔗 01-05-01 — Termos como "training" e "inference" não existiam na IA simbólica — nasceram com o paradigma de aprendizado
Fontes
- Wikipedia — AI Winter — História detalhada dos dois invernos com referências primárias
- Wikipedia — Dartmouth Workshop (1956) — Proposta original e participantes
- Wikipedia — ELIZA — Weizenbaum, 1966, MIT
- Wikipedia — Expert Systems — MYCIN, XCON e o colapso comercial
- Wikipedia — Lighthill Report (1973) — O documento que deflagrou o primeiro inverno