01-01-01 — IA Simbólica e os Invernos da IA (1956–2000)

⏱ 12 min Fontes validadas em: 2026-04-29

TL;DR

A IA nasceu em 1956 apostando em regras explícitas escritas por humanos (symbolic AI). Funcionou bem em domínios fechados, mas quebrou ao tocar na complexidade do mundo real. Resultado: dois "invernos" de corte de verbas — 1974 e 1987 — que mataram empresas e laboratórios inteiros. A lição: promessas impossíveis + hardware insuficiente = morte de ciclo tecnológico.

O Otimismo Original: Dartmouth 1956

Em agosto de 1956, John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon reuniram um grupo no Dartmouth College com uma proposta direta: "Todo aspecto da aprendizagem ou qualquer outra característica da inteligência pode ser descrito com precisão suficiente para uma máquina simulá-lo."

A premissa central da IA simbólica (também chamada GOFAI — Good Old-Fashioned AI) era simples: inteligência é manipulação de símbolos segundo regras. Se você conseguir formalizar o conhecimento humano em regras lógicas, uma máquina pode ser inteligente.

💡
Insight: A IA simbólica não é "errada" — ela ainda vive em sistemas de regras de negócio, motores de inferência como Drools, e partes de assistentes virtuais. O problema foi a promessa de inteligência geral, não a tecnologia em si.

Os Marcos da Era Simbólica

ELIZA (1966)

Joseph Weizenbaum no MIT criou um programa que simulava um psicoterapeuta usando pattern matching simples: se você digita "Minha mãe...", ELIZA responde "Fale mais sobre sua família." Sem compreensão real — só reflexo de padrões. O efeito colateral foi descobrir que humanos projetam intenção em qualquer coisa que pareça responder. Isso ficou conhecido como o Efeito ELIZA.

SHRDLU (1970)

Terry Winograd criou um sistema que entendia comandos em inglês em um mundo de blocos coloridos ("Coloque o bloco vermelho em cima do azul"). Funcionava perfeitamente — em um universo de 10 objetos com regras fixas. Extrapolou zero para o mundo real.

Expert Systems (1970s–1980s)

MYCIN (Stanford, 1972) diagnosticava infecções bacterianas com 69% de acurácia — melhor que médicos residentes. XCON (DEC, 1980) configurava pedidos de computadores VAX, economizando US$40 milhões/ano para a empresa. O mercado explodiu: Symbolics, LMI, e dezenas de empresas vendiam hardware LISP especializado.

⚠️
Pegadinha: Expert systems tinham um custo oculto fatal: manutenção. Cada regra nova exigia um knowledge engineer — especialista caro que codificava o conhecimento de outro especialista. O conhecimento ficava obsoleto, as regras conflitavam, e o custo de atualização era proibitivo.

Primeiro Inverno (1974–1980)

Em 1973, Sir James Lighthill publicou um relatório devastador para o governo britânico: "Artificial Intelligence: A General Survey". Sua conclusão: a IA havia falhado em cumprir qualquer de suas principais promessas. O relatório foi direto ao ponto — robótica, processamento de linguagem natural, e aprendizado de máquina não haviam entregado resultados práticos.

Consequências concretas:

  • Reino Unido cortou financiamento para pesquisa de IA quase totalmente
  • DARPA reduziu investimentos em IA nos EUA
  • Pesquisa de tradução automática foi interrompida (relatório ALPAC de 1966 já havia preparado o terreno)

O problema técnico central: os computadores da época tinham memória medida em kilobytes. O que funcionava em mundos de brinquedo explodia em complexidade combinatorial no mundo real (combinatorial explosion).

Segundo Inverno (1987–2000)

Os expert systems pareciam ter ressuscitado a IA nos anos 80. Empresas investiram pesado. Em 1987, o mercado de hardware LISP (máquinas Symbolics custavam US$70.000 cada) entrou em colapso da noite para o dia quando Apple e IBM lançaram PCs que rodavam software equivalente por uma fração do custo.

Em paralelo, os expert systems mostraram seus limites estruturais:

  • Brittle knowledge: uma regra errada derrubava todo o sistema
  • No learning: o sistema não aprendia com novos casos — precisava de reprogramação manual
  • Closed world assumption: só sabia lidar com o que havia sido explicitamente codificado

O projeto FGCS (Fifth Generation Computer Systems) do Japão, que prometia criar computadores inteligentes até 1992 com investimento de US$400 milhões, foi abandonado sem entregar nada.

🏢
Aplicação Microsoft: Nesse período, a Microsoft focou em software de produtividade (Office, Windows) enquanto a IA "dormia". A lição que a empresa aprendeu foi que tecnologia de plataforma + ecossistema bate tecnologia revolucionária isolada — argumento que voltaria a aparecer décadas depois com Azure AI.

Timeline das Eras

timeline title História da IA Simbólica e os Invernos section Fundação 1956 : Conferência Dartmouth : McCarthy, Minsky, Shannon 1966 : ELIZA — MIT : Pattern matching simula terapeuta 1970 : SHRDLU — Winograd : Entendimento em mundo fechado section Primeiro Inverno 1973 : Relatório Lighthill : Crítica devastadora ao progresso 1974 : Corte de verbas UK e DARPA : Primeiro AI Winter 1979 : Stanford Cart — avanços tímidos section Renascimento Parcial 1980 : XCON (DEC) economiza $40M/ano : Expert systems comerciais 1982 : Japão: Projeto FGCS $400M : Máquinas Symbolics — $70k cada section Segundo Inverno 1987 : Colapso do mercado LISP : PCs batem hardware especializado 1993 : Projeto FGCS abandonado : Expert systems em declínio 1997 : Deep Blue vence Kasparov : Mas via busca, não aprendizado

O que a IA Simbólica nos Ensinou

Não foi tudo em vão. Os invernos produziram insights duradouros:

  1. Representação importa: como você representa o conhecimento determina o que você pode raciocinar sobre
  2. Escala não é linear: o que funciona pequeno não necessariamente escala
  3. Dados > Regras: o mundo é complexo demais para ser codificado manualmente
  4. Hype mata projetos: promessas além da capacidade real geram desconfiança duradoura
📚
Para aprofundar: O livro Artificial Intelligence: A Modern Approach (Russell & Norvig) cobre IA simbólica em profundidade. Para o contexto histórico dos invernos, o artigo da Wikipedia sobre "AI winter" tem uma timeline bem documentada.

Exemplo Prático: Expert System em .NET

Se você já usou Windows Workflow Foundation ou uma engine de regras como NRules no seu stack, você usou a essência dos expert systems:

// NRules — herdeiro direto dos expert systems dos anos 80
public class DescontoClienteVIP : Rule
{
    public override void Define()
    {
        Customer customer = null;
        Order order = null;

        When()
            .Match(() => customer, c => c.IsVip)
            .Match(() => order, o => o.Amount > 1000);

        Then()
            .Do(ctx => order.ApplyDiscount(0.15));
    }
}

A diferença hoje: você combina regras explícitas (NRules) com modelos de ML para os casos que não cabem em regras. Isso é o que a indústria chama de hybrid AI.

Desafio

🎯 Desafio 01-01-01

Pense em um sistema da Impar que usa regras de negócio explícitas (validações, workflows, aprovações). Responda:

  1. Quantas regras o sistema tem? Alguém sabe o número exato?
  2. Quando foi a última vez que uma regra foi atualizada? Quem fez?
  3. Existe alguma regra que ninguém entende mais por que existe?

Esse exercício revela o "knowledge rot" — o mesmo problema que derrubou os expert systems nos anos 80.

Como isso se conecta

  • 🔗 01-01-02 — O que quebrou o ciclo dos invernos foi hardware (GPUs) + dados + uma abordagem diferente (aprendizado ao invés de regras)
  • 🔗 01-03-01 — A distinção supervisionado vs. não-supervisionado é a resposta direta ao problema de "dados rotulados" que a IA simbólica ignorou
  • 🔗 01-05-01 — Termos como "training" e "inference" não existiam na IA simbólica — nasceram com o paradigma de aprendizado

Fontes

  1. Wikipedia — AI Winter — História detalhada dos dois invernos com referências primárias
  2. Wikipedia — Dartmouth Workshop (1956) — Proposta original e participantes
  3. Wikipedia — ELIZA — Weizenbaum, 1966, MIT
  4. Wikipedia — Expert Systems — MYCIN, XCON e o colapso comercial
  5. Wikipedia — Lighthill Report (1973) — O documento que deflagrou o primeiro inverno