02-04-02 — Claude (Anthropic): Sonnet, Opus, Haiku

⏱ 10 min Fontes validadas em: 2026-04-29

TL;DR

Claude é a família de modelos da Anthropic — fundada por ex-pesquisadores da OpenAI com foco em segurança. Constitutional AI é a técnica central de alinhamento. Os modelos se destacam em instrução-following, análise de documentos longos e código. Claude 3.5 Sonnet redefiniu o estado da arte em coding em 2024.

Anthropic: a empresa de segurança em IA

Anthropic foi fundada em 2021 por Dario Amodei, Daniela Amodei e outros ex-pesquisadores da OpenAI com uma tese específica: os modelos mais capazes precisam de técnicas de alinhamento robustas para ser seguros. A empresa investe mais em pesquisa de interpretabilidade e alinhamento do que qualquer outro lab.

A abordagem se reflete nos produtos: Claude é notavelmente bom em seguir instruções precisas, manter consistência em documentos longos e recusar pedidos de forma contextual (não simplesmente por keyword matching).

Famílias de modelos

Família Modelos Posicionamento
Claude 3 Haiku, Sonnet, Opus 2024 Q1 — estabeleceu nova baseline
Claude 3.5 Haiku 3.5, Sonnet 3.5 2024 Q2-Q4 — melhor em coding
Claude 4 Sonnet 4, Opus 4 2025 — raciocínio + agentic

A nomenclatura poética — Haiku (rápido/barato), Sonnet (balanceado), Opus (máxima capacidade) — reflete o posicionamento de velocidade e custo.

Diferenciais técnicos do Claude

Context window grande por padrão

Claude 3 e posteriores suportam 200k tokens de contexto — equivalente a um livro de ~150k palavras ou uma codebase médio. Isso resolve um problema real: analisar documentos inteiros, revisar PRs grandes, manter contexto em conversas longas.

Instrução-following rigoroso

Claude é consistentemente melhor em seguir instruções formatadas com precisão — como "responda sempre em JSON", "use exatamente 3 bullet points", "nunca mencione concorrentes". Para pipelines de produção onde o formato da resposta importa, isso reduz pós-processamento.

Análise de código

Claude 3.5 Sonnet superou GPT-4o em benchmarks de coding (SWE-bench) em 2024, particularmente em modificação de código existente e debugging contextual — tarefas mais próximas do trabalho real de um desenvolvedor.

💡 Claude para empresas de desenvolvimento

Para uma empresa como a Impar, com ~200 devs, os casos de uso mais imediatos: (1) revisão de código com contexto de arquitetura; (2) análise de documentos de requisitos longos; (3) geração de testes com contexto completo de uma classe. O context window de 200k é um diferencial prático real.

Constitutional AI na prática

Claude é treinado com um conjunto de princípios explícitos — a "constituição". Na prática, isso resulta em um modelo que:

  • Recusa pedidos com explicação contextual, não por keyword matching genérico
  • É capaz de discutir tópicos sensíveis de forma nuançada quando há contexto legítimo
  • Mantém consistência de valores ao longo de conversas longas

Exemplo: chamada via API

import anthropic

client = anthropic.Anthropic()  # usa ANTHROPIC_API_KEY

message = client.messages.create(
    model="claude-sonnet-4-5",
    max_tokens=1024,
    system="Você é um arquiteto de software .NET especializado em sistemas distribuídos.",
    messages=[
        {
            "role": "user",
            "content": "Analise os trade-offs entre eventual consistency e strong consistency para um sistema de inventário de e-commerce."
        }
    ]
)

print(message.content[0].text)

Comparação com GPT-4o

Aspecto Claude 3.5 Sonnet GPT-4o
Coding (SWE-bench) ✅ Melhor (2024) Competitivo
Context window 200k tokens 128k tokens
Multimodalidade Texto + imagem Texto + imagem + áudio
Disponível via Azure Via Azure AI Foundry (modelo parceiro) Azure OpenAI Service nativo
Pricing (Sonnet) $3/$15 por 1M tokens in/out $2.50/$10 por 1M tokens in/out
⚠️ Disponibilidade enterprise

Claude está disponível via API da Anthropic e via AWS Bedrock. Para quem já tem stack Azure, GPT-4o via Azure OpenAI Service oferece integração mais profunda com IAM, VNets e compliance Azure. Claude via Azure AI Foundry existe mas com menos recursos de networking privado que o OpenAI nativo.

Como isso se conecta

  • 02-03-03: Constitutional AI — a técnica de alinhamento do Claude
  • 02-04-01: GPT-4o — principal alternativa proprietária
  • 02-04-06: Azure OpenAI Service — alternativa enterprise com compliance Azure

Fontes

  1. Anthropic — Modelos Claude disponíveis
  2. Anthropic — API Getting Started
  3. Bai et al. (2022) — Constitutional AI: Harmlessness from AI Feedback