02-04-02 — Claude (Anthropic): Sonnet, Opus, Haiku
TL;DR
Claude é a família de modelos da Anthropic — fundada por ex-pesquisadores da OpenAI com foco em segurança. Constitutional AI é a técnica central de alinhamento. Os modelos se destacam em instrução-following, análise de documentos longos e código. Claude 3.5 Sonnet redefiniu o estado da arte em coding em 2024.
Anthropic: a empresa de segurança em IA
Anthropic foi fundada em 2021 por Dario Amodei, Daniela Amodei e outros ex-pesquisadores da OpenAI com uma tese específica: os modelos mais capazes precisam de técnicas de alinhamento robustas para ser seguros. A empresa investe mais em pesquisa de interpretabilidade e alinhamento do que qualquer outro lab.
A abordagem se reflete nos produtos: Claude é notavelmente bom em seguir instruções precisas, manter consistência em documentos longos e recusar pedidos de forma contextual (não simplesmente por keyword matching).
Famílias de modelos
| Família | Modelos | Posicionamento |
|---|---|---|
| Claude 3 | Haiku, Sonnet, Opus | 2024 Q1 — estabeleceu nova baseline |
| Claude 3.5 | Haiku 3.5, Sonnet 3.5 | 2024 Q2-Q4 — melhor em coding |
| Claude 4 | Sonnet 4, Opus 4 | 2025 — raciocínio + agentic |
A nomenclatura poética — Haiku (rápido/barato), Sonnet (balanceado), Opus (máxima capacidade) — reflete o posicionamento de velocidade e custo.
Diferenciais técnicos do Claude
Context window grande por padrão
Claude 3 e posteriores suportam 200k tokens de contexto — equivalente a um livro de ~150k palavras ou uma codebase médio. Isso resolve um problema real: analisar documentos inteiros, revisar PRs grandes, manter contexto em conversas longas.
Instrução-following rigoroso
Claude é consistentemente melhor em seguir instruções formatadas com precisão — como "responda sempre em JSON", "use exatamente 3 bullet points", "nunca mencione concorrentes". Para pipelines de produção onde o formato da resposta importa, isso reduz pós-processamento.
Análise de código
Claude 3.5 Sonnet superou GPT-4o em benchmarks de coding (SWE-bench) em 2024, particularmente em modificação de código existente e debugging contextual — tarefas mais próximas do trabalho real de um desenvolvedor.
Para uma empresa como a Impar, com ~200 devs, os casos de uso mais imediatos: (1) revisão de código com contexto de arquitetura; (2) análise de documentos de requisitos longos; (3) geração de testes com contexto completo de uma classe. O context window de 200k é um diferencial prático real.
Constitutional AI na prática
Claude é treinado com um conjunto de princípios explícitos — a "constituição". Na prática, isso resulta em um modelo que:
- Recusa pedidos com explicação contextual, não por keyword matching genérico
- É capaz de discutir tópicos sensíveis de forma nuançada quando há contexto legítimo
- Mantém consistência de valores ao longo de conversas longas
Exemplo: chamada via API
import anthropic
client = anthropic.Anthropic() # usa ANTHROPIC_API_KEY
message = client.messages.create(
model="claude-sonnet-4-5",
max_tokens=1024,
system="Você é um arquiteto de software .NET especializado em sistemas distribuídos.",
messages=[
{
"role": "user",
"content": "Analise os trade-offs entre eventual consistency e strong consistency para um sistema de inventário de e-commerce."
}
]
)
print(message.content[0].text)
Comparação com GPT-4o
| Aspecto | Claude 3.5 Sonnet | GPT-4o |
|---|---|---|
| Coding (SWE-bench) | ✅ Melhor (2024) | Competitivo |
| Context window | 200k tokens | 128k tokens |
| Multimodalidade | Texto + imagem | Texto + imagem + áudio |
| Disponível via Azure | Via Azure AI Foundry (modelo parceiro) | Azure OpenAI Service nativo |
| Pricing (Sonnet) | $3/$15 por 1M tokens in/out | $2.50/$10 por 1M tokens in/out |
Claude está disponível via API da Anthropic e via AWS Bedrock. Para quem já tem stack Azure, GPT-4o via Azure OpenAI Service oferece integração mais profunda com IAM, VNets e compliance Azure. Claude via Azure AI Foundry existe mas com menos recursos de networking privado que o OpenAI nativo.
Como isso se conecta
Fontes
- Anthropic — Modelos Claude disponíveis
- Anthropic — API Getting Started
- Bai et al. (2022) — Constitutional AI: Harmlessness from AI Feedback