06-04-03 — Quando usar qual: decision matrix
TL;DR
Resposta curta: stack .NET/Azure → Agent Framework 1.0. Stack Python puro com agentes complexos → LangGraph. Precisa de RAG pesado → LlamaIndex junto com o framework principal. Protótipo rápido multi-agent → CrewAI. Google Cloud → ADK. A tabela abaixo cobre 95% dos casos de decisão.
Matriz comparativa completa
| Critério | Agent Framework 1.0 (Microsoft) | LangGraph | LlamaIndex | CrewAI | Google ADK |
|---|---|---|---|---|---|
| Stack primário | ✅ .NET 9 + Python | ✅ Python | ✅ Python | ✅ Python | ✅ Python + Java |
| Suporte C# | ✅ Primeiro cidadão | ❌ | ❌ | ❌ | ❌ |
| Azure / M365 | ✅ Nativo (Foundry, Copilot) | ⚠️ Via integrações | ⚠️ AI Search disponível | ⚠️ Via LLM provider | ❌ |
| Google Cloud | ⚠️ Via A2A | ⚠️ Via LLM provider | ⚠️ Vertex AI disponível | ⚠️ Via LLM provider | ✅ Nativo (Vertex AI) |
| Complexidade de agente | ✅ Alta (graph + multi-agent) | ✅ Alta (grafo customizável) | ⚠️ Média | ⚠️ Média | ✅ Alta |
| Enterprise-ready | ✅ SLA, LTS, suporte MS | ⚠️ LangSmith pago | ⚠️ LlamaCloud pago | ⚠️ Enterprise edition | ✅ Vertex AI SLA |
| Multi-agent | ✅ Actor model + A2A | ✅ Subgrafos | ⚠️ Básico | ✅ Role-based crew | ✅ SequentialAgent, ParallelAgent |
| RAG avançado | ⚠️ Básico via Memory | ⚠️ Via LlamaIndex/FAISS | ✅ Core feature | ⚠️ Via tools | ⚠️ Vertex AI Search |
| MCP nativo | ✅ Client + Server | ⚠️ Via integração | ⚠️ Em desenvolvimento | ⚠️ Via integração | ✅ MCPToolset |
| A2A protocol | ✅ Nativo | ❌ | ❌ | ❌ | ✅ Nativo |
| Observabilidade | ✅ OTel + App Insights | ✅ LangSmith | ⚠️ LlamaTrace | ⚠️ Básico | ✅ Cloud Trace |
| Curva de aprendizado | Média (.NET devs: baixa) | Média-alta | Média | Baixa | Baixa-média |
| Velocidade de protótipo | Média | Média | Rápida (RAG) | ✅ Muito rápida | Rápida |
Árvore de decisão
Recomendações por cenário
🏢 Cenário 1: Empresa .NET com Azure
Consultoria de tecnologia com times em C#, infra no Azure, clientes que usam M365 e Copilot Studio.
Motivos: suporte nativo C#, integração Foundry/Copilot Studio, SLA Microsoft, sem retraining do time.
🔬 Cenário 2: Startup Python — agente de pesquisa autônomo
Agente que pesquisa na web, compila relatórios, tem memória de longo prazo e requer controle fino sobre cada step.
Motivos: controle granular do grafo, checkpointing robusto, human-in-the-loop, LangSmith para debugging.
📄 Cenário 3: RAG sobre documentos corporativos
Sistema que responde perguntas sobre contratos, políticas internas, documentação técnica — multi-formato, multi-idioma.
LlamaIndex para o pipeline de indexação/retrieval. AF 1.0 ou LangGraph para orquestrar o agente que usa o índice como tool.
⚡ Cenário 4: Protótipo rápido para demo de cliente
Precisa mostrar um agente multi-agent funcionando em 2 dias para demo de venda.
Motivos: menor boilerplate, metáfora intuitiva (roles), resultado visível rapidamente. Migre para AF 1.0 ou LangGraph quando for para produção.
☁️ Cenário 5: Cliente Google Cloud com Gemini
Cliente com BigQuery, Vertex AI, usa Gemini como LLM principal.
Motivos: ferramentas Google nativas (Search, BigQuery), deploy Vertex AI, suporte oficial Google.
Combinações frequentes em produção
| Combinação | Por que funciona |
|---|---|
| AF 1.0 + LlamaIndex | AF para orquestração .NET, LlamaIndex para RAG avançado via MCP |
| LangGraph + LlamaIndex | LangGraph controla o fluxo, LlamaIndex é uma tool do agente |
| AF 1.0 + Google ADK via A2A | Agentes especializados em clouds diferentes colaboram via A2A |
| CrewAI → LangGraph | Prototipa com CrewAI, refatora para LangGraph quando vai para produção |
Como isso se conecta
- Este tópico sintetiza todos os frameworks anteriores do módulo
- 06-04-04 Desafio — vamos colocar AF 1.0 vs LangGraph lado a lado no mesmo problema
- Módulo 07 (MCP/A2A) — os protocolos que tornam os frameworks interoperáveis
- Módulo 08 (Produção) — observabilidade, costs e deployment dos frameworks escolhidos