📊 Modulo 12 — Observabilidade em IA
Sistemas de IA falham de formas diferentes do software tradicional. Um agente pode "funcionar" tecnicamente e ainda assim dar respostas erradas, caras ou enviesadas. Observabilidade em IA e a disciplina de enxergar o que acontece dentro dessas caixas pretas — e agir antes que o problema chegue ao usuario.
Por que observabilidade em IA e diferente
Probabilismo, sensibilidade a prompt, custos variaveis por token — por que as ferramentas tradicionais de APM nao bastam.
⏱ 10 minTracing: spans, runs, threads
OpenTelemetry GenAI conventions. Como instrumentar LLM calls, tool calls e chains com traces distribuidos.
⏱ 15 minLangSmith e Langfuse
As duas principais plataformas de observabilidade para LLMs. Quando usar cada uma, integracao e trade-offs.
⏱ 12 minAzure Monitor + App Insights + Foundry Tracing
Stack Microsoft nativa para observabilidade de agentes em producao. Integracao com OpenTelemetry e alertas.
⏱ 12 minArize Phoenix e open-source
Alternativas open-source para times que nao querem vendor lock-in. Arize Phoenix, Helicone, Weave.
⏱ 10 minMetricas: latencia, custo, qualidade
As tres dimensoes criticas de toda aplicacao LLM em producao. Como medir, agregar e criar SLOs.
⏱ 10 minAvaliacoes offline
Ground truth, LLM-as-judge, RAGAS e DeepEval. Como construir um suite de evals antes de ir para producao.
⏱ 15 minAvaliacoes online: A/B, canary, feedback loops
Testar modelos em producao com controle de risco. Estrategias de rollout progressivo e coleta de feedback implicito.
⏱ 12 minDrift detection e regressoes
Como detectar quando um agente começa a degradar sem que nenhum codigo tenha mudado. Data drift, concept drift, prompt sensitivity.
⏱ 10 minDesafio: 5 metricas para agente RAG
Desafio pratico: defina, implemente e monitore 5 metricas criticas para um agente RAG em producao.
⏱ 8 min