Módulo 04 — RAG (Retrieval Augmented Generation)
O módulo mais denso dos fundamentos: como dar ao LLM acesso a dados atualizados e específicos do seu negócio. De embeddings a vector databases, chunking, hybrid search, re-ranking e avaliação.
04-01 — Fundamentos de RAG
04-01-01 — Por que RAG existe
Limitações de LLMs que RAG resolve.
04-01-02 — Arquitetura RAG clássica
Retrieve → Augment → Generate. Pipeline completo.
04-02 — Embeddings e vector databases
04-02-01 — Modelos de embedding
text-embedding-3, Cohere, Azure AI. Benchmark MTEB.
04-02-02 — Vector databases
Pinecone, Weaviate, Qdrant, Chroma, pgvector.
04-02-03 — Azure AI Search
Vector store nativo da Microsoft. Semantic ranker.
04-03 — Chunking e indexação
04-03-01 — Estratégias de chunking
Fixed-size, recursive, semantic, document-aware.
04-03-02 — Similaridade
Cosine, dot product, euclidean. Intuição geométrica.
04-03-03 — Hybrid search
Vector + BM25 keyword. RRF. Azure AI Search.
04-04 — RAG avançado
04-04-01 — Re-ranking
Bi-encoder vs cross-encoder. Cohere Rerank.
04-04-02 — HyDE, parent-doc, self-query
Técnicas avançadas de retrieval.
04-04-03 — Contextual retrieval
Anthropic contextual retrieval. Late chunking.
04-05 — Avaliação de RAG
04-05-01 — Métricas de RAG
Faithfulness, relevance, precision, recall.
04-05-02 — RAGAS, DeepEval
Frameworks de avaliação automatizada.