15-02-02 — Glossário Consolidado Final

⏱ 15 minFontes validadas em: 2026-04-29

TL;DR

Glossário A-Z com todos os termos técnicos usados ao longo da wiki. Cada entrada traz o termo em inglês, definição em português e referência ao módulo onde foi introduzido.

Glossário A-Z

A

A2A (Agent-to-Agent Protocol)
Protocolo aberto do Google (Linux Foundation) para comunicação entre agentes de IA de diferentes frameworks. Complementar ao MCP. → 07-02-01
Agent (Agente)
Sistema autônomo que combina LLM + ferramentas + loop de decisão para realizar tarefas sem intervenção humana constante. → 05-01-01
Agent 365
Registry unificado da Microsoft para gerenciar agentes, com governance e integração Entra Agent ID. → 08-02-03
Agent Framework 1.0 (Microsoft)
Framework unificado resultado da convergência de Semantic Kernel + AutoGen. GA abril/2026. .NET e Python. → 06-03-03
Alucinação (Hallucination)
Quando o LLM gera informações factualmente incorretas mas que parecem plausíveis. → 02-05-02
Attention (Atenção)
Mecanismo que permite ao Transformer "olhar" para todas as partes da entrada simultaneamente. Base de todos os LLMs modernos. → 02-02-01
Azure AI Foundry
Plataforma unificada da Microsoft para construir, deployar e monitorar aplicações de IA. Evolução do Azure AI Studio. → 09-01-01
Azure AI Search
Serviço de busca da Microsoft com suporte a vetores, BM25 e semantic ranking. Principal vector store do ecossistema Azure. → 04-02-03
Azure OpenAI Service
Serviço Azure que dá acesso enterprise aos modelos OpenAI (GPT-4o, o-series, DALL-E, Whisper) com compliance e networking privado. → 02-04-06

B

Backpropagation
Algoritmo que ajusta os pesos da rede neural propagando o erro da saída para a entrada. → 01-02-02
BM25
Algoritmo clássico de busca por palavras-chave baseado em frequência de termos. Usado em hybrid search junto com vetores. → 04-03-03
BYOM (Bring Your Own Model)
Feature do Foundry Agent Service que permite conectar modelos hospedados atrás de gateways enterprise. → 09-02-03

C

Chain-of-Thought (CoT)
Técnica de prompting que pede ao modelo "pensar passo a passo" antes de responder, melhorando raciocínio. → 03-02-01
Chunking
Processo de dividir documentos em pedaços menores para indexação em vector stores. → 04-03-01
Claude
Família de LLMs da Anthropic (Haiku, Sonnet, Opus). Foco em segurança e instruction-following. → 02-04-02
CNN (Convolutional Neural Network)
Rede neural especializada em padrões espaciais (imagens). Usa filtros convolucionais. → 01-02-03
Constitutional AI
Técnica da Anthropic para alinhar modelos usando princípios escritos em vez de feedback humano direto. → 02-03-03
Content Safety
Serviço Azure que detecta e filtra conteúdo prejudicial, prompt injection e outputs não-grounded. → 09-04-03
Context Window
Quantidade máxima de tokens que o modelo consegue processar em uma única chamada (input + output). → 01-05-01
Copilot Studio
Plataforma low-code da Microsoft para criar agentes conversacionais. Declarative e custom engine. → 10-01-01
Cosine Similarity
Métrica que mede o ângulo entre dois vetores. Usada para comparar embeddings. → 04-03-02

D

Data Agent (Fabric)
Agente GA no Fabric que funciona como analista virtual, conversational analytics sobre dados no OneLake. → 11-03-02
DPO (Direct Preference Optimization)
Técnica que simplifica RLHF treinando diretamente com pares de preferência, sem reward model separado. → 02-03-03
Drift
Degradação gradual da qualidade de um sistema de IA por mudanças nos dados ou no mundo real. → 12-03-04

E

Embedding
Representação numérica (vetor) de texto, imagem ou outro dado em espaço multidimensional. Palavras similares ficam próximas. → 01-04-02
Entra Agent ID
Identidade dedicada da Microsoft para agentes de IA, com RBAC e governance via Entra. GA 2026. → 13-02-03
EU AI Act
Regulação europeia de IA com classificação de risco (inaceitável, alto, limitado, mínimo). → 13-03-03
Evaluations
Processo de medir qualidade de outputs de IA: faithfulness, relevance, groundedness. → 12-03-02

F

Fabric (Microsoft)
Plataforma unificada de dados: OneLake, Lakehouse, Warehouse, Real-Time Intelligence, Data Factory. → 11-01-01
Fabric IQ
Camada semântica do Fabric que organiza dados por ontologia de negócio. Preview. → 11-03-01
Few-shot
Técnica de prompting que fornece exemplos dentro do prompt para guiar o modelo. → 03-02-01
Fine-tuning
Treino adicional de um modelo pré-treinado com dados específicos de um domínio. → 02-03-02
Foundry Local
Versão local do Azure AI Foundry: IA sem cloud, sem latência, sem custo por token. GA abril/2026. → 09-03-01
Function Calling
Capacidade do LLM de gerar chamadas de função estruturadas (JSON) para ferramentas externas. → 05-02-03

G

Gemini
Família de LLMs multimodais do Google (Ultra, Pro, Flash, Nano). → 02-04-03
GPT (Generative Pre-trained Transformer)
Família de LLMs da OpenAI. GPT-4o é o modelo flagship multimodal. → 02-04-01
Groundedness
Grau em que as respostas do LLM são baseadas em fontes fornecidas (não inventadas). → 12-03-02

H

Hybrid Search
Combinação de busca vetorial + keyword (BM25) para melhorar retrieval. → 04-03-03
HyDE (Hypothetical Document Embedding)
Técnica RAG avançada: gerar documento hipotético e usá-lo como query de busca. → 04-04-02

I-K

Inference (Inferência)
Usar um modelo já treinado para gerar outputs a partir de inputs novos. O que acontece quando você chama uma API de LLM. → 01-05-01
Knowledge Cutoff
Data limite dos dados de treino. O modelo não sabe de eventos posteriores. → 02-05-02

L

LangChain
Framework Python/JS para construir aplicações com LLMs. LCEL, Runnables. → 06-01-01
LangGraph
Framework de grafos de estado para agentes complexos, com checkpointing. → 06-01-02
LlamaIndex
Data framework focado em RAG e agentes data-aware. → 06-02-01
Llama
Família de modelos open-weight da Meta. Llama 3 é o mais recente. → 02-04-04
LLM (Large Language Model)
Modelo de linguagem com bilhões de parâmetros treinado em texto massivo. Prevê o próximo token. → 02-01-01

M

MCP (Model Context Protocol)
Protocolo aberto da Anthropic para conectar LLMs a ferramentas e dados. "USB-C for AI". → 07-01-01
Medallion Architecture
Padrão de organização de dados em 3 camadas: Bronze (raw), Silver (limpo), Gold (agregado). → 11-01-03
Model (Modelo)
Rede neural treinada que recebe inputs e gera outputs. Os pesos são o "conhecimento" aprendido. → 01-05-01
Multi-agent
Sistema com múltiplos agentes colaborando: orchestrator-worker, hierarchical, swarm. → 05-03-01

N-O

NIST AI RMF
Framework de gerenciamento de risco de IA do governo americano. → 13-03-02
OneLake
Data lake unificado do Fabric. Ponto central para todos os dados. → 11-01-01
OpenTelemetry
Padrão open-source de observabilidade com convenções específicas para GenAI. → 12-01-02

P

Parameters (Parâmetros)
Os pesos numéricos da rede neural. GPT-4 tem centenas de bilhões. → 01-05-01
Phi
Família de Small Language Models da Microsoft. Quality data > scale. → 02-04-05
Prompt Injection
Ataque onde dados maliciosos no contexto manipulam o comportamento do LLM. → 03-03-01
PTU (Provisioned Throughput Unit)
Modelo de pricing do Azure OpenAI com throughput reservado. → 08-02-02
Purview
Plataforma de governance da Microsoft. DLP, sensitivity labels, compliance para IA. → 13-02-01

R

RAG (Retrieval Augmented Generation)
Padrão que combina busca em documentos + LLM para respostas baseadas em dados frescos. → 04-01-01
RAGAS
Framework open-source de avaliação de RAG: faithfulness, relevancy, precision, recall. → 04-05-02
ReAct
Padrão de agente: Thought → Action → Observation em loop. → 05-02-01
Re-ranking
Segundo estágio de retrieval: cross-encoder reordena resultados por relevância. → 04-04-01
Responsible AI
Princípios Microsoft para IA: fairness, reliability, privacy, inclusiveness, transparency, accountability. → 13-03-01
RLHF (Reinforcement Learning from Human Feedback)
Técnica de alinhamento onde humanos avaliam respostas e o modelo aprende preferências. → 02-03-02

S

Semantic Cache
Cache que reutiliza respostas para perguntas semanticamente similares (não só idênticas). → 14-01-03
Semantic Kernel
Orquestrador de IA da Microsoft: plugins, kernel, AI services. Fundação do Agent Framework 1.0. → 06-03-01
Self-supervised Learning
Aprendizado onde o modelo cria seus próprios rótulos (ex: prever próximo token). Base do treino de LLMs. → 01-03-02
SLM (Small Language Model)
Modelo de linguagem compacto otimizado para eficiência (ex: Phi family). → 02-04-05
Structured Output
Respostas do LLM em formato estruturado (JSON, XML) via JSON mode ou function calling. → 03-02-03

T

Temperature (Temperatura)
Parâmetro que controla aleatoriedade na geração. 0.0 = determinístico, 1.0+ = criativo. → 02-05-01
Token
Unidade mínima de texto processada pelo LLM. Pode ser uma palavra, parte de palavra ou caractere especial. → 01-04-01
Tool Calling
Capacidade do LLM de decidir e invocar ferramentas externas via JSON estruturado. → 05-02-03
Top_p (Nucleus Sampling)
Parâmetro que limita tokens candidatos por probabilidade acumulada. → 02-05-01
Tracing
Rastreamento de execuções de agentes/LLMs: spans, runs, threads. OpenTelemetry GenAI. → 12-01-02
Transformer
Arquitetura de rede neural baseada em attention que domina NLP desde 2017. Base de todos os LLMs. → 02-02-01
Training (Treinamento)
Processo de ajustar pesos da rede neural usando dados. Pré-treinamento + fine-tuning. → 01-05-01

V-Z

Vector Database
Banco de dados otimizado para armazenar e buscar vetores (embeddings). Ex: Pinecone, Qdrant, pgvector. → 04-02-02
Voice Live
Runtime de speech-to-speech do Foundry. Preview. → 09-04-04
Weights (Pesos)
Valores numéricos aprendidos durante treinamento. São o "conhecimento" do modelo. → 01-05-01
Zero-shot
Técnica de prompting: perguntar direto ao modelo sem dar exemplos. → 03-02-01
💡 Este glossário é vivo

À medida que novos tópicos forem adicionados ou aprofundados, este glossário será atualizado. Use os IDs para navegar diretamente ao tópico onde cada conceito é explicado em detalhe.

Como isso se conecta

Fontes

  1. Microsoft Learn — Azure OpenAI Models (acesso em abril/2026)
  2. OpenAI — API Concepts (acesso em abril/2026)
  3. Anthropic — Claude Models (acesso em abril/2026)
  4. MCP — Introduction (acesso em abril/2026)