09-01-01 — O que é Azure AI Foundry
TL;DR
Azure AI Foundry é a plataforma unificada de desenvolvimento de agentes e aplicações de IA da Microsoft, anunciada no Microsoft Ignite 2024 como evolução do Azure AI Studio. Centraliza model catalog (1800+ modelos), Agent Service (GA março 2026), Foundry Local (GA abril 2026), evaluations, tracing e content safety. Organiza o trabalho em Hubs (infraestrutura compartilhada) e Projetos (escopos isolados por time/produto). É onde times .NET constroem agentes em produção.
Da Azure AI Studio ao Azure AI Foundry
O Azure AI Studio existia desde 2023 como portal para desenvolvedores experimentarem com modelos Azure OpenAI e Azure AI Services. Em novembro de 2024, a Microsoft fez o rename e rebranding para Azure AI Foundry, acompanhado de expansão significativa de capacidades:
| Azure AI Studio (antes) | Azure AI Foundry (agora) |
|---|---|
| Portal para prompts e fine-tuning | Plataforma completa de desenvolvimento de agentes |
| ~400 modelos no catalog | 1800+ modelos (OpenAI, Mistral, Meta, Cohere, DeepSeek, xAI) |
| Playgrounds e basic RAG | Agent Service GA com Responses API |
| Cloud only | Cloud + Foundry Local (on-device) |
| Avaliações manuais | Evaluations GA com monitoramento contínuo |
| Sem tracing nativo | Tracing GA integrado ao Azure Monitor |
O que Foundry resolve
Antes do Foundry, construir um agente de produção requeria juntar manualmente: Azure OpenAI + Azure AI Search + Azure Functions + Application Insights + políticas de Content Safety + fine-tuning em Azure ML. Cada serviço com sua própria gestão, billing e curva de aprendizado.
Foundry unifica tudo sob um teto:
- Model management: deploy, versioning, A/B testing de modelos
- Agent Service: runtime managed para agentes com threads, ferramentas e runs
- Storage: vector stores, file stores, thread persistence — gerenciados automaticamente
- Observability: tracing de cada step, span, ferramenta chamada
- Safety: content safety filters em todos os inputs/outputs
- Local: mesmo SDK, roda on-device com modelos Phi e outros SLMs
Acesso e portais
- Portal web: ai.azure.com — interface visual para criar hubs, projetos, deployar modelos, testar agentes
- SDK Python:
azure-ai-projects— cliente principal para operações programáticas - SDK .NET:
Azure.AI.Projects(NuGet) — mesmo nível de capacidade que Python SDK - REST API: compatível com OpenAI API spec — migração de código OpenAI requer alteração mínima
- CLI:
az aiextension para automação de infra
Compatibilidade com OpenAI API
Uma decisão estratégica importante: o AI Foundry Agent Service usa exatamente a mesma API spec da OpenAI Assistants API. Se você tem código usando a OpenAI SDK, pode apontar para o endpoint do Foundry trocando a base URL e as credenciais:
# Antes: OpenAI direto
from openai import OpenAI
client = OpenAI(api_key="sk-...")
# Depois: Azure AI Foundry (mesma API)
from openai import AzureOpenAI
client = AzureOpenAI(
azure_endpoint="https://seu-hub.openai.azure.com",
api_key="sua-azure-key",
api_version="2025-01-01-preview"
)
Modelo de recursos no Azure
No Azure Resource Manager, Foundry cria:
Microsoft.MachineLearningServices/workspaces— o Hub (tipo "hub")Microsoft.MachineLearningServices/workspaces— cada Projeto (tipo "project", filho do Hub)- Recursos associados: Storage Account, Key Vault, Container Registry, Application Insights
Tudo visível no Azure Portal e gerenciável via Bicep/Terraform.