02-04-06 — Azure OpenAI Service

⏱ 15 min Fontes validadas em: 2026-04-29

TL;DR

Azure OpenAI Service é o acesso enterprise aos modelos da OpenAI (GPT-4o, o1, o3) com as garantias da Microsoft: dados não saem para treino, networking privado via VNet, content filtering configurável, SLA de 99.9% e contratos Enterprise Agreement. Para consultoras .NET com clientes em setores regulados, é o caminho padrão — mesma API da OpenAI, zero mudança de código.

O que é e por que existe

A OpenAI tem ótimos modelos mas infraestrutura SaaS pública: seus dados passam pelos servidores deles, sujeitos à política de privacidade deles. Para clientes corporativos com dados sensíveis, isso é bloqueador.

Azure OpenAI Service resolve isso: Microsoft hospeda os mesmos modelos dentro da infraestrutura Azure — com todas as garantias enterprise que a Microsoft já oferece para outros serviços.

🏢 O argumento para clientes regulados. Dados enviados via Azure OpenAI Service não são usados para treinar modelos. A Microsoft assina BAA (Business Associate Agreement) para dados de saúde (HIPAA), tem certificações ISO 27001, SOC 2, e o serviço pode ser configurado com Private Endpoint — nenhum tráfego sai pela internet pública.

Compliance e segurança enterprise

Data residency

Você escolhe a região Azure onde o modelo fica: Brazil South, East US, West Europe, etc. Dados processados ficam nessa região — importante para LGPD e regulações setoriais.

Private Endpoint / VNet Integration

Configure o Azure OpenAI como recurso privado dentro de uma VNet. Suas aplicações acessam via IP privado — sem tráfego passando pela internet pública. Combine com Azure Private DNS Zone para resolução interna.

Managed Identity

Nada de chaves de API hardcoded. Use Managed Identity para que sua aplicação Azure (App Service, AKS, Azure Function) se autentique automaticamente via AAD, sem segredos.

// C# com Managed Identity — sem chave de API no código
using Azure.AI.OpenAI;
using Azure.Identity;

// DefaultAzureCredential usa Managed Identity em produção,
// az login em desenvolvimento local
var client = new AzureOpenAIClient(
    new Uri("https://SEU-RECURSO.openai.azure.com/"),
    new DefaultAzureCredential()
);

var chatClient = client.GetChatClient("gpt-4o"); // nome do deployment

var response = await chatClient.CompleteChatAsync(
    new[]
    {
        new SystemChatMessage("Você é um assistente especializado em .NET."),
        new UserChatMessage("Explique async/await com exemplo prático.")
    },
    new ChatCompletionOptions
    {
        Temperature = 0.7f,
        MaxOutputTokenCount = 800
    }
);

Console.WriteLine(response.Value.Content[0].Text);

Content Filtering

Filtros configuráveis por deployment para 4 categorias: ódio, violência, automutilação e conteúdo sexual. Cada categoria tem threshold independente (low/medium/high). Você pode criar políticas customizadas para seu domínio.

Modelos disponíveis (2025)

ModeloUso principalContexto
GPT-4oMultimodal, uso geral128K tokens
GPT-4o miniCusto/benefício128K tokens
o1 / o1-miniRaciocínio complexo200K tokens
o3-miniRaciocínio eficiente200K tokens
text-embedding-3-largeEmbeddings para RAG8K tokens
DALL-E 3Geração de imagens
WhisperTranscrição de áudio
Phi-4SLM edge/local16K tokens
⚠️ Disponibilidade por região. Nem todos os modelos estão disponíveis em todas as regiões. Brazil South tem disponibilidade reduzida — East US 2 ou Sweden Central geralmente têm os modelos mais novos primeiro. Verifique a tabela de disponibilidade antes de arquitetar.

PTU vs Token-based pricing

Azure OpenAI tem dois modelos de cobrança radicalmente diferentes:

Pay-as-you-go (token-based)

  • Paga por token consumido (input + output separados)
  • Sem compromisso
  • Sujeito a rate limits compartilhados (TPM — tokens per minute)
  • Melhor para: protótipos, workloads variáveis, início de projeto

PTU — Provisioned Throughput Units

  • Reserva de capacidade dedicada (como RI para VMs)
  • Throughput garantido independente de carga na plataforma
  • Preço fixo mensal por PTU (varia por modelo e região)
  • Desconto significativo vs pay-as-you-go em alto volume
  • Melhor para: produção com volume previsível e alto, SLA crítico
💡 Quando migrar para PTU. Regra prática: se você gasta mais de $3.000/mês em tokens de GPT-4o no Azure, avalie PTU — o breakeven geralmente ocorre entre $3K-5K/mês dependendo do modelo. Use a calculadora de preços antes de comprometer.

Exemplo completo: chat com streaming em Python

import os
from openai import AzureOpenAI

# Configure via variáveis de ambiente — nunca hardcode
client = AzureOpenAI(
    azure_endpoint=os.environ["AZURE_OPENAI_ENDPOINT"],
    api_key=os.environ["AZURE_OPENAI_API_KEY"],
    api_version="2024-12-01-preview"
)

# Com streaming — melhor UX para interfaces de chat
stream = client.chat.completions.create(
    model="gpt-4o",  # nome do deployment no seu recurso
    messages=[
        {"role": "system", "content": "Você é um arquiteto de software .NET sênior."},
        {"role": "user", "content": "Quais são as principais mudanças do .NET 9 para performance?"}
    ],
    temperature=0.5,
    max_tokens=1000,
    stream=True
)

for chunk in stream:
    if chunk.choices and chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="", flush=True)

print()  # nova linha ao final

Estrutura recomendada de deployment

graph LR App["App Service / AKS"] MI["Managed Identity"] AOAI["Azure OpenAI Service\n(Private Endpoint)"] VNet["VNet Privada"] CF["Content Filter Policy"] App -->|"via Managed Identity"| MI MI -->|"sem chave de API"| AOAI AOAI --- VNet AOAI --- CF
🔗 Azure AI Foundry. O portal para gerenciar deployments, testar prompts e monitorar uso é o Azure AI Foundry (ai.azure.com). Ele substitui o antigo Azure OpenAI Studio e centraliza gestão de todos os modelos Azure AI — OpenAI, Phi, Llama via serverless endpoints, e modelos de terceiros do marketplace.

Como isso se conecta

  • 02-04-01 — GPT (OpenAI): mesmos modelos, wrapper enterprise do Azure
  • 02-04-05 — Phi family: também disponível via Azure AI Foundry
  • 02-05-01 — Parâmetros de inferência: temperature, top_p funcionam igual na API Azure
  • → Módulo 04 — Semantic Kernel: SDK .NET que integra nativamente com Azure OpenAI
  • → Módulo 05 — RAG: Azure AI Search + Azure OpenAI Embeddings é o stack padrão Microsoft

Fontes

  1. Microsoft Docs — Azure OpenAI Service overview
  2. Microsoft Docs — Azure OpenAI models availability
  3. Microsoft Docs — Provisioned Throughput Units (PTU)
  4. Azure OpenAI Service pricing
  5. Microsoft Docs — Managed Identity para Azure OpenAI