02-04-03 — Gemini (Google): Ultra, Pro, Flash, Nano
TL;DR
Gemini é a família multimodal nativa do Google — projetada desde o início para processar texto, imagem, áudio e vídeo em um único modelo. Gemini 1.5 Pro introduziu context window de 1 milhão de tokens. Gemini 2.5 Pro (2025) lidera benchmarks de raciocínio. Disponível via Google AI Studio (dev) e Vertex AI (enterprise/GCP).
Multimodal nativo: o que isso significa
Modelos como GPT-4 e Claude foram originalmente de texto, com visão adicionada posteriormente. Gemini foi arquitetado desde o início para processar múltiplas modalidades de forma unificada — texto, imagens, áudio e vídeo são processados pelo mesmo modelo, não por módulos separados conectados.
Na prática, isso permite:
- Analisar um vídeo com perguntas sobre conteúdo específico de timestamps
- Processar imagens com contexto textual de alta complexidade
- Combinar código + screenshot + mensagem de erro numa única query
Família de modelos (2024-2025)
| Modelo | Contexto | Posicionamento |
|---|---|---|
| Gemini 2.5 Pro | 1M tokens | Raciocínio avançado, melhor benchmark geral (2025) |
| Gemini 2.0 Flash | 1M tokens | Velocidade + custo — uso de alta frequência |
| Gemini 1.5 Pro | 2M tokens | Contexto ultra-longo — documentos massivos |
| Gemini Nano | — | On-device — Pixel 8, Android |
1M tokens = ~750k palavras = toda a obra de Harry Potter (~1 milhão de palavras em inglês). Ou uma codebase de ~30k linhas de código com todos os arquivos de contexto. Isso muda completamente o que é possível fazer num único prompt — de RAG para "coloque tudo no contexto".
Google AI Studio vs Vertex AI
Para desenvolvimento e protótipos: Google AI Studio é a porta de entrada mais rápida. Para produção enterprise (compliance, networking privado, escala): Vertex AI é o equivalente Google ao Azure OpenAI Service.
Exemplo de chamada via API
import google.generativeai as genai
genai.configure(api_key="SUA_API_KEY")
model = genai.GenerativeModel(
model_name="gemini-2.0-flash",
system_instruction="Você é um especialista em arquitetura de software .NET."
)
response = model.generate_content(
"Explique o padrão CQRS e quando usar com Event Sourcing em sistemas .NET de alta escala."
)
print(response.text)
Diferenciais frente aos concorrentes
| Diferencial | Detalhe |
|---|---|
| Context window mais longo do mercado | 1-2M tokens vs 128-200k dos concorrentes |
| Integração com Google Search | Grounding com busca real via Vertex AI |
| Google Workspace | NotebookLM, Docs, Gmail integrados |
| Gemini Code Assist | Integração com IDEs (VS Code, JetBrains) |
| Preço Flash | Gemini 2.0 Flash: $0.075/$0.30 por 1M tokens in/out |
Para empresas no ecossistema Microsoft/Azure, integrar Gemini via Vertex AI significa adicionar GCP como segunda cloud — com custos de networking, IAM separado e complexidade operacional. Gemini via Google AI Studio é ótimo para experimentação, mas para produção em stack Azure, vale avaliar se os diferenciais justificam a complexidade adicional.
Como isso se conecta
Fontes
- Google — Gemini API — Modelos disponíveis
- Google — Vertex AI — Generative AI Models
- Google DeepMind (2023) — Gemini: A Family of Highly Capable Multimodal Models