01-05-02 — Desafio: 3 modelos open-source no Hugging Face
TL;DR
Hugging Face é o GitHub dos modelos de IA — repositório central com +1 milhão de modelos open-source. Este tópico ensina a navegar o Model Hub e termina com um desafio prático: encontrar 3 modelos, identificar task, tamanho e licença. Exercício de 15 minutos que calibra sua intuição sobre o ecossistema open-source.
O que é Hugging Face
Fundada em 2016, a Hugging Face começou como empresa de chatbots e pivotou para infraestrutura de ML open-source. Hoje é a plataforma central do ecossistema:
- Model Hub — +1 milhão de modelos hospedados, com download via SDK
- Datasets — +250k datasets públicos
- Spaces — demos interativos rodando em cloud (Gradio, Streamlit)
- Transformers library — biblioteca Python mais usada para trabalhar com LLMs
- Inference API — chamadas de API pagas para modelos hospedados
Muitos clientes vão perguntar sobre modelos open-source vs. proprietários (OpenAI, Azure). Saber navegar o HF Hub permite avaliar alternativas com rapidez — um modelo open-source rodando on-premise pode ser a diferença para clientes com restrições de dados (bancos, saúde, governo).
Como navegar o Model Hub
Acesse huggingface.co/models. A interface tem três filtros essenciais:
1. Tasks (tipo de tarefa)
Filtra por o que o modelo faz. As categorias mais relevantes para aplicações enterprise:
| Task | Uso típico |
|---|---|
| Text Generation | Chat, completions, geração de conteúdo |
| Text Classification | Sentimento, categorização de tickets |
| Feature Extraction | Embeddings para RAG e busca semântica |
| Question Answering | Extração de respostas de documentos |
| Summarization | Resumo de documentos longos |
| Translation | Tradução automática |
| Token Classification | NER (reconhecimento de entidades) |
2. Libraries
Filtra por framework. Transformers cobre a maioria dos LLMs. GGUF indica modelos prontos para rodar localmente com llama.cpp ou Ollama.
3. Licenses
Crítico para uso comercial. As licenças mais comuns:
- MIT / Apache 2.0 — uso comercial livre, sem restrições
- Llama 3 Community License — uso comercial permitido, mas com restrições se você tiver +700M MAU
- CC-BY-NC — apenas uso não-comercial (evite para projetos de clientes)
- Gemma Terms of Use — uso comercial permitido com condições específicas do Google
Antes de usar qualquer modelo open-source num projeto de cliente, leia a licença. CC-BY-NC significa não-comercial — usar num produto SaaS ou projeto pago viola os termos. MIT e Apache 2.0 são seguros para uso comercial sem restrições.
O que você encontra na página de um modelo
Ao clicar em qualquer modelo, você vê:
- Model card — documentação: para que serve, como foi treinado, limitações
- Files and versions — os arquivos de pesos (formato safetensors ou GGUF)
- Spaces — demos rodando na nuvem para testar sem instalar nada
- Community — discussões, bugs reportados, casos de uso
Dois publishers que você precisa conhecer
A Microsoft mantém centenas de modelos no HF: huggingface.co/microsoft
- Phi-3 / Phi-4 — família de modelos pequenos (3.8B–14B) com qualidade surpreendente. Licença MIT. Ótimo para rodar on-premise em hardware modesto.
- e5-large-v2 — modelo de embeddings de alta qualidade. Apache 2.0.
- Florence-2 — modelo multimodal (visão + linguagem). MIT.
A Meta também é publisher relevante: huggingface.co/meta-llama — família LLaMA 3, os modelos open-source mais usados atualmente.
🎯 Desafio
Acesse huggingface.co/models e encontre 3 modelos open-source que poderiam ser usados em projetos reais da Impar. Para cada modelo, preencha a ficha abaixo:
Modelo: [nome no HF, ex: meta-llama/Llama-3.1-8B-Instruct]
Task: [o que ele faz]
Tamanho: [número de parâmetros ou tamanho em GB]
Licença: [MIT / Apache 2.0 / Llama Community / etc.]
Por que escolheu: [1-2 frases de justificativa]
Caso de uso sugerido: [em que projeto da Impar poderia aplicar]
Sugestões de busca para começar
Filtre por task e explore os mais baixados:
- Text Generation → procure Llama 3, Phi-4, Mistral, Qwen
- Feature Extraction → procure e5, BGE, sentence-transformers
- Text Classification → procure modelos treinados em português
Exemplo preenchido (não vale copiar!)
| Campo | Valor de exemplo |
|---|---|
| Modelo | microsoft/Phi-4-mini-instruct |
| Task | Text Generation (chat/instruct) |
| Tamanho | 3.8B parâmetros (~7.6GB em FP16) |
| Licença | MIT |
| Por que escolheu | Qualidade competitiva com modelos maiores, pode rodar em servidor com 1x GPU A10. Licença MIT sem restrições comerciais. |
| Caso de uso | Assistente interno de documentação técnica para equipes de desenvolvimento, rodando on-premise em cliente com restrição de dados (financeiro). |
Este é o fim do Módulo 01. Você tem agora a base conceitual necessária para o Módulo 02, que vai fundo nos LLMs: como funcionam, como são treinados, e como construir aplicações reais com eles. O vocabulário que você aprendeu aqui — tokens, embeddings, weights, inference, fine-tuning — vai aparecer em todo contexto do próximo módulo.
Como isso se conecta
- 01-05-01 Glossário — use os termos ao preencher a ficha do desafio
- Módulo 02 — LLMs — próximo módulo, constrói sobre a base do Módulo 01