A forma mais útil de organizar esse tema em 2026 é separar três coisas que quase sempre são misturadas: modelo aberto, modelo com pesos abertos e modelo fechado. “Open-source” no sentido estrito de software livre quase nunca descreve bem os LLMs modernos; em muitos casos o que existe é “open-weight”, isto é, pesos publicados, mas com licença, restrições ou partes do pipeline de treinamento não totalmente abertas. Esse detalhe importa muito porque muda o que você pode auditar, fine-tunar, hospedar localmente e usar comercialmente. A própria galeria do Sebastian Raschka é uma referência valiosa para comparar decisões arquiteturais recentes, especialmente no ecossistema de modelos abertos ou open-weight.
Também vale uma correção de nomenclatura antes de começar. No bloco “fechado”, Opus, Sonnet e Haiku não são famílias independentes: são linhas da família Claude, da Anthropic. Codex, hoje, também não é uma família totalmente separada de GPT no sentido antig