{"id":1911,"date":"2026-05-05T17:42:00","date_gmt":"2026-05-05T20:42:00","guid":{"rendered":"https:\/\/www.erudio.com.br\/blog\/?p=1911"},"modified":"2026-05-10T18:07:04","modified_gmt":"2026-05-10T21:07:04","slug":"inteligencia-artificial-privada-como-rodar-llms-open-source-na-sua-infraestrutura-sem-pagar-por-token","status":"publish","type":"post","link":"https:\/\/www.erudio.com.br\/blog\/inteligencia-artificial-privada-como-rodar-llms-open-source-na-sua-infraestrutura-sem-pagar-por-token\/","title":{"rendered":"Intelig\u00eancia Artificial privada: como rodar LLMs Open Source na sua infraestrutura sem pagar por token"},"content":{"rendered":"\n<p style=\"margin-top: 20px;\">At\u00e9 aqui a rela\u00e7\u00e3o da maioria dos desenvolvedores com intelig\u00eancia artificial foi basicamente a mesma: consumir. ChatGPT, Copilot, Claude \u2014 voc\u00ea entra, digita, recebe uma resposta e vai embora. \u00datil, sem d\u00favida. Mas existe uma diferen\u00e7a grande entre usar uma ferramenta e controlar a infraestrutura que a sustenta. E \u00e9 exatamente essa diferen\u00e7a que est\u00e1 criando uma das maiores janelas de oportunidade t\u00e9cnica que apareceram nos \u00faltimos anos para desenvolvedores que entendem de sistemas.<\/p>\n\n<p>O que a maioria dos tutoriais n\u00e3o menciona \u00e9 que existe toda uma categoria de modelos equivalentes \u2014 ou pr\u00f3ximos \u2014 que voc\u00ea pode baixar, hospedar, modificar e escalar sem pagar por cada requisi\u00e7\u00e3o, sem entregar dados a terceiros, sem depender de uma API que pode mudar de pre\u00e7o ou ser descontinuada amanh\u00e3. S\u00e3o os <strong>foundation models open source<\/strong>. E entender essa camada agora \u00e9 na minha vis\u00e3o um dos maiores diferenciais que um desenvolvedor backend pode construir nos pr\u00f3ximos dois anos.<\/p>\n\n<h2>O que \u00e9 um foundation model \u2014 e por que o nome \u00e9 uma descri\u00e7\u00e3o, n\u00e3o marketing<\/h2>\n\n<p>O termo foi definido pela Universidade de Stanford em 2021 e \u00e9 uma descri\u00e7\u00e3o t\u00e9cnica precisa do que ele representa. Antes desse conceito existir, criar uma IA para resolver um problema espec\u00edfico exigia um ciclo completo: coletar dados, rotular manualmente, treinar do zero, validar, ajustar, repetir. Era caro, demorado e invi\u00e1vel para a maioria das empresas fora de grandes laborat\u00f3rios com equipes dedicadas.<\/p>\n\n<p>O que mudou \u00e9 que esse ciclo pesado j\u00e1 foi feito \u2014 v\u00e1rias vezes, por quem teve recursos para isso. Quando voc\u00ea usa um foundation model, voc\u00ea herda anos de trabalho de coleta de dados, engenharia de treinamento e experimentos em um \u00fanico artefato: os <strong>pesos<\/strong> do modelo. A partir da\u00ed, voc\u00ea adapta para o seu caso em uma fra\u00e7\u00e3o do tempo e do custo que seria necess\u00e1rio partir do zero.<\/p>\n\n<p>Mas o que exatamente s\u00e3o esses &#8220;pesos&#8221;? Um <strong>LLM<\/strong> \u2014 <em>Large Language Model<\/em>, modelo de linguagem de grande escala \u2014 \u00e9 uma rede neural com bilh\u00f5es de par\u00e2metros num\u00e9ricos. Esses n\u00fameros s\u00e3o o resultado do treinamento: eles codificam tudo que o modelo aprendeu sobre linguagem, racioc\u00ednio, c\u00f3digo e conhecimento do mundo. Quando um modelo \u00e9 open source com pesos p\u00fablicos, isso significa que voc\u00ea pode baixar esses n\u00fameros e rodar o modelo localmente, sem conex\u00e3o com nenhum servidor externo. O modelo \u00e9 literalmente um arquivo no seu disco.<\/p>\n\n<p>Com modelos fechados, voc\u00ea nunca tem acesso a esses pesos. Voc\u00ea acessa via API e a empresa decide quando, como e a que pre\u00e7o. A diferen\u00e7a n\u00e3o \u00e9 apenas t\u00e9cnica \u2014 \u00e9 a diferen\u00e7a entre alugar e comprar.<\/p>\n\n<h2>A diferen\u00e7a entre alugar e comprar<\/h2>\n\n<p>Imagine que quando voc\u00ea usa a API da OpenAI ou da Anthropic, voc\u00ea est\u00e1 alugando um servi\u00e7o. O &#8220;apartamento&#8221; \u00e9 \u00f3timo, a infraestrutura \u00e9 confi\u00e1vel, voc\u00ea n\u00e3o precisa se preocupar com manuten\u00e7\u00e3o. Mas o contrato \u00e9 deles. Eles podem reajustar os pre\u00e7os da API sem aviso pr\u00e9vio, podem remover um <code>endpoint<\/code> espec\u00edfico que voc\u00ea usa, podem mudar as regras de uso retroativamente. E se voc\u00ea fez <strong>fine-tuning<\/strong> enviando seus dados propriet\u00e1rios para os servidores deles, perdeu os dados e continua sem ter o modelo \u2014 voc\u00ea ainda acessa via API e ainda paga por token.<\/p>\n\n<p>Quando voc\u00ea baixa um modelo open source \u2014 um <strong>Llama<\/strong>, um <strong>Qwen<\/strong>, um <strong>Mistral<\/strong> \u2014 voc\u00ea est\u00e1 comprando. O modelo fica na sua infraestrutura. Se a empresa que o criou encerrar as atividades amanh\u00e3, se surgir um modelo muito melhor no m\u00eas que vem, se o seu cliente exigir que nenhum dado saia do ambiente interno, voc\u00ea n\u00e3o perdeu nada. Voc\u00ea tem o modelo. Voc\u00ea controla.<\/p>\n\n<p>Sendo assim, para setores regulados \u2014 sa\u00fade, financeiro, jur\u00eddico, governo \u2014 essa distin\u00e7\u00e3o n\u00e3o \u00e9 prefer\u00eancia t\u00e9cnica, \u00e9 quest\u00e3o de conformidade. A <strong>LGPD<\/strong>, as normas do Banco Central, as regulamenta\u00e7\u00f5es do CFM para dados m\u00e9dicos: todas criam ambientes onde mandar dados de pacientes ou opera\u00e7\u00f5es financeiras para uma API americana pode ser simplesmente ilegal ou no m\u00ednimo um risco que nenhum departamento jur\u00eddico corporativo aprova. Modelos rodando <em>on-premises<\/em> eliminam esse problema na raiz. E a demanda reprimida nesses setores \u00e9 enorme \u2014 com poucos profissionais capazes de entregar isso.<\/p>\n\n<h2>Como esses LLMs aprendem \u2014 e por que as capacidades que ningu\u00e9m programou aparecem<\/h2>\n\n<p>Durante o treinamento, o modelo aprende essencialmente uma \u00fanica tarefa: dado um texto, prever qual \u00e9 o pr\u00f3ximo <strong>token<\/strong> mais prov\u00e1vel. Um token n\u00e3o \u00e9 exatamente uma palavra \u2014 \u00e9 um peda\u00e7o de texto de comprimento vari\u00e1vel, geralmente entre meia palavra e duas palavras. O treinamento consiste em expor o modelo a trilh\u00f5es desses tokens e ajustar os pesos para minimizar o erro de predi\u00e7\u00e3o.<\/p>\n\n<p>Parece trivial. Na pr\u00e1tica, para que um LLM seja bom em prever o pr\u00f3ximo token em qualquer contexto \u2014 de um c\u00f3digo Python a um argumento filos\u00f3fico, de uma receita de cozinha a uma an\u00e1lise jur\u00eddica \u2014 ele precisa desenvolver uma representa\u00e7\u00e3o interna do mundo que torna essas predi\u00e7\u00f5es poss\u00edveis. O modelo n\u00e3o memoriza textos. Ele aprende as estruturas que os geram.<\/p>\n\n<p>\u00c9 da\u00ed que emergem as capacidades que ningu\u00e9m programou explicitamente: racioc\u00ednio l\u00f3gico, capacidade de seguir instru\u00e7\u00f5es, habilidade de programar em m\u00faltiplas linguagens, compreens\u00e3o de causa e efeito. Esse fen\u00f4meno \u2014 chamado de <strong>&#8220;capacidades emergentes&#8221;<\/strong> na literatura t\u00e9cnica \u2014 \u00e9 bem documentado e continua sendo objeto de estudo intenso. O que importa para o desenvolvedor \u00e9 que essas habilidades surgem naturalmente, sem que ningu\u00e9m tenha escrito uma linha de c\u00f3digo dizendo &#8220;aprenda a raciocinar&#8221;.<\/p>\n\n<p>Uma analogia que uso bastante: pense no LLM bruto como um adolescente que acabou de terminar o ensino m\u00e9dio. Ele sabe um pouco de tudo, tem capacidade de aprender r\u00e1pido, mas n\u00e3o conhece nada espec\u00edfico da sua organiza\u00e7\u00e3o. \u00c9 a\u00ed que entram o <strong>fine-tuning<\/strong> e o <strong>RAG<\/strong> \u2014 voc\u00ea ensina esse adolescente o que ele precisa saber para trabalhar na sua empresa.<\/p>\n\n<h2>O ecossistema que amadureceu r\u00e1pido demais<\/h2>\n\n<p>Antes de 2023, existiam modelos open source, mas nenhum que fosse competitivo de verdade. Voc\u00ea at\u00e9 conseguia rodar, mas os resultados eram ruins comparados com as primeiras vers\u00f5es do ChatGPT. Em 2023, a Meta lan\u00e7ou o <strong>Llama<\/strong> e mudou o ponto de equil\u00edbrio do setor. Primeiro com licen\u00e7a n\u00e3o comercial \u2014 e os pesos acabaram vazando de qualquer forma, o que acelerou tudo. Depois veio o Llama 2 com licen\u00e7a comercial permissiva. A partir da\u00ed o ritmo foi acelerado: Mistral, Qwen, Gemma, Phi, DeepSeek, Command R. As ferramentas de <em>serving<\/em> como o <a href=\"https:\/\/ollama.com\" target=\"_blank\" rel=\"noopener\"><strong>Ollama<\/strong><\/a> e o <a href=\"https:\/\/github.com\/vllm-project\/vllm\" target=\"_blank\" rel=\"noopener\"><strong>vLLM<\/strong><\/a> amadureceram junto.<\/p>\n\n<p>Em 2025 e 2026, modelos como Qwen e Gemma conseguem entregar basicamente os mesmos resultados que o ChatGPT e o Claude entregavam no in\u00edcio de 2025. Isso \u00e9 uma tend\u00eancia consistente: o que era caro e exclusivo das APIs fechadas um ano atr\u00e1s, voc\u00ea consegue replicar hoje com um modelo open source. E essa diferen\u00e7a continua se fechando.<\/p>\n\n<p>As fam\u00edlias principais hoje s\u00e3o o <strong>Llama<\/strong> (Meta), refer\u00eancia para uso comercial com comunidade enorme; o <strong>Qwen<\/strong> (Alibaba), muito forte para c\u00f3digo e multil\u00edngue; o <strong>Mistral<\/strong>, com foco em efici\u00eancia \u2014 modelos menores entregando resultado acima do esperado; o <strong>Gemma<\/strong> (Google), que chega a rodar em dispositivos mobile; e o <strong>Phi<\/strong> (Microsoft), que demonstra que tamanho n\u00e3o \u00e9 o \u00fanico vetor de qualidade. Cada fam\u00edlia tem seu perfil de uso e a escolha depende muito do caso espec\u00edfico.<\/p>\n\n<h2>Como rodar na pr\u00e1tica \u2014 do laptop ao ambiente de produ\u00e7\u00e3o<\/h2>\n\n<p>O <a href=\"https:\/\/ollama.com\" target=\"_blank\" rel=\"noopener\">Ollama<\/a> \u00e9 provavelmente o ponto de entrada mais direto. Com um \u00fanico comando voc\u00ea baixa e sobe um modelo localmente, com uma <strong>API REST<\/strong> compat\u00edvel com a interface da OpenAI. Isso significa que c\u00f3digo escrito para o ChatGPT pode ser redirecionado para um Llama rodando no seu laptop sem alterar uma linha \u2014 voc\u00ea s\u00f3 troca a <code>URL<\/code> base. Se voc\u00ea usa <strong>Spring AI<\/strong>, Semantic Kernel ou qualquer outro framework que j\u00e1 tem integra\u00e7\u00e3o com a interface da OpenAI, a mudan\u00e7a \u00e9 m\u00ednima.<\/p>\n\n<p>Um LLM de 7 bilh\u00f5es de par\u00e2metros em precis\u00e3o plena ocupa cerca de 28 GB de mem\u00f3ria \u2014 hardware de servidor. Mas existe a <strong>quantiza\u00e7\u00e3o<\/strong>, que reduz a precis\u00e3o dos pesos com perda de qualidade surpreendentemente pequena. Um Llama 7B quantizado para 4 bits ocupa cerca de 4 GB de RAM e roda razoavelmente bem em hardware mediano. Para experimentos e casos de uso leves funciona bem. Para produ\u00e7\u00e3o em tarefas cr\u00edticas, quantiza\u00e7\u00e3o para 8 bits preserva mais qualidade.<\/p>\n\n<p>Para produ\u00e7\u00e3o com requisitos de <em>throughput<\/em>, o <a href=\"https:\/\/github.com\/vllm-project\/vllm\" target=\"_blank\" rel=\"noopener\">vLLM<\/a> \u00e9 o padr\u00e3o da ind\u00fastria. Ele consegue servir de 10 a 20 vezes mais tokens por segundo do que alternativas mais simples com o mesmo hardware. Para aplica\u00e7\u00f5es de alto volume, a diferen\u00e7a \u00e9 a linha entre economicamente vi\u00e1vel e invi\u00e1vel. O <a href=\"https:\/\/huggingface.co\/models\" target=\"_blank\" rel=\"noopener\">Hugging Face<\/a> tem um cat\u00e1logo enorme de modelos e vers\u00f5es quantizadas prontas para download. O Docker tamb\u00e9m entrou no jogo com o <strong>Docker Model Runner<\/strong> e o <strong>Docker MCP Catalog<\/strong>, o que facilita ainda mais o deploy para quem j\u00e1 tem essa infraestrutura.<\/p>\n\n<h2>Fine-tuning e RAG: onde est\u00e1 o valor real<\/h2>\n\n<p>Um foundation model gen\u00e9rico sabe um pouco de tudo. Aplica\u00e7\u00f5es de verdade precisam de um modelo excelente em um dom\u00ednio espec\u00edfico. \u00c9 aqui que os modelos open source t\u00eam uma vantagem estrutural que os fechados simplesmente n\u00e3o conseguem oferecer.<\/p>\n\n<p><strong>Fine-tuning<\/strong> \u00e9 o processo de continuar o treinamento usando dados espec\u00edficos do seu dom\u00ednio \u2014 contratos jur\u00eddicos de uma \u00e1rea espec\u00edfica, laudos de radiologia de uma especialidade, documenta\u00e7\u00e3o t\u00e9cnica de um sistema industrial. O resultado \u00e9 um LLM que n\u00e3o apenas tem o conhecimento geral do foundation model, mas internalizou os padr\u00f5es, a terminologia e as nuances do dom\u00ednio.<\/p>\n\n<p>A t\u00e9cnica que tornou isso acess\u00edvel \u00e9 o <strong>LoRA<\/strong> \u2014 <em>Low-Rank Adaptation<\/em>. Em vez de ajustar todos os bilh\u00f5es de par\u00e2metros do modelo, o LoRA congela os pesos originais e treina apenas um conjunto muito menor de par\u00e2metros de adapta\u00e7\u00e3o. Um fine-tuning que antes exigiria um cluster de GPUs de datacenter pode ser feito hoje em uma \u00fanica GPU de 24 GB em algumas horas. O <strong>QLoRA<\/strong> vai al\u00e9m, combinando quantiza\u00e7\u00e3o com LoRA para tornar o processo vi\u00e1vel em hardware ainda mais modesto.<\/p>\n\n<p>O <strong>RAG<\/strong> \u2014 <em>Retrieval-Augmented Generation<\/em> \u2014 \u00e9 a t\u00e9cnica complementar. Enquanto o fine-tuning muda o que o modelo sabe e como ele se comporta, o RAG injeta conhecimento externo em tempo real durante a infer\u00eancia. Em vez de depender apenas do que o LLM internalizou no treinamento, o sistema recupera documentos relevantes de uma <strong>base vetorial<\/strong> e os inclui no contexto da pergunta antes de passar para o modelo.<\/p>\n\n<p>A combina\u00e7\u00e3o das duas \u2014 modelo fine-tuned para o dom\u00ednio, com acesso a dados atualizados via RAG \u2014 \u00e9 o estado da arte para aplica\u00e7\u00f5es verticais. O fine-tuning garante que o modelo entenda a terminologia e os padr\u00f5es do setor; o RAG garante acesso a informa\u00e7\u00f5es recentes e espec\u00edficas que n\u00e3o estavam no treinamento. Juntos, eles criam um sistema que supera qualquer API gen\u00e9rica no nicho espec\u00edfico. Nenhuma API fechada vai saber responder no jarg\u00e3o da medicina do trabalho, do agroneg\u00f3cio ou do jur\u00eddico de contratos rurais. Voc\u00ea tem que treinar para isso \u2014 e para treinar com dados propriet\u00e1rios, o modelo precisa estar na sua infraestrutura.<\/p>\n\n<h2>Onde est\u00e3o as oportunidades concretas<\/h2>\n\n<p>Na minha vis\u00e3o, quatro \u00e1reas v\u00e3o concentrar as maiores oportunidades nos pr\u00f3ximos anos para desenvolvedores que dominam essa camada.<\/p>\n\n<p>A primeira \u00e9 <strong>fine-tuning como servi\u00e7o para nichos verticais<\/strong>. O n\u00edvel de especializa\u00e7\u00e3o que um cliente corporativo precisa s\u00f3 \u00e9 poss\u00edvel com fine-tuning nos dados propriet\u00e1rios dele \u2014 e esses dados n\u00e3o podem sair da infraestrutura por quest\u00f5es de sigilo e regula\u00e7\u00e3o. O desenvolvedor que sabe montar esse pipeline, avaliar a qualidade do modelo resultante e entregar uma API interna com a mesma interface que os times j\u00e1 usam tem um produto de alto valor com barreira t\u00e9cnica genu\u00edna.<\/p>\n\n<p>A segunda \u00e9 <strong>deploy on-premises para setores regulados<\/strong>. A demanda por IA em sa\u00fade, financeiro e governo \u00e9 enorme e crescente. O problema \u00e9 que a maioria das solu\u00e7\u00f5es exige conectividade com APIs externas, o que cria problemas regulat\u00f3rios s\u00e9rios. Quem consegue fazer esse deploy \u2014 configurar o serving, garantir performance adequada, integrar com os sistemas existentes do cliente \u2014 est\u00e1 num mercado com demanda reprimida grande e poucos profissionais capacitados.<\/p>\n\n<p>A terceira \u00e9 <strong>automa\u00e7\u00e3o de alto volume sem custo recorrente de API<\/strong>. Triagem de e-mails, extra\u00e7\u00e3o de dados de documentos em lote, gera\u00e7\u00e3o de relat\u00f3rios, classifica\u00e7\u00e3o de tickets \u2014 qualquer atividade que processe milhares ou milh\u00f5es de itens por dia esbarra no custo linear das APIs pagas. Com um modelo hospedado, o custo marginal por item tende a zero. Para empresas de m\u00e9dio e grande porte, a diferen\u00e7a econ\u00f4mica pode ser de uma a duas ordens de grandeza.<\/p>\n\n<p>A quarta \u00e9 <strong>infraestrutura para o pr\u00f3prio ecossistema<\/strong>: ferramentas de gerenciamento de modelos, pipelines de fine-tuning com valida\u00e7\u00e3o automatizada, sistemas de monitoramento de comportamento, versionamento de modelos. Boa parte disso ainda n\u00e3o existe de forma madura. Quem constr\u00f3i infraestrutura para outros desenvolvedores nesse espa\u00e7o est\u00e1 num mercado de alta tra\u00e7\u00e3o e baixa concorr\u00eancia.<\/p>\n\n<h2>O que ainda n\u00e3o \u00e9 verdade \u2014 limitando o hype<\/h2>\n\n<p>Seria desonesto n\u00e3o delimitar onde os modelos open source ainda ficam atr\u00e1s. Para as tarefas mais avan\u00e7adas de racioc\u00ednio complexo, os modelos fechados ainda t\u00eam vantagem na fronteira absoluta de capacidade. GPT-4o, Claude e Gemini representam o estado da arte em tarefas que exigem racioc\u00ednio de m\u00faltiplas etapas com muito contexto. LLMs open source ficam pr\u00f3ximos, mas geralmente n\u00e3o chegam l\u00e1. Para casos onde essa fronteira importa, as APIs fechadas ainda t\u00eam argumento.<\/p>\n\n<p>O custo de infraestrutura tamb\u00e9m n\u00e3o \u00e9 zero. Uma GPU de alto desempenho que roda um Llama 70B com lat\u00eancia aceit\u00e1vel custa entre US$ 2 e US$ 5 por hora em cloud. Para volumes baixos, pode ser mais caro do que usar uma API paga. A vantagem econ\u00f4mica materializa em volume \u2014 e \u00e9 preciso calcular o <em>break-even<\/em> para o caso espec\u00edfico antes de assumir que \u00e9 sempre mais barato.<\/p>\n\n<p>E aten\u00e7\u00e3o \u00e0s <strong>licen\u00e7as<\/strong>: nem todo modelo &#8220;open source&#8221; tem a mesma licen\u00e7a. O Llama tem restri\u00e7\u00f5es para empresas acima de certo porte e usos que competem diretamente com a Meta. Alguns modelos pro\u00edbem uso comercial completamente. Antes de usar qualquer modelo em produ\u00e7\u00e3o, leia a licen\u00e7a espec\u00edfica e valide com seu jur\u00eddico se necess\u00e1rio.<\/p>\n\n<h2>A janela que ainda est\u00e1 aberta<\/h2>\n\n<p>Nos anos 90, a Microsoft dominava com o Windows. Qualquer desenvolvedor podia construir sobre aquela plataforma \u2014 mas o Windows era fechado. Voc\u00ea dependia da Microsoft para atualiza\u00e7\u00f5es, pre\u00e7os e regras. Paralelamente, o Linux crescia. Sem licen\u00e7a, modific\u00e1vel, distribu\u00edvel. Demorou tempo, mas hoje o Linux roda a maioria dos servidores do mundo, todos os smartphones Android e a maior parte da infraestrutura de cloud computacional.<\/p>\n\n<p>O Linux n\u00e3o ganhou por ter mais features que o Windows. Ganhou porque a liberdade de modificar, adaptar e distribuir criou um ecossistema imposs\u00edvel de competir por um fornecedor \u00fanico. Os foundation models open source seguem a mesma trajet\u00f3ria \u2014 com uma diferen\u00e7a: o ciclo est\u00e1 se comprimindo. O que levou d\u00e9cadas no Linux est\u00e1 levando anos na IA.<\/p>\n\n<p>O desenvolvedor que entende de sistemas, integra\u00e7\u00e3o e escalabilidade \u2014 e que aprende essa camada agora \u2014 est\u00e1 exatamente no ponto de vantagem certo. A quest\u00e3o n\u00e3o \u00e9 se a janela vai se fechar. \u00c9 at\u00e9 quando ela fica aberta.<\/p>\n\n<p><strong>Assista tamb\u00e9m:<\/strong> <a href=\"https:\/\/www.youtube.com\/watch?v=QPzN3ALol_E\" target=\"_blank\" rel=\"noopener\">Este \u00e9 o &#8220;Bitcoin&#8221; de 2026: Foundation Models v\u00e3o tornar desenvolvedores ricos e a maioria vai ignorar<\/a><\/p>\n\n\n<iframe loading=\"lazy\" title=\"Esse \u00e9 o &quot;Bitcoin&quot; de 2026: Foundation Models V\u00e3o Fazer Devs Milion\u00e1rios e a Maioria Vai Ignorar\" width=\"648\" height=\"365\" src=\"https:\/\/www.youtube.com\/embed\/QPzN3ALol_E?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe>\n\n<h2>Treinamentos relacionados com essa postagem<\/h2>\n\n<a href=\"https:\/\/pub.erudio.com.br\/carreira-em-ti-do-zero-ao-exterior-curriculo-entrevistas-negociacao-e-crescimento-profissional?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=open-source-foundation-models&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-top: 8px; margin-bottom: 8px;\" title=\"Carreira em TI do Zero ao Exterior: Curr\u00edculo, Entrevistas, Negocia\u00e7\u00e3o e Crescimento Profissional\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/13-career.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/formacao-spring-ai-2026-inteligencia-artificial-com-java-spring-boot-chatgpt-deepseek-claude-e-mcp?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=open-source-foundation-models&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"Forma\u00e7\u00e3o Spring AI 2026: Intelig\u00eancia Artificial com Java, Spring Boot, ChatGPT, DeepSeek, Claude e MCP\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/31-spring-ai-java.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/inteligencia-artificial-com-dotnet-ai-e-dotnet-10-apps-inteligentes-com-chatgpt-openai-deepseek-e-ollama?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=open-source-foundation-models&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"Intelig\u00eancia Artificial com .NET AI e .NET 10: Aplica\u00e7\u00f5es Inteligentes com ChatGPT, OpenAI, DeepSeek e Ollama\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/33-dotnet-ai.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/formacao-spring-ai-2026-inteligencia-artificial-com-kotlin-spring-boot-chatgpt-deepseek-claude-e-mcp?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=open-source-foundation-models&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"Forma\u00e7\u00e3o Spring AI 2026: Intelig\u00eancia Artificial com Kotlin, Spring Boot, ChatGPT, DeepSeek, Claude e MCP\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/32-code-ai-kspring.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/formacao-spring-boot-2026-do-zero-ao-continuous-deployment-na-aws-e-gcp-com-java-docker-e-kubernetes?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=open-source-foundation-models&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"Forma\u00e7\u00e3o Spring Boot 2026: do Zero ao Deploy na AWS e GCP com Java, Docker e Kubernetes\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/07-rest-java.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/formacao-microsservicos-2026-do-zero-ao-deploy-na-google-cloud-com-spring-boot-kubernetes-e-docker?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=open-source-foundation-models&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"Forma\u00e7\u00e3o Microsservi\u00e7os 2026: do Zero ao Deploy na Google Cloud com Spring Boot, Kubernetes e Docker\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/14-microservices-java.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/docker-e-kubernetes-2026-do-zero-ao-deploy-profissional-na-aws-azure-e-gcp-com-github-actions?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=open-source-foundation-models&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"Forma\u00e7\u00e3o Docker e Kubernetes 2026: do Zero ao Deploy Profissional na AWS, Azure e GCP com GitHub Actions\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/10-docker-to-aws.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/meus-cursos?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=open-source-foundation-models&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"Forma\u00e7\u00e3o Docker e Kubernetes 2026: do Zero \u00e0 Intelig\u00eancia Artificial com MCP Catalog e Docker Model Runner\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/09-docker.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/formacao-continuous-deployment-java-kubernetes-gcp-github-actions?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=open-source-foundation-models&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"Forma\u00e7\u00e3o Continuous Deployment: do Zero ao Deploy com Java, Spring Boot, Docker, Kubernetes, Google Cloud (GCP) e GitHub Actions\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/29-cdpl-java-gcp.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/formacao-continuous-integration-delivery-java-aws-github-actions?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=open-source-foundation-models&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"Forma\u00e7\u00e3o Continuous Integration e Delivery: do Zero ao Deploy com Java, Spring Boot, Docker, Amazon AWS e GitHub Actions\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/27-cicd-java-aws.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/formacao-continuous-integration-delivery-java-azure-github-actions?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=open-source-foundation-models&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"Forma\u00e7\u00e3o Continuous Integration e Delivery: do Zero ao Deploy com Java, Spring Boot, Docker, Microsoft Azure e GitHub Actions\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/28-cicd-java-azure.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/meus-cursos?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=open-source-foundation-models&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"Forma\u00e7\u00e3o Microsservi\u00e7os 2026: do 0 ao Deploy na Google Cloud com ASP.NET, .NET 10, Kubernetes e Docker\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/15-microservices-asp-net.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/asp-net-2026-do-0-a-azure-e-gcp-com-asp-net-10-docker-e-kubernetes?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=open-source-foundation-models&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"Forma\u00e7\u00e3o ASP.NET 2026: do Zero ao Deploy na Azure e GCP com .NET 10, Docker e Kubernetes\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/01-rest-asp-net.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/formacao-java-testing-2026-testes-automatizados-com-junit-mockito-spring-boot-tdd-e-testcontainers?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=open-source-foundation-models&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"Forma\u00e7\u00e3o Java Testing 2026: Testes Automatizados com JUnit, Mockito, Spring Boot, TDD e TestContainers\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/24-tests-java.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/formacao-spring-boot-com-kotlin-rest-apis-profissionais-do-zero-ao-deploy-na-aws-com-docker-e-kubernetes?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=open-source-foundation-models&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"Forma\u00e7\u00e3o Spring Boot com Kotlin: REST APIs Profissionais do Zero ao Deploy na AWS com Docker e Kubernetes\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/18-rest-spring-kotlin.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/formacao-microsservicos-com-spring-cloud-spring-boot-kotlin-docker-e-zookeeper?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=open-source-foundation-models&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"Forma\u00e7\u00e3o Microsservi\u00e7os com Spring Cloud, Spring Boot, Kotlin, Docker e Zookeeper\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/22-ms-kotlin.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/kotlin-para-desenvolvedores-java-domine-sintaxe-lambdas-generics-reflections-programacao-funcional-e-spring-boot?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=open-source-foundation-models&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"Kotlin para DEV's Java: Domine Lambdas, Generics, Reflections, Programa\u00e7\u00e3o Funcional e Spring Boot\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/20-kotlin.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/crie-relatorios-profissionais-com-jasperreports-java-spring-boot-e-jaspersoft-studio?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=open-source-foundation-models&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"Crie Relat\u00f3rios Profissionais com JasperReports, Java, Spring Boot e JasperSoft Studio\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/30-jasper.png\">\n<\/a>\n","protected":false},"excerpt":{"rendered":"<p>At\u00e9 aqui a rela\u00e7\u00e3o da maioria dos desenvolvedores com intelig\u00eancia artificial foi basicamente a mesma: consumir. ChatGPT, Copilot, Claude \u2014 voc\u00ea entra, digita, recebe uma resposta e vai embora. \u00datil, sem d\u00favida. Mas existe uma diferen\u00e7a grande entre usar uma ferramenta e controlar a infraestrutura que a sustenta. E \u00e9 exatamente essa diferen\u00e7a que est\u00e1 [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":1917,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[387,404,405],"tags":[400,402,401,403],"_links":{"self":[{"href":"https:\/\/www.erudio.com.br\/blog\/wp-json\/wp\/v2\/posts\/1911"}],"collection":[{"href":"https:\/\/www.erudio.com.br\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.erudio.com.br\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.erudio.com.br\/blog\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.erudio.com.br\/blog\/wp-json\/wp\/v2\/comments?post=1911"}],"version-history":[{"count":5,"href":"https:\/\/www.erudio.com.br\/blog\/wp-json\/wp\/v2\/posts\/1911\/revisions"}],"predecessor-version":[{"id":1916,"href":"https:\/\/www.erudio.com.br\/blog\/wp-json\/wp\/v2\/posts\/1911\/revisions\/1916"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.erudio.com.br\/blog\/wp-json\/wp\/v2\/media\/1917"}],"wp:attachment":[{"href":"https:\/\/www.erudio.com.br\/blog\/wp-json\/wp\/v2\/media?parent=1911"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.erudio.com.br\/blog\/wp-json\/wp\/v2\/categories?post=1911"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.erudio.com.br\/blog\/wp-json\/wp\/v2\/tags?post=1911"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}