{"id":1938,"date":"2025-06-03T09:27:36","date_gmt":"2025-06-03T12:27:36","guid":{"rendered":"https:\/\/www.erudio.com.br\/blog\/?p=1938"},"modified":"2026-05-11T09:44:28","modified_gmt":"2026-05-11T12:44:28","slug":"inteligencia-artificial-on-premises-com-ollama-como-empresas-estao-rodando-llms-na-propria-infraestrutura-sem-vazar-dados-para-a-nuvem","status":"publish","type":"post","link":"https:\/\/www.erudio.com.br\/blog\/inteligencia-artificial-on-premises-com-ollama-como-empresas-estao-rodando-llms-na-propria-infraestrutura-sem-vazar-dados-para-a-nuvem\/","title":{"rendered":"Intelig\u00eancia Artificial <em>on-premises<\/em> com Ollama: como empresas est\u00e3o rodando LLMs na pr\u00f3pria infraestrutura sem vazar dados para a nuvem"},"content":{"rendered":"\n<p style=\"margin-top: 20px;\">Nos \u00faltimos quatro anos a Intelig\u00eancia Artificial saiu do laborat\u00f3rio e chegou ao dia a dia de desenvolvedores, analistas e gestores. Ferramentas como o ChatGPT popularizaram o uso de <strong>LLM<\/strong> \u2014 <em>Large Language Model<\/em>, grandes modelos de linguagem \u2014 para um p\u00fablico muito al\u00e9m dos especialistas em <em>machine learning<\/em>. O problema \u00e9 que esse acesso f\u00e1cil tem um custo que muitas organiza\u00e7\u00f5es n\u00e3o est\u00e3o dispostas a pagar: cada prompt enviado a uma API externa \u00e9, na pr\u00e1tica, um dado da empresa trafegando para fora da sua rede.<\/p>\n\n<p>Para bancos, escrit\u00f3rios de advocacia, hospitais e qualquer organiza\u00e7\u00e3o sujeita a regula\u00e7\u00e3o de dados, isso n\u00e3o \u00e9 uma quest\u00e3o de prefer\u00eancia \u2014 \u00e9 um impedimento real. E \u00e9 exatamente esse espa\u00e7o que o <strong>Ollama<\/strong> veio ocupar.<\/p>\n\n<h2>O que \u00e9 o Ollama<\/h2>\n\n<p>O Ollama \u00e9 uma plataforma de c\u00f3digo aberto que permite executar LLMs diretamente na sua m\u00e1quina ou na infraestrutura interna da sua organiza\u00e7\u00e3o. Ele foi criado e \u00e9 mantido pela comunidade e se tornou a ferramenta que mais cresceu nessa categoria nos \u00faltimos anos \u2014 e n\u00e3o \u00e9 coincid\u00eancia. Ele resolveu um problema concreto: tornou a execu\u00e7\u00e3o local de LLMs simples o suficiente para que n\u00e3o exija conhecimento profundo em <em>machine learning<\/em> nem hardware de data center para dar os primeiros passos.<\/p>\n\n<p>No site oficial em <code>ollama.com<\/code> voc\u00ea encontra o instalador para Windows, macOS e Linux e uma biblioteca de modelos prontos para baixar e executar: Llama, Mistral, Qwen, Gemma, DeepSeek, Phi e outros. O processo \u00e9 pr\u00f3ximo de instalar qualquer outra ferramenta de linha de comando \u2014 sem configura\u00e7\u00e3o complexa, sem depend\u00eancias obscuras.<\/p>\n\n<p>Vale mencionar que a Docker lan\u00e7ou recentemente o Docker Model Runner, que pretende concorrer diretamente com o Ollama. Mas por ora ele ainda n\u00e3o tem a mesma maturidade nem o mesmo ecossistema que o Ollama construiu ao longo do tempo.<\/p>\n\n<h2>Por que o mercado corporativo est\u00e1 prestando aten\u00e7\u00e3o<\/h2>\n\n<p>A ado\u00e7\u00e3o de Intelig\u00eancia Artificial dentro das empresas esbarra frequentemente em uma barreira que pouco aparece nas discuss\u00f5es t\u00e9cnicas: a pol\u00edtica de seguran\u00e7a da informa\u00e7\u00e3o. N\u00e3o \u00e9 raro que equipes inteiras de desenvolvimento estejam proibidas de usar o ChatGPT, o Claude ou qualquer outra ferramenta de IA baseada em nuvem. O motivo \u00e9 simples \u2014 essas ferramentas processam os dados em servidores externos e, dependendo do que for enviado, isso pode violar pol\u00edticas internas, contratos com clientes ou legisla\u00e7\u00f5es como a LGPD e o GDPR.<\/p>\n\n<p>O Ollama muda essa equa\u00e7\u00e3o. Com ele \u00e9 poss\u00edvel subir um LLM moderno dentro da pr\u00f3pria rede corporativa, sem nenhuma conex\u00e3o com a internet se assim for necess\u00e1rio. O dado entra, o modelo processa, a resposta sai \u2014 tudo dentro do per\u00edmetro da organiza\u00e7\u00e3o. Para um CISO ou um jur\u00eddico corporativo, isso \u00e9 uma diferen\u00e7a fundamental.<\/p>\n\n<p>Bom, isso abre um leque de casos de uso que antes simplesmente n\u00e3o eram vi\u00e1veis: assistentes internos treinados com documenta\u00e7\u00e3o propriet\u00e1ria, ferramentas de an\u00e1lise de contratos, suporte ao desenvolvedor com acesso ao c\u00f3digo-fonte da empresa, automa\u00e7\u00e3o de processos que envolvem dados sens\u00edveis de clientes. Nenhum desses cen\u00e1rios \u00e9 confort\u00e1vel quando o processamento acontece fora da sua rede. Com o Ollama rodando <em>on-premises<\/em>, eles se tornam poss\u00edveis.<\/p>\n\n<h2>Vantagens e limita\u00e7\u00f5es honestas<\/h2>\n\n<p>As vantagens do Ollama para o contexto corporativo v\u00e3o al\u00e9m da privacidade. A <strong>autonomia<\/strong> \u00e9 um diferencial real \u2014 voc\u00ea escolhe o modelo, controla a vers\u00e3o, decide quando atualizar e n\u00e3o depende de mudan\u00e7as de pol\u00edtica ou de pre\u00e7o de um fornecedor externo. A <strong>redu\u00e7\u00e3o de lat\u00eancia<\/strong> \u00e9 outro ponto: um LLM rodando na rede interna responde mais r\u00e1pido do que uma chamada de API que vai e volta pela internet. E a quest\u00e3o do <strong>custo<\/strong> tem uma l\u00f3gica interessante: o investimento inicial em hardware \u00e9 mais alto, mas a partir do momento em que a infraestrutura est\u00e1 no ar n\u00e3o h\u00e1 custo por token, por requisi\u00e7\u00e3o nem por usu\u00e1rio.<\/p>\n\n<p>A flexibilidade tamb\u00e9m conta. \u00c9 poss\u00edvel alternar entre diferentes modelos com facilidade \u2014 trocar o Llama pelo Mistral ou pelo DeepSeek \u00e9 quest\u00e3o de um comando \u2014 e integrar o Ollama com interfaces como o Open WebUI, que entrega uma experi\u00eancia pr\u00f3xima ao ChatGPT para os usu\u00e1rios finais, sem que eles precisem saber nada sobre o que est\u00e1 rodando por baixo.<\/p>\n\n<p>Dito isso, as limita\u00e7\u00f5es precisam ser colocadas na mesa com a mesma honestidade. O <strong>requisito de hardware<\/strong> \u00e9 o principal deles. Voc\u00ea consegue rodar modelos menores em uma m\u00e1quina com hardware mediano e obter resultados razo\u00e1veis, mas para modelos maiores e com <em>throughput<\/em> adequado para uma equipe inteira voc\u00ea vai precisar investir em uma m\u00e1quina com GPU de alto desempenho. A <strong>configura\u00e7\u00e3o<\/strong> exige um certo n\u00edvel t\u00e9cnico: n\u00e3o \u00e9 complexo, mas tampouco \u00e9 algo que qualquer pessoa instala sem orienta\u00e7\u00e3o, especialmente em um ambiente corporativo com requisitos de rede e seguran\u00e7a.<\/p>\n\n<p>E h\u00e1 uma limita\u00e7\u00e3o que precisa ser dita com clareza: os LLMs rodando localmente via Ollama n\u00e3o t\u00eam a mesma capacidade dos modelos comerciais atuais. Na pr\u00e1tica, eles se comportam de forma pr\u00f3xima a vers\u00f5es do ChatGPT ou do Claude de alguns meses atr\u00e1s \u2014 n\u00e3o s\u00e3o perfeitos e em tarefas mais complexas a diferen\u00e7a aparece. Mas para a maioria dos casos de uso corporativo do dia a dia \u2014 resumir documentos, responder perguntas sobre bases de conhecimento internas, auxiliar no desenvolvimento de c\u00f3digo, automatizar an\u00e1lises repetitivas \u2014 eles atendem bem e entregam valor real.<\/p>\n\n<h2>O papel do time de TI nessa transi\u00e7\u00e3o<\/h2>\n\n<p>Essa \u00e9 uma mudan\u00e7a que coloca o time de infraestrutura e os desenvolvedores mais pr\u00f3ximos do neg\u00f3cio do que estavam acostumados. Configurar o Ollama em produ\u00e7\u00e3o dentro de uma organiza\u00e7\u00e3o n\u00e3o \u00e9 s\u00f3 instalar a ferramenta \u2014 envolve decidir qual LLM usar para cada caso, entender os requisitos de hardware, pensar na escalabilidade, configurar acesso por perfil de usu\u00e1rio e eventualmente trabalhar com <em>fine-tuning<\/em>, que \u00e9 o processo de pegar um <em>foundation model<\/em> (modelo base) e ajust\u00e1-lo com dados espec\u00edficos da organiza\u00e7\u00e3o para torn\u00e1-lo mais preciso no contexto da empresa.<\/p>\n\n<p>Esse \u00faltimo ponto \u00e9 especialmente relevante. Um <em>foundation model<\/em> gen\u00e9rico como o Llama ou o Mistral j\u00e1 entrega valor consider\u00e1vel, mas um modelo ajustado com a documenta\u00e7\u00e3o interna, os processos e o vocabul\u00e1rio espec\u00edfico da organiza\u00e7\u00e3o entrega muito mais. E esse trabalho \u2014 de customizar, treinar e manter LLMs dentro da infraestrutura corporativa \u2014 \u00e9 na minha vis\u00e3o um dos campos que mais vai crescer em demanda nos pr\u00f3ximos anos, tanto para profissionais de infraestrutura quanto para desenvolvedores que queiram se diferenciar.<\/p>\n\n<h2>Conclus\u00e3o<\/h2>\n\n<p>O Ollama n\u00e3o substitui o ChatGPT, o Claude nem nenhuma outra ferramenta de IA baseada em nuvem. Para quem pode us\u00e1-las livremente, essas ferramentas continuam sendo a op\u00e7\u00e3o mais pr\u00e1tica e com os LLMs mais potentes dispon\u00edveis. Mas para as organiza\u00e7\u00f5es que n\u00e3o podem \u2014 e s\u00e3o muitas \u2014 o Ollama \u00e9 hoje a alternativa mais madura, mais acess\u00edvel e com o ecossistema mais consolidado para levar Intelig\u00eancia Artificial para dentro da pr\u00f3pria infraestrutura sem abrir m\u00e3o do controle sobre os dados.<\/p>\n\n<p>A pergunta que o time de tecnologia vai ter que responder em breve n\u00e3o \u00e9 mais &#8220;podemos usar IA?&#8221;, mas &#8220;como vamos rodar IA aqui dentro?&#8221; \u2014 e o Ollama j\u00e1 tem uma resposta bastante s\u00f3lida para isso.<\/p>\n\n<p><strong>Assista tamb\u00e9m:<\/strong> <a href=\"https:\/\/www.youtube.com\/watch?v=S4yZXZ2ncbc\" target=\"_blank\" rel=\"noopener\">Ollama: o que \u00e9, como funciona e como come\u00e7ar<\/a><\/p>\n\n<iframe loading=\"lazy\" title=\"01 O que \u00e9 o Ollama\" width=\"648\" height=\"365\" src=\"https:\/\/www.youtube.com\/embed\/S4yZXZ2ncbc?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe>\n\n<h2>Treinamentos relacionados com essa postagem<\/h2>\n\n<a href=\"https:\/\/pub.erudio.com.br\/formacao-spring-ai-2026-inteligencia-artificial-com-java-spring-boot-chatgpt-deepseek-claude-e-mcp?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=ollama-on-premises&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-top: 8px; margin-bottom: 8px;\" title=\"Spring AI Java\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/31-spring-ai-java.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/inteligencia-artificial-com-dotnet-ai-e-dotnet-10-apps-inteligentes-com-chatgpt-openai-deepseek-e-ollama?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=ollama-on-premises&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\".NET AI\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/33-dotnet-ai.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/formacao-spring-ai-2026-inteligencia-artificial-com-kotlin-spring-boot-chatgpt-deepseek-claude-e-mcp?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=ollama-on-premises&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"Spring AI Kotlin\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/32-code-ai-kspring.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/formacao-spring-boot-2026-do-zero-ao-continuous-deployment-na-aws-e-gcp-com-java-docker-e-kubernetes?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=ollama-on-premises&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"Spring Boot Java\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/07-rest-java.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/asp-net-2026-do-0-a-azure-e-gcp-com-asp-net-10-docker-e-kubernetes?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=ollama-on-premises&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"ASP.NET\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/01-rest-asp-net.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/formacao-microsservicos-2026-do-zero-ao-deploy-na-google-cloud-com-spring-boot-kubernetes-e-docker?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=ollama-on-premises&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"Microsservi\u00e7os Java\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/14-microservices-java.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/formacao-java-testing-2026-testes-automatizados-com-junit-mockito-spring-boot-tdd-e-testcontainers?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=ollama-on-premises&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"Java Testing\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/24-tests-java.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/docker-e-kubernetes-2026-do-zero-ao-deploy-profissional-na-aws-azure-e-gcp-com-github-actions?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=ollama-on-premises&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"Docker Multicloud\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/10-docker-to-aws.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/meus-cursos?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=ollama-on-premises&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"Docker IA\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/09-docker.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/formacao-continuous-deployment-java-kubernetes-gcp-github-actions?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=ollama-on-premises&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"CD GCP\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/29-cdpl-java-gcp.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/formacao-continuous-integration-delivery-java-aws-github-actions?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=ollama-on-premises&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"CI\/CD AWS\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/27-cicd-java-aws.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/formacao-continuous-integration-delivery-java-azure-github-actions?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=ollama-on-premises&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"CI\/CD Azure\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/28-cicd-java-azure.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/meus-cursos?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=ollama-on-premises&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"Microsservi\u00e7os ASP.NET\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/15-microservices-asp-net.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/formacao-spring-boot-com-kotlin-rest-apis-profissionais-do-zero-ao-deploy-na-aws-com-docker-e-kubernetes?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=ollama-on-premises&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"Spring Boot Kotlin\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/18-rest-spring-kotlin.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/formacao-microsservicos-com-spring-cloud-spring-boot-kotlin-docker-e-zookeeper?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=ollama-on-premises&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"Microsservi\u00e7os Kotlin\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/22-ms-kotlin.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/kotlin-para-desenvolvedores-java-domine-sintaxe-lambdas-generics-reflections-programacao-funcional-e-spring-boot?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=ollama-on-premises&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"Kotlin para Devs Java\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/20-kotlin.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/crie-relatorios-profissionais-com-jasperreports-java-spring-boot-e-jaspersoft-studio?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=ollama-on-premises&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"JasperReports\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/30-jasper.png\">\n<\/a>\n\n<a href=\"https:\/\/pub.erudio.com.br\/carreira-em-ti-do-zero-ao-exterior-curriculo-entrevistas-negociacao-e-crescimento-profissional?utm_source=blog-erudio&#038;utm_medium=organic&#038;utm_campaign=ollama-on-premises&#038;utm_content=footer\" target=\"_blank\" rel=\"noopener\">\n  <img decoding=\"async\" style=\"max-width: 100%; display: block; margin-bottom: 8px;\" title=\"Carreira\" src=\"https:\/\/raw.githubusercontent.com\/leandrocgsi\/blog-images\/refs\/heads\/main\/formacoes_blog\/13-career.png\">\n<\/a>\n\n","protected":false},"excerpt":{"rendered":"<p>Nos \u00faltimos quatro anos a Intelig\u00eancia Artificial saiu do laborat\u00f3rio e chegou ao dia a dia de desenvolvedores, analistas e gestores. Ferramentas como o ChatGPT popularizaram o uso de LLM \u2014 Large Language Model, grandes modelos de linguagem \u2014 para um p\u00fablico muito al\u00e9m dos especialistas em machine learning. O problema \u00e9 que esse acesso [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":1941,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[387,410,404],"tags":[400,393,402,401,403],"_links":{"self":[{"href":"https:\/\/www.erudio.com.br\/blog\/wp-json\/wp\/v2\/posts\/1938"}],"collection":[{"href":"https:\/\/www.erudio.com.br\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.erudio.com.br\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.erudio.com.br\/blog\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.erudio.com.br\/blog\/wp-json\/wp\/v2\/comments?post=1938"}],"version-history":[{"count":1,"href":"https:\/\/www.erudio.com.br\/blog\/wp-json\/wp\/v2\/posts\/1938\/revisions"}],"predecessor-version":[{"id":1939,"href":"https:\/\/www.erudio.com.br\/blog\/wp-json\/wp\/v2\/posts\/1938\/revisions\/1939"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.erudio.com.br\/blog\/wp-json\/wp\/v2\/media\/1941"}],"wp:attachment":[{"href":"https:\/\/www.erudio.com.br\/blog\/wp-json\/wp\/v2\/media?parent=1938"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.erudio.com.br\/blog\/wp-json\/wp\/v2\/categories?post=1938"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.erudio.com.br\/blog\/wp-json\/wp\/v2\/tags?post=1938"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}