{"id":52095,"date":"2026-01-08T20:25:36","date_gmt":"2026-01-08T23:25:36","guid":{"rendered":"\/br\/tutoriais\/?p=52095"},"modified":"2026-01-08T20:25:39","modified_gmt":"2026-01-08T23:25:39","slug":"como-integrar-n8n-com-ollama","status":"publish","type":"post","link":"\/br\/tutoriais\/como-integrar-n8n-com-ollama","title":{"rendered":"Como integrar n8n com Ollama para criar workflows de LLM locais"},"content":{"rendered":"<p>A integra&ccedil;&atilde;o entre n8n e Ollama permite usar diferentes modelos de IA diretamente nos seus workflows de automa&ccedil;&atilde;o. Isso abre espa&ccedil;o para executar tarefas mais complexas, que seriam dif&iacute;ceis ou invi&aacute;veis sem o uso de LLMs rodando localmente.<\/p><p>Apesar disso, o processo exige aten&ccedil;&atilde;o, j&aacute; que &eacute; preciso configurar corretamente os dois lados para que tudo funcione sem erros. A boa not&iacute;cia &eacute; que, se voc&ecirc; j&aacute; tem o n8n e o Ollama instalados no servidor, a integra&ccedil;&atilde;o pode ser feita em poucos passos.<\/p><p>De forma geral, o processo envolve:<\/p><ol class=\"wp-block-list\">\n<li>Adicionar o node de chat do Ollama<\/li>\n\n\n\n<li>Escolher o modelo de IA e ajustar as configura&ccedil;&otilde;es de execu&ccedil;&atilde;o<\/li>\n\n\n\n<li>Configurar o prompt no node de AI agent<\/li>\n\n\n\n<li>Enviar um prompt de teste para validar se tudo est&aacute; funcionando<\/li>\n<\/ol><p>Depois disso, voc&ecirc; ter&aacute; um workflow de processamento com IA usando n8n Ollama, pronto para ser integrado a automa&ccedil;&otilde;es mais completas. Por exemplo, d&aacute; para conectar aplicativos de mensagens, como o WhatsApp, e criar um chatbot funcional baseado em IA.<\/p><p>Outro ponto importante &eacute; que rodar essa integra&ccedil;&atilde;o localmente, em um servidor privado como um VPS, oferece mais controle sobre os dados. Isso torna o uso ideal para automa&ccedil;&otilde;es que lidam com informa&ccedil;&otilde;es sens&iacute;veis, como resumir documentos internos ou criar um chatbot interno para a empresa.<\/p><p>A seguir, vamos ver em detalhes como conectar o Ollama ao n8n e montar um chatbot com essa integra&ccedil;&atilde;o. No final, tamb&eacute;m explicamos os casos de uso mais comuns e como expandir as possibilidades usando os nodes do LangChain.<\/p><p>\n\n\n\n\n\n\n<\/p><h2 class=\"wp-block-heading\" id=\"h-prerequisites\"><strong>Pr&eacute;-requisitos<\/strong><\/h2><p>Para integrar o n8n com o Ollama, voc&ecirc; precisa atender aos seguintes pr&eacute;-requisitos:<\/p><ul class=\"wp-block-list\">\n<li><strong>O Ollama deve ser instalado localmente<\/strong>. Certifique-se de ter <a href=\"\/br\/tutoriais\/como-instalar-ollama\">instalado o Ollama<\/a> localmente em um servidor virtual privado (VPS). O servidor deve ter hardware suficiente para executar os modelos de IA desejados, o que pode exigir mais de <strong>8 GB<\/strong> de RAM.<\/li>\n\n\n\n<li><strong>O n8n deve estar configurado e acess&iacute;vel<\/strong>. Instale o n8n em um VPS e crie uma conta. Ele deve ser configurado no mesmo servidor que o Ollama devido a restri&ccedil;&otilde;es de compatibilidade. <\/li>\n\n\n\n<li><strong>Certifique-se de que as portas necess&aacute;rias estejam abertas<\/strong>. Verifique se as portas <strong>11434<\/strong> e <strong>5678<\/strong> do seu servidor est&atilde;o abertas para garantir que o Ollama e o n8n estejam acess&iacute;veis. Se voc&ecirc; os hospeda em um VPS da Hostinger, verifique as portas e configure-as simplesmente consultando nosso assistente de IA Kodee.<\/li>\n\n\n\n<li><strong>Conhecimento b&aacute;sico de JSON<\/strong>. Aprenda a ler JSON, pois os n&oacute;s n8n trocam dados principalmente nesse formato. Compreend&ecirc;-lo ajuda voc&ecirc; a selecionar dados e solucionar erros com mais efici&ecirc;ncia.<\/li>\n<\/ul><p>\n\n\n<div><p class=\"important\"><strong>Importante! <\/strong>Recomendamos fortemente a instala&ccedil;&atilde;o do n8n e do Ollama no mesmo cont&ecirc;iner Docker para melhor isolamento. Este &eacute; o m&eacute;todo que usamos para testar este tutorial, portanto, est&aacute; comprovado que funciona.<br>Se voc&ecirc; usa um VPS da Hostinger, pode come&ccedil;ar instalando o n8n ou o Ollama em um cont&ecirc;iner Docker, bastando selecionar o modelo de sistema operacional correspondente &ndash; o aplicativo ser&aacute; instalado em um cont&ecirc;iner por padr&atilde;o. Em seguida, voc&ecirc; precisar&aacute; instalar o outro aplicativo no mesmo cont&ecirc;iner.<\/p><\/div>\n\n\n\n<\/p><h2 class=\"wp-block-heading\" id=\"h-how-to-set-up-ollama-integration-in-n8n\"><strong>Como configurar a integra&ccedil;&atilde;o do Ollama no n8n<\/strong><\/h2><p>Conectar o Ollama ao n8n envolve adicionar o node necess&aacute;rio e ajustar algumas configura&ccedil;&otilde;es para que os dois funcionem juntos. Nesta se&ccedil;&atilde;o, vamos explicar o passo a passo em detalhes, incluindo como testar se a integra&ccedil;&atilde;o n8n Ollama est&aacute; funcionando corretamente.<\/p><h3 class=\"wp-block-heading\" id=\"h-1-add-the-ollama-chat-model-node\"><strong>1. Adicione o node Ollama Chat Model<\/strong><\/h3><p>Adicionar o node Ollama Chat Model permite que o n8n se conecte a modelos de linguagem (LLMs) do Ollama por meio de um agente conversacional.<\/p><p>O n8n oferece dois nodes relacionados ao Ollama: <strong>Ollama Model<\/strong> e <strong>Ollama Chat Model<\/strong>. O Ollama Chat Model foi pensado especificamente para conversas e j&aacute; vem com um node <strong>Basic LLM Chain<\/strong> integrado, que encaminha sua mensagem para o modelo escolhido. J&aacute; o node <strong>Ollama Model<\/strong> &eacute; mais indicado para tarefas gerais, combinado com outros nodes de <strong>Chain<\/strong> &ndash; falaremos melhor sobre isso na se&ccedil;&atilde;o de LangChain.<\/p><p>Neste tutorial, vamos usar o Ollama Chat Model porque ele &eacute; mais simples de configurar e encaixa melhor em um workflow mais completo. Veja como adicionar no n8n:<\/p><ol class=\"wp-block-list\">\n<li>Acesse a sua inst&acirc;ncia do n8n. Em geral, voc&ecirc; consegue abrir no navegador usando o hostname ou o <strong>endere&ccedil;o IP do seu VPS<\/strong>, dependendo de como voc&ecirc; configurou.<\/li>\n\n\n\n<li>Fa&ccedil;a login na sua conta n8n. <\/li>\n\n\n\n<li>Crie um novo workflow clicando no bot&atilde;o no canto superior direito da p&aacute;gina inicial do n8n.<\/li>\n<\/ol><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69f02202ad290\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"521\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/botao-de-criacao-de-fluxo-de-trabalho-da-pagina-principal-n8n.png\/public\" alt=\"P&aacute;gina principal do n8n com o bot&atilde;o de cria&ccedil;&atilde;o de fluxo de trabalho destacado\" class=\"wp-image-52079\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/botao-de-criacao-de-fluxo-de-trabalho-da-pagina-principal-n8n.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/botao-de-criacao-de-fluxo-de-trabalho-da-pagina-principal-n8n.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/botao-de-criacao-de-fluxo-de-trabalho-da-pagina-principal-n8n.png\/w=150,fit=scale-down 150w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/botao-de-criacao-de-fluxo-de-trabalho-da-pagina-principal-n8n.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Ampliar\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><ol start=\"4\" class=\"wp-block-list\">\n<li>Clique no &iacute;cone <strong>de mais<\/strong> e pesquise por <strong>Ollama Chat Model<\/strong>.<\/li>\n\n\n\n<li>Adicione o node clicando nele.<\/li>\n<\/ol><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69f02202afb4b\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"936\" height=\"664\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/nos-modelo-de-lhama-em-n8n.png\/public\" alt=\"N&oacute;s do modelo Ollama em n8n\" class=\"wp-image-52081\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/nos-modelo-de-lhama-em-n8n.png\/w=936,fit=scale-down 936w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/nos-modelo-de-lhama-em-n8n.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/nos-modelo-de-lhama-em-n8n.png\/w=150,fit=scale-down 150w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/nos-modelo-de-lhama-em-n8n.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 936px) 100vw, 936px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Ampliar\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>A janela de configura&ccedil;&atilde;o do node vai aparecer. No pr&oacute;ximo passo, vamos ajustar as configura&ccedil;&otilde;es para deixar a integra&ccedil;&atilde;o n8n Ollama pronta para uso.<\/p><h3 class=\"wp-block-heading\" id=\"h-2-choose-your-model-and-runtime-settings\"><strong>2. Escolha o modelo e configure as op&ccedil;&otilde;es de execu&ccedil;&atilde;o<\/strong><\/h3><p>Antes de selecionar um modelo de IA e ajustar as configura&ccedil;&otilde;es de execu&ccedil;&atilde;o, &eacute; preciso conectar o n8n &agrave; sua inst&acirc;ncia do Ollama hospedada localmente. Veja como fazer isso:<\/p><ol class=\"wp-block-list\">\n<li>Na janela de configura&ccedil;&atilde;o do n&oacute;, expanda o menu suspenso <strong>&ldquo;Credenciais para conectar&rdquo;<\/strong>.<\/li>\n\n\n\n<li>Selecione <strong>Criar nova credencial.<\/strong><\/li>\n<\/ol><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69f02202b26b6\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"958\" height=\"600\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/botao-de-criacao-de-novas-credenciais-do-no-de-bate-papo-do-ollama.png\/public\" alt=\"Novo bot&atilde;o de cria&ccedil;&atilde;o de credenciais para o n&oacute; do Ollama Chat\" class=\"wp-image-52082\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/botao-de-criacao-de-novas-credenciais-do-no-de-bate-papo-do-ollama.png\/w=958,fit=scale-down 958w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/botao-de-criacao-de-novas-credenciais-do-no-de-bate-papo-do-ollama.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/botao-de-criacao-de-novas-credenciais-do-no-de-bate-papo-do-ollama.png\/w=150,fit=scale-down 150w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/botao-de-criacao-de-novas-credenciais-do-no-de-bate-papo-do-ollama.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 958px) 100vw, 958px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Ampliar\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><ol start=\"3\" class=\"wp-block-list\">\n<li>Insira a URL base da sua inst&acirc;ncia do Ollama. Dependendo do seu ambiente de hospedagem, pode ser <strong>localhost.<\/strong> ou o <strong>nome do seu cont&ecirc;iner Docker do Ollama<\/strong>. <\/li>\n\n\n\n<li>Clique em <strong>Salvar<\/strong>.<\/li>\n<\/ol><p>Se a conex&atilde;o der certo, voc&ecirc; ver&aacute; uma mensagem de confirma&ccedil;&atilde;o. Caso contr&aacute;rio, confira se o endere&ccedil;o est&aacute; correto e se o Ollama est&aacute; em execu&ccedil;&atilde;o.<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69f02202b512a\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-large wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"585\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/uma-mensagem-de-confirmacao-confirmando-conexao-n8n-com-ollama.png\/public\" alt=\"Uma mensagem de confirma&ccedil;&atilde;o confirmando a conex&atilde;o n8n com Ollama.\" class=\"wp-image-52084\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/uma-mensagem-de-confirmacao-confirmando-conexao-n8n-com-ollama.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/uma-mensagem-de-confirmacao-confirmando-conexao-n8n-com-ollama.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/uma-mensagem-de-confirmacao-confirmando-conexao-n8n-com-ollama.png\/w=150,fit=scale-down 150w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/uma-mensagem-de-confirmacao-confirmando-conexao-n8n-com-ollama.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Ampliar\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Depois de conectar, voc&ecirc; j&aacute; pode escolher qual LLM usar no node do Ollama. Para isso, basta abrir o menu Model e selecionar um modelo da lista. Se a lista aparecer desativada (acinzentada), atualizar a p&aacute;gina do n8n costuma resolver.<\/p><p>Vale notar que, no momento, o n8n oferece suporte apenas a modelos mais antigos, como Llama 3 e DeepSeek R1. Se o menu <strong>Model<\/strong> mostrar erro ou aparecer vazio, provavelmente o seu Ollama s&oacute; tem modelos incompat&iacute;veis instalados.<\/p><p>Para resolver isso, basta <a href=\"https:\/\/ollama.com\/library\" target=\"_blank\" rel=\"noreferrer noopener\">baixar outros modelos no Ollama<\/a>. Pelo terminal (CLI), use o comando abaixo no ambiente onde o Ollama est&aacute; rodando:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run nome-do-modelo<\/pre><p>Voc&ecirc; tamb&eacute;m pode usar um modelo com configura&ccedil;&otilde;es de execu&ccedil;&atilde;o personalizadas, como uma temperatura diferente. Veja como criar isso usando o Ollama CLI.<\/p><ol class=\"wp-block-list\">\n<li>Primeiro, acesse a instala&ccedil;&atilde;o do Ollama. Se estiver usando Docker, rode o comando abaixo (substituindo <strong>ollama<\/strong> pelo nome real do container):<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">docker exec -it ollama bash<\/pre><ol start=\"2\" class=\"wp-block-list\">\n<li>Crie um novo <a href=\"https:\/\/ollama.readthedocs.io\/en\/modelfile\/#format\" target=\"_blank\" rel=\"noreferrer noopener\">arquivo Modelfile<\/a> definindo as configura&ccedil;&otilde;es de tempo de execu&ccedil;&atilde;o do seu modelo. Por exemplo, vamos definir a temperatura do nosso modelo Llama 3 para <strong>0,7<\/strong>,:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">echo \"FROM llama3\" &gt; Modelfile\necho \"PARAMETER temperature 0.7\" &gt;&gt; Modelfile<\/pre><ol start=\"3\" class=\"wp-block-list\">\n<li>Depois, aplique essa configura&ccedil;&atilde;o ao modelo base Llama 3 para criar um LLM personalizado chamado <strong>llama3-temp07<\/strong>:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama create llama3-temp07 -f Modelfile<\/pre><p>Ao concluir esses passos, o n8n j&aacute; deve reconhecer o novo modelo Llama 3 com temperatura personalizada em <strong>0.7<\/strong>.<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69f02202b7c46\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-large wp-lightbox-container\"><img decoding=\"async\" width=\"842\" height=\"1024\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/modelo-de-olhama-personalizado-no-n8n.png\/public\" alt=\"um modelo personalizado de lhama no n8n\" class=\"wp-image-52086\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/modelo-de-olhama-personalizado-no-n8n.png\/w=842,fit=scale-down 842w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/modelo-de-olhama-personalizado-no-n8n.png\/w=247,fit=scale-down 247w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/modelo-de-olhama-personalizado-no-n8n.png\/w=123,fit=scale-down 123w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/modelo-de-olhama-personalizado-no-n8n.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 842px) 100vw, 842px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Ampliar\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>\n\n<div class=\"protip\">\n                    <h4 class=\"title\">Gerenciando modelos pelo Ollama GUI<br>\n<\/h4>\n                    <p>Se voc&ecirc; usa <a href=\"\/br\/tutoriais\/tutorial-ollama-gui\">Ollama GUI<\/a>, confira nosso tutorial para aprender mais sobre sua interface e como gerenciar seus modelos.<\/p>\n                <\/div>\n\n\n\n<\/p><h3 class=\"wp-block-heading\" id=\"h-3-configure-prompt-settings\"><strong>3. Configure as op&ccedil;&otilde;es de prompt<\/strong><\/h3><p>Configurar os prompts permite personalizar como o node <strong>Basic LLM Chain<\/strong> trata sua entrada antes de envi&aacute;-la ao Ollama para processamento. Embora seja poss&iacute;vel usar as configura&ccedil;&otilde;es padr&atilde;o, o ideal &eacute; ajust&aacute;-las de acordo com o tipo de tarefa que voc&ecirc; quer executar no workflow n8n Ollama.<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69f02202ba864\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-large wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"788\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/opcoes-de-origem-de-prompt-de-cadeia-llm-basica.png\/public\" alt=\"Op&ccedil;&otilde;es b&aacute;sicas de origem de prompts da LLM Chain\" class=\"wp-image-52089\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/opcoes-de-origem-de-prompt-de-cadeia-llm-basica.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/opcoes-de-origem-de-prompt-de-cadeia-llm-basica.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/opcoes-de-origem-de-prompt-de-cadeia-llm-basica.png\/w=150,fit=scale-down 150w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/opcoes-de-origem-de-prompt-de-cadeia-llm-basica.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Ampliar\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Existem duas formas principais de modificar as configura&ccedil;&otilde;es de prompt do LLM chain, cada uma indicada para um tipo de uso.<\/p><p><strong>Chat Trigger conectado<\/strong><\/p><p>A op&ccedil;&atilde;o <strong>Connected Chat trigger node<\/strong> usa as mensagens do node <strong>Chat<\/strong> padr&atilde;o como entrada para o Ollama. Esse &eacute; o modo ativado por padr&atilde;o e envia as mensagens exatamente como foram recebidas.<\/p><p>Mesmo assim, voc&ecirc; pode adicionar prompts extras para influenciar a resposta do modelo. Para isso, clique em <strong>Add Prompt<\/strong> na op&ccedil;&atilde;o <strong>Chat Messages (if Using a Chat Model) <\/strong>e escolha entre tr&ecirc;s tipos de prompt adicionais:<\/p><ul class=\"wp-block-list\">\n<li><strong>IA<\/strong>. Insira um exemplo da resposta esperada no campo <strong>Mensagem<\/strong>. O modelo de IA tentar&aacute; responder da mesma forma que o texto fornecido. <\/li>\n\n\n\n<li><strong>Sistema<\/strong>. Escreva uma mensagem que oriente as respostas do modelo. Por exemplo, voc&ecirc; pode definir o tom que a IA usar&aacute; ou as palavras que ela deve evitar ao responder.<\/li>\n\n\n\n<li><strong>Usu&aacute;rio<\/strong>. Adicione um exemplo da entrada do usu&aacute;rio para a IA, como uma mensagem, URL ou imagem. Fornecer &agrave; IA uma amostra do que esperar dos usu&aacute;rios permitir&aacute; que ela retorne respostas mais consistentes. <\/li>\n<\/ul><p><strong>Define below<\/strong><\/p><p>A op&ccedil;&atilde;o <strong>&ldquo;Define below&rdquo;<\/strong> &eacute; adequada se voc&ecirc; quiser inserir um texto predefinido e reutiliz&aacute;vel. &Eacute; tamb&eacute;m ideal para encaminhar dados din&acirc;micos, pois permite captur&aacute;-los usando <a href=\"https:\/\/docs.n8n.io\/code\/expressions\/\" target=\"_blank\" rel=\"noreferrer noopener\">Express&otilde;es<\/a> &ndash; uma biblioteca JavaScript que manipula a entrada ou seleciona um campo espec&iacute;fico.<\/p><p>Por exemplo, o node anterior coleta dados sobre o uso de recursos do seu VPS e voc&ecirc; deseja analis&aacute;-los usando IA. Nesse caso, o aviso permanece o mesmo, mas as m&eacute;tricas de uso mudar&atilde;o continuamente.<\/p><p>Seu prompt pode ser semelhante ao seguinte, onde <strong>{{ $json.metric }}<\/strong> &eacute; o campo que cont&eacute;m dados din&acirc;micos sobre o uso de recursos do seu servidor:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"raw\" data-enlighter-theme=\"atomic\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">O uso mais recente do meu servidor &eacute; {{ $json.metric }}. Analise esses dados e compare com o hist&oacute;rico anterior para verificar se h&aacute; algo fora do padr&atilde;o.<\/pre><p>Vale lembrar que voc&ecirc; ainda pode adicionar prompts extras, como no modo anterior, para dar mais contexto ao modelo de IA.<\/p><h3 class=\"wp-block-heading\" id=\"h-4-send-a-test-prompt\"><strong>4. Envie um prompt de teste<\/strong><\/h3><p>Enviar um prompt de teste serve para confirmar se o modelo do Ollama est&aacute; funcionando corretamente ao receber entradas via n8n. A forma mais simples de fazer isso &eacute; enviar uma mensagem de exemplo seguindo estes passos:<\/p><ol class=\"wp-block-list\">\n<li>Salve o workflow clicando no bot&atilde;o no canto superior direito do canvas.<\/li>\n\n\n\n<li>Passe o mouse sobre o node <strong>Chat<\/strong> trigger e clique em <strong>Open chat<\/strong>.<\/li>\n\n\n\n<li>Na interface de chat, envie uma mensagem de teste.<\/li>\n<\/ol><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69f02202bd940\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"601\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/a-interface-de-gatilho-de-chat-na-tela-n8n.png\/public\" alt=\"Interface de gatilho de bate-papo no canvas n8n\" class=\"wp-image-52090\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/a-interface-de-gatilho-de-chat-na-tela-n8n.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/a-interface-de-gatilho-de-chat-na-tela-n8n.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/a-interface-de-gatilho-de-chat-na-tela-n8n.png\/w=150,fit=scale-down 150w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/a-interface-de-gatilho-de-chat-na-tela-n8n.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Ampliar\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Aguarde at&eacute; o workflow terminar de processar a mensagem. Durante nossos testes, o fluxo travou algumas vezes. Se isso acontecer com voc&ecirc;, basta recarregar o n8n e enviar a mensagem novamente.<\/p><p>Se o teste for bem-sucedido, todos os nodes ficar&atilde;o verdes. Para ver os dados de entrada e sa&iacute;da de cada node, d&ecirc; um duplo clique nele e confira os pain&eacute;is dos dois lados da janela de configura&ccedil;&atilde;o.<\/p><h2 class=\"wp-block-heading\" id=\"h-how-to-create-a-chatbot-workflow-using-ollama-and-n8n\"><strong>Como criar um workflow de chatbot usando Ollama e n8n<\/strong><\/h2><p>Integrar o Ollama ao n8n permite automatizar v&aacute;rias tarefas com LLMs, incluindo a cria&ccedil;&atilde;o de um workflow com IA no n8n capaz de responder a perguntas dos usu&aacute;rios, como um chatbot. Nesta se&ccedil;&atilde;o, vamos mostrar os passos para desenvolver esse tipo de automa&ccedil;&atilde;o usando n8n Ollama.<\/p><p>Se voc&ecirc; deseja criar um sistema de automa&ccedil;&atilde;o para outras tarefas, confira nossos <a href=\"\/br\/tutoriais\/exemplos-de-workflow-n8n\">exemplos de fluxo de trabalho n8n<\/a> para se inspirar.<\/p><h3 class=\"wp-block-heading\" id=\"h-1-add-a-trigger-node\"><strong>1. Adicione um node de gatilho (trigger)<\/strong><\/h3><p>O node de gatilho no n8n define qual evento inicia o workflow. Para criar um chatbot, estas s&atilde;o as op&ccedil;&otilde;es mais comuns.<\/p><p><strong>Chat trigger<\/strong><\/p><p>Por padr&atilde;o, o node Ollama Chat Model usa Chat message como gatilho, iniciando o workflow sempre que uma mensagem &eacute; recebida.<\/p><p>Esse <strong>Chat<\/strong> node padr&atilde;o &eacute; ideal para criar um chatbot. Para coloc&aacute;-lo em funcionamento, basta tornar a interface de chat p&uacute;blica.<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69f02202c0527\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"784\" height=\"830\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/n8n-chat-trigger-make-public-toggle.png\/public\" alt=\"Ativar\/desativar a op&ccedil;&atilde;o \" class=\"wp-image-52091\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/n8n-chat-trigger-make-public-toggle.png\/w=784,fit=scale-down 784w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/n8n-chat-trigger-make-public-toggle.png\/w=283,fit=scale-down 283w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/n8n-chat-trigger-make-public-toggle.png\/w=142,fit=scale-down 142w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/n8n-chat-trigger-make-public-toggle.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 784px) 100vw, 784px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Ampliar\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Depois disso, voc&ecirc; pode incorporar esse chat em um chatbot pr&oacute;prio, com interface personalizada.<\/p><p><strong>Nodes de gatilho para apps de mensagens<\/strong><\/p><p>O n8n tamb&eacute;m oferece nodes de gatilho para aplicativos populares de mensagens, como <strong>Telegram<\/strong> e <strong>WhatsApp<\/strong>. Eles s&atilde;o indicados se voc&ecirc; quiser criar um bot para essas plataformas.<\/p><p>A configura&ccedil;&atilde;o costuma ser mais complexa, j&aacute; que exige conta de desenvolvedor e chaves de autentica&ccedil;&atilde;o para acessar as APIs. Consulte a documenta&ccedil;&atilde;o de cada servi&ccedil;o para entender o processo em detalhes.<\/p><p><strong>Webhook trigger<\/strong><\/p><p>O gatilho <strong>Webhook<\/strong> inicia o workflow quando a URL do endpoint recebe uma requisi&ccedil;&atilde;o HTTP. Essa op&ccedil;&atilde;o &eacute; &uacute;til se voc&ecirc; quiser disparar o chatbot a partir de outros eventos, como um clique em um bot&atilde;o.<\/p><p>Nos pr&oacute;ximos passos, vamos usar esse node para iniciar o workflow sempre que um chatbot do Discord receber uma mensagem.<\/p><p>\n\n\n<div><p class=\"important\"><strong>Importante! <\/strong>Se o URL do seu webhook come&ccedil;ar com localhost, altere-o para o dom&iacute;nio, nome do host ou endere&ccedil;o IP do seu VPS. Voc&ecirc; pode fazer isso modificando <a href=\"https:\/\/docs.n8n.io\/hosting\/configuration\/environment-variables\/endpoints\/\" target=\"_blank\" rel=\"noopener\">a vari&aacute;vel de ambiente WEBHOOK_URL do n8n<\/a> dentro do seu arquivo de configura&ccedil;&atilde;o.<\/p><\/div>\n\n\n\n<\/p><h3 class=\"wp-block-heading\" id=\"h-2-connect-the-ollama-node\"><strong>2. Conecte o node do Ollama<\/strong><\/h3><p>Conectar o node do Ollama permite que o node de gatilho envie a entrada do usu&aacute;rio para processamento com IA.<\/p><p>O node <strong>Ollama Chat Model<\/strong> n&atilde;o se conecta diretamente aos gatilhos. Ele precisa ser ligado a um node de IA. O padr&atilde;o &eacute; o <strong>Basic LLM Chain<\/strong>, mas voc&ecirc; tamb&eacute;m pode usar outros <strong>Chain<\/strong> nodes se precisar de um processamento mais avan&ccedil;ado.<\/p><p>Alguns <strong>Chain nodes<\/strong> oferecem ferramentas extras para tratar os dados. Por exemplo, o node <strong>AI Agent<\/strong> permite adicionar um parser para reformatar a resposta ou usar mem&oacute;ria para armazenar mensagens anteriores.<\/p><p>Para um chatbot simples, que n&atilde;o exige processamento complexo &ndash; como o chatbot de Discord deste exemplo &ndash; o <strong>Basic LLM Chain<\/strong> &eacute; suficiente.<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69f02202c30ce\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"565\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/ollama-basic-llm-chain-node-cluster-with-webhook-trigger.png\/public\" alt=\"Cluster de n&oacute;s Ollama e Basic LLM Chain com o gatilho Webhook conectado\" class=\"wp-image-52092\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/ollama-basic-llm-chain-node-cluster-with-webhook-trigger.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/ollama-basic-llm-chain-node-cluster-with-webhook-trigger.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/ollama-basic-llm-chain-node-cluster-with-webhook-trigger.png\/w=150,fit=scale-down 150w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/ollama-basic-llm-chain-node-cluster-with-webhook-trigger.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Ampliar\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Agora, conecte o node de gatilho ao <strong>Basic LLM Chain<\/strong> e defina como a entrada ser&aacute; enviada. Use a op&ccedil;&atilde;o <strong>Fixed<\/strong> para passar a mensagem diretamente como prompt. J&aacute; a op&ccedil;&atilde;o <strong>Expression<\/strong> &eacute; ideal quando voc&ecirc; precisa trabalhar com dados din&acirc;micos ou ajustar a entrada antes de envi&aacute;-la ao Ollama.<\/p><p>Por exemplo, neste caso usamos a <strong>express&atilde;o<\/strong> abaixo para selecionar o campo <strong>JSON body.content<\/strong> como entrada, que muda de acordo com a mensagem enviada no Discord:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">{{ $json.body.content }}<\/pre><h3 class=\"wp-block-heading\" id=\"h-3-output-the-response\"><strong>3. Exiba a resposta do chatbot<\/strong><\/h3><p>Para que os usu&aacute;rios vejam a resposta gerada pelo modelo, &eacute; preciso enviar a sa&iacute;da do node <strong>AI Agent<\/strong> ou do <strong>Basic LLM Chain <\/strong>para algum canal de retorno. Nesse ponto, a resposta pode ser visualizada apenas pela interface de chat do n8n ou pelo painel de sa&iacute;da do node.<\/p><p>Para enviar a mensagem ao usu&aacute;rio, use um node compat&iacute;vel com o gatilho escolhido. Por exemplo, ao criar um chatbot no WhatsApp, conecte <strong>o node WhatsApp send message<\/strong>.<\/p><p>Se voc&ecirc; estiver usando o <strong>Chat<\/strong> trigger padr&atilde;o, tamb&eacute;m pode usar um <strong>Webhook<\/strong> para encaminhar a resposta para um bot ou interface de chatbot desenvolvida por voc&ecirc;.<\/p><p>No caso do nosso chatbot de Discord, como o workflow usa um <strong>Webhook<\/strong> trigger, podemos usar o pr&oacute;prio Webhook para retornar a resposta. Outra op&ccedil;&atilde;o &eacute; enviar a mensagem diretamente pelo bot, conectando o node Discord <strong>Send a Message<\/strong> e integrando-o ao chatbot. O workflow final fica mais ou menos assim:<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69f02202c5dfa\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"374\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/fluxo-de-trabalho-do-bot-do-Discord-n8n-olhama.png\/public\" alt=\"Fluxo de trabalho do bot do Discord da n8n, baseado em Ollama\" class=\"wp-image-52093\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/fluxo-de-trabalho-do-bot-do-Discord-n8n-olhama.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/fluxo-de-trabalho-do-bot-do-Discord-n8n-olhama.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/fluxo-de-trabalho-do-bot-do-Discord-n8n-olhama.png\/w=150,fit=scale-down 150w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/fluxo-de-trabalho-do-bot-do-Discord-n8n-olhama.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Ampliar\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>\n\n<div class=\"protip\">\n                    <h4 class=\"title\">N&atilde;o sabe como criar um fluxo de trabalho completo?<\/h4>\n                    <p>O n8n oferece v&aacute;rios fluxos de trabalho prontos para uso que voc&ecirc; pode importar facilmente para sua tela. Isso permite criar um sistema de automa&ccedil;&atilde;o baseado em IA sem precisar desenvolver o fluxo de trabalho do zero. Confira nosso tutorial <a href=\"\/br\/tutoriais\/templates-n8n\">com os melhores modelos n8n<\/a> para descobrir fluxos de trabalho selecionados e prontos para uso para diversas finalidades.<\/p>\n                <\/div>\n\n\n\n<\/p><h2 class=\"wp-block-heading\" id=\"h-what-are-the-best-use-cases-for-n8n-ollama-integration\"><strong>Quais s&atilde;o os melhores casos de uso para a integra&ccedil;&atilde;o n8n-Ollama?<\/strong><\/h2><p>Como uma das ferramentas mais poderosas de automa&ccedil;&atilde;o com IA, a integra&ccedil;&atilde;o do n8n com os LLMs personaliz&aacute;veis do Ollama permite automatizar uma grande variedade de tarefas.<\/p><p>Aqui est&atilde;o alguns exemplos de tarefas que voc&ecirc; pode <a href=\"\/br\/tutoriais\/o-que-automatizar-com-n8n\">automatizar com o n8n<\/a> e IA:<\/p><ol class=\"wp-block-list\">\n<li><strong>Fluxo de trabalho automatizado de suporte ao cliente.<\/strong> Use os LLMs da Ollama para gerar respostas a consultas de clientes, resumir tickets ou encaminhar problemas em plataformas como Zendesk e Intercom, tudo via n8n.<\/li>\n\n\n\n<li><strong>Reda&ccedil;&atilde;o de e-mails contextualizados.<\/strong> Redija e-mails automaticamente para diferentes contextos ou tarefas usando o Ollama. Por exemplo, voc&ecirc; pode escrever uma mensagem para dar as boas-vindas a um novo cliente potencial, lembrar os clientes sobre o vencimento da assinatura e anunciar atualiza&ccedil;&otilde;es de produtos usando diferentes eventos. <\/li>\n\n\n\n<li><strong>Assistente interno da base de conhecimento.<\/strong> Use o n8n para consultar documenta&ccedil;&atilde;o interna, como Notion, Confluence ou Airtable, e alimente o Ollama com os dados para gerar respostas inteligentes ou resumos para consultas internas da equipe.<\/li>\n\n\n\n<li><strong>Extra&ccedil;&atilde;o e sumariza&ccedil;&atilde;o de dados.<\/strong> Use o n8n para monitorar documentos de texto recebidos, extrair o texto e obter informa&ccedil;&otilde;es importantes com o Ollama &ndash; &uacute;til para resumir relat&oacute;rios, faturas ou documentos jur&iacute;dicos.<\/li>\n\n\n\n<li><strong>Fluxo de produ&ccedil;&atilde;o de conte&uacute;do automatizado<\/strong>. Gere conte&uacute;do usando n8n e Ollama criando um fluxo de trabalho que automatiza a pesquisa de palavras-chave, a reda&ccedil;&atilde;o e o processo de edi&ccedil;&atilde;o. <\/li>\n\n\n\n<li><strong>Chatbots seguros para uso interno.<\/strong> Crie chatbots internos que trabalhem com dados internos sens&iacute;veis, onde o n8n cuida da orquestra&ccedil;&atilde;o e o Ollama executa o LLM completamente offline para seguran&ccedil;a e privacidade. <\/li>\n<\/ol><h3 class=\"wp-block-heading\" id=\"h-why-should-you-host-your-n8n-ollama-workflows-with-hostinger\"><strong>Por que voc&ecirc; deve hospedar seus fluxos de trabalho n8n-Ollama com a Hostinger?<\/strong><\/h3><p>Hospedar seus fluxos de trabalho n8n-Ollama com a Hostinger traz diversas vantagens em rela&ccedil;&atilde;o ao uso de uma m&aacute;quina pessoal ou do plano de hospedagem oficial. Aqui est&atilde;o alguns dos benef&iacute;cios:<\/p><ul class=\"wp-block-list\">\n<li><strong>Maior controle<\/strong>. O servi&ccedil;o <a href=\"\/br\/self-hosted-n8n\">de hospedagem VPS n8n<\/a> da Hostinger oferece aos usu&aacute;rios acesso root completo &agrave;s configura&ccedil;&otilde;es e aos dados do servidor. Isso permite que voc&ecirc; configure seus ambientes de hospedagem n8n e Ollama de acordo com suas prefer&ecirc;ncias espec&iacute;ficas.<\/li>\n\n\n\n<li><strong>Privacidade aprimorada<\/strong>. Como voc&ecirc; hospedar&aacute; o n8n e o Ollama em um servidor sobre o qual ter&aacute; controle total, ter&aacute; a liberdade de ajustar os limites de acesso e as configura&ccedil;&otilde;es de seguran&ccedil;a.<\/li>\n\n\n\n<li><strong>Escalabilidade<\/strong>. Os planos VPS da Hostinger s&atilde;o facilmente atualiz&aacute;veis sem tempo de inatividade e oferecem o modelo de modo de fila n8n, que permite delegar suas tarefas a v&aacute;rios servidores. <\/li>\n\n\n\n<li><strong>Configura&ccedil;&atilde;o simplificada<\/strong>. Nossos modelos de VPS permitem que voc&ecirc; instale o n8n ou o Ollama com um &uacute;nico clique, tornando o processo mais eficiente.<\/li>\n\n\n\n<li><strong>Gest&atilde;o f&aacute;cil<\/strong>. Gerenciar um VPS da Hostinger &eacute; f&aacute;cil com o painel de controle intuitivo hPanel ou com o terminal integrado do navegador. Usu&aacute;rios iniciantes tamb&eacute;m podem solicitar que nosso assistente de IA, <strong>Kodee<\/strong>, execute tarefas de administra&ccedil;&atilde;o do sistema via chat. <\/li>\n<\/ul><figure class=\"wp-block-image size-large\"><a href=\"\/br\/servidor-vps\" target=\"_blank\" rel=\"noreferrer noopener\"><img decoding=\"async\" width=\"1024\" height=\"300\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2023\/02\/BR-VPS-hosting_in-text-banner-1.png\/public\" alt=\"\" class=\"wp-image-32923\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2023\/02\/BR-VPS-hosting_in-text-banner-1.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2023\/02\/BR-VPS-hosting_in-text-banner-1.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2023\/02\/BR-VPS-hosting_in-text-banner-1.png\/w=150,fit=scale-down 150w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2023\/02\/BR-VPS-hosting_in-text-banner-1.png\/w=768,fit=scale-down 768w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2023\/02\/BR-VPS-hosting_in-text-banner-1.png\/w=1536,fit=scale-down 1536w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/a><\/figure><h2 class=\"wp-block-heading\" id=\"h-using-langchain-s-lm-ollama-node-in-n8n\"><strong>Usando o node LangChain LM Ollama no n8n<\/strong><\/h2><p>O <strong>LangChain<\/strong> &eacute; um framework que facilita a integra&ccedil;&atilde;o de modelos de linguagem (LLMs) em aplica&ccedil;&otilde;es. No n8n, isso acontece conectando nodes de ferramentas e modelos de IA para alcan&ccedil;ar capacidades espec&iacute;ficas de processamento.<\/p><p>No n8n, o recurso de LangChain funciona com <strong>Cluster nodes<\/strong> &ndash; um conjunto de nodes interligados que trabalham juntos para entregar uma funcionalidade dentro do workflow.<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69f02202ca8dd\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-large wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"914\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/Ilustracao-de-subnos-raiz-de-cluster-VPS.png\/public\" alt=\"O conceito de cluster, raiz e subn&oacute;s na implementa&ccedil;&atilde;o do LangChain do n8n.\" class=\"wp-image-52094\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/Ilustracao-de-subnos-raiz-de-cluster-VPS.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/Ilustracao-de-subnos-raiz-de-cluster-VPS.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/Ilustracao-de-subnos-raiz-de-cluster-VPS.png\/w=150,fit=scale-down 150w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2026\/01\/Ilustracao-de-subnos-raiz-de-cluster-VPS.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Ampliar\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Os Cluster nodes t&ecirc;m duas partes: os <strong>root nodes<\/strong>, que definem a funcionalidade principal, e os <strong>sub-nodes<\/strong>, que adicionam a capacidade de LLM ou recursos extras.<\/p><p>O ponto mais importante da implementa&ccedil;&atilde;o do LangChain no n8n &eacute; a <strong>Chain<\/strong> dentro dos <strong>root nodes<\/strong>. &Eacute; ela que organiza a l&oacute;gica e conecta os diferentes componentes de IA &ndash; como o modelo do Ollama e um node de parser &ndash; para formar um sistema coeso.<\/p><p>Estas s&atilde;o as <strong>Chains<\/strong> dispon&iacute;veis no n8n e o que cada uma faz:<\/p><ul class=\"wp-block-list\">\n<li><strong>Basic LLM Chain.<\/strong> Permite definir o prompt que o modelo vai usar e, se quiser, adicionar um parser para reformatar a resposta.<\/li>\n\n\n\n<li><strong>Retrieval Q&amp;A Chain.<\/strong> Permite recuperar informa&ccedil;&otilde;es processadas pela IA usando vector stores, que s&atilde;o bancos otimizados para armazenar dados em formato num&eacute;rico (vetores).<\/li>\n\n\n\n<li><strong>Summarization Chain.<\/strong> Resume o conte&uacute;do de v&aacute;rios documentos ou entradas.<\/li>\n\n\n\n<li><strong>Sentiment Analysis.<\/strong> Analisa o sentimento do texto de entrada e classifica em categorias como positivo, neutro e negativo.<\/li>\n\n\n\n<li><strong>Text Classifier.<\/strong> Organiza os dados de entrada em categorias criadas por voc&ecirc;, com base em crit&eacute;rios e par&acirc;metros definidos no workflow.<\/li>\n<\/ul><p>Ao criar um workflow no n8n, voc&ecirc; tamb&eacute;m pode encontrar os <strong>Agents<\/strong> &ndash; que s&atilde;o varia&ccedil;&otilde;es de <strong>Chains<\/strong> com capacidade de &ldquo;tomar decis&otilde;es&rdquo;. Enquanto as <strong>Chains<\/strong> seguem regras pr&eacute;-definidas, um <strong>Agent<\/strong> usa o LLM conectado para decidir quais ser&atilde;o os pr&oacute;ximos passos e quais a&ccedil;&otilde;es executar.<\/p><h2 class=\"wp-block-heading\" id=\"h-what-s-next-after-connecting-n8n-with-ollama\"><strong>O que vem a seguir depois de conectar o n8n com o Ollama?<\/strong><\/h2><p>Com a evolu&ccedil;&atilde;o cont&iacute;nua das tend&ecirc;ncias de automa&ccedil;&atilde;o, a implementa&ccedil;&atilde;o de um sistema autom&aacute;tico de processamento de dados ajudar&aacute; voc&ecirc; a se manter &agrave; frente da concorr&ecirc;ncia. Em conjunto com a IA, voc&ecirc; pode criar um sistema que levar&aacute; o desenvolvimento e a gest&atilde;o de seus projetos a um novo patamar.<\/p><p>A integra&ccedil;&atilde;o do Ollama ao seu fluxo de trabalho n8n leva a automa&ccedil;&atilde;o baseada em IA al&eacute;m das capacidades do n&oacute; integrado &ndash; e a compatibilidade do Ollama com v&aacute;rios LLMs permite que voc&ecirc; escolha e personalize diferentes modelos de IA para melhor atender &agrave;s suas necessidades.<\/p><p>Entender como integrar o Ollama ao n8n &eacute; apenas o primeiro passo para implementar a automa&ccedil;&atilde;o com intelig&ecirc;ncia artificial em seu projeto. Considerando a enorme quantidade de casos de uso poss&iacute;veis, o pr&oacute;ximo passo &eacute; experimentar e desenvolver um fluxo de trabalho que melhor se adapte ao seu projeto.<\/p><p>Se for a sua primeira vez a trabalhar com n8n ou Ollama, a Hostinger &eacute; o local ideal para come&ccedil;ar.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>A integra&ccedil;&atilde;o entre n8n e Ollama permite usar diferentes modelos de IA diretamente nos seus workflows de automa&ccedil;&atilde;o. Isso abre espa&ccedil;o para executar tarefas mais complexas, que seriam dif&iacute;ceis ou invi&aacute;veis sem o uso de LLMs rodando localmente. Apesar disso, o processo exige aten&ccedil;&atilde;o, j&aacute; que &eacute; preciso configurar corretamente os dois lados para que [&#8230;]<\/p>\n<p><a class=\"btn btn-secondary understrap-read-more-link\" href=\"\/br\/tutoriais\/como-integrar-n8n-com-ollama\">Read More&#8230;<\/a><\/p>\n","protected":false},"author":356,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"rank_math_title":"Como integrar n8n com Ollama para workflows de IA locais","rank_math_description":"Aprenda a integrar n8n com Ollama para criar workflows com IA local, automatizar tarefas e montar chatbots seguros sem depender de servi\u00e7os externos.","rank_math_focus_keyword":"n8n ollama","footnotes":""},"categories":[4915],"tags":[],"class_list":["post-52095","post","type-post","status-publish","format-standard","hentry","category-vps"],"hreflangs":[],"acf":[],"_links":{"self":[{"href":"https:\/\/www.hostinger.com\/br\/tutoriais\/wp-json\/wp\/v2\/posts\/52095","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.hostinger.com\/br\/tutoriais\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.hostinger.com\/br\/tutoriais\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.hostinger.com\/br\/tutoriais\/wp-json\/wp\/v2\/users\/356"}],"replies":[{"embeddable":true,"href":"https:\/\/www.hostinger.com\/br\/tutoriais\/wp-json\/wp\/v2\/comments?post=52095"}],"version-history":[{"count":2,"href":"https:\/\/www.hostinger.com\/br\/tutoriais\/wp-json\/wp\/v2\/posts\/52095\/revisions"}],"predecessor-version":[{"id":52111,"href":"https:\/\/www.hostinger.com\/br\/tutoriais\/wp-json\/wp\/v2\/posts\/52095\/revisions\/52111"}],"wp:attachment":[{"href":"https:\/\/www.hostinger.com\/br\/tutoriais\/wp-json\/wp\/v2\/media?parent=52095"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.hostinger.com\/br\/tutoriais\/wp-json\/wp\/v2\/categories?post=52095"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.hostinger.com\/br\/tutoriais\/wp-json\/wp\/v2\/tags?post=52095"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}