{"id":45839,"date":"2025-12-16T22:57:50","date_gmt":"2025-12-16T21:57:50","guid":{"rendered":"\/co\/tutoriales\/como-integrar-n8n-con-ollama"},"modified":"2026-03-10T16:42:17","modified_gmt":"2026-03-10T15:42:17","slug":"como-integrar-n8n-con-ollama","status":"publish","type":"post","link":"\/co\/tutoriales\/como-integrar-n8n-con-ollama","title":{"rendered":"C\u00f3mo integrar n8n con Ollama para flujos de trabajo LLM locales"},"content":{"rendered":"<p>La integraci&oacute;n de n8n con Ollama te permite aprovechar varios modelos de IA en tu flujo de trabajo de automatizaci&oacute;n, permiti&eacute;ndote realizar operaciones complejas que de otro modo ser&iacute;an imposibles.<\/p><p>Sin embargo, el proceso puede ser complicado porque hay que configurar varios par&aacute;metros en ambas herramientas para que funcionen a la perfecci&oacute;n.<\/p><p>Si ya tienes n8n y Ollama instalados en tu servidor, puedes integrarlos en cuatro sencillos pasos:<\/p><ol class=\"wp-block-list\">\n<li>A&ntilde;ade el nodo del modelo de chat de Ollama <\/li>\n\n\n\n<li>Elige el modelo de IA y ajusta sus par&aacute;metros de ejecuci&oacute;n<\/li>\n\n\n\n<li>Configura los ajustes de aviso del nodo agente IA<\/li>\n\n\n\n<li>Envia un aviso de prueba para verificar la funcionalidad<\/li>\n<\/ol><p>Una vez completados estos pasos, dispondr&aacute;s de un flujo de trabajo de procesamiento de IA funcional e impulsado por Ollama, que podr&aacute;s integrar en un sistema de automatizaci&oacute;n m&aacute;s completo. Por ejemplo, puedes conectar aplicaciones de mensajer&iacute;a como WhatsApp para crear un chatbot de IA funcional.<\/p><p>Adem&aacute;s, ejecutarlo localmente en un servidor privado como en un VPS de Hostinger te proporciona un mayor nivel de control sobre tus datos. Esto hace que la integraci&oacute;n sea adecuada para automatizar tareas relacionadas con informaci&oacute;n confidencial, como resumir documentos internos o crear un chatbot interno.<\/p><p>Vamos a explorar en detalle c&oacute;mo conectar Ollama con n8n y crear un chatbot basado en esta integraci&oacute;n. Tambi&eacute;n explicaremos casos de uso populares para esta integraci&oacute;n y ampliaremos sus capacidades utilizando los nodos LangChain.<\/p><p>\n\n\n\n<\/p><h2 class=\"wp-block-heading\" id=\"h-requisitos-previos\">Requisitos previos<\/h2><p>Para integrar n8n con Ollama, debes cumplir los siguientes requisitos:<\/p><ul class=\"wp-block-list\">\n<li><strong>Ollama debe estar instalado localmente:<\/strong> aseg&uacute;rate de haber <a href=\"\/co\/tutoriales\/como-instalar-ollama\">instalado Ollama<\/a> localmente en un servidor privado virtual (VPS). El host debe tener suficiente hardware para ejecutar los modelos de IA deseados, lo que puede requerir m&aacute;s de<strong> 8 GB<\/strong> de RAM.<\/li>\n\n\n\n<li><strong>n8n debe estar configurado y accesible<\/strong>: <a href=\"\/co\/tutoriales\/como-instalar-n8n\">instala n8n<\/a> en un VPS y crea una cuenta. Debe configurarse en el mismo servidor que Ollama por razones de compatibilidad.<\/li>\n\n\n\n<li><strong>Aseg&uacute;rate de que los puertos necesarios est&aacute;n abiertos:<\/strong> comprueba que los puertos <strong>11434<\/strong> y <strong>5678<\/strong> de tu servidor est&aacute;n abiertos para garantizar el acceso a Ollama y n8n. Si los alojas en Hostinger VPS, comprueba los puertos y config&uacute;ralos simplemente preguntando a nuestro <strong>asistente de IA Kodee<\/strong>.<\/li>\n\n\n\n<li><strong>Conocimientos b&aacute;sicos de JSON:<\/strong> aprende a leer JSON porque los nodos n8n intercambian datos principalmente en este formato. Comprenderlo te ayudar&aacute; a seleccionar los datos y a solucionar los errores con mayor eficacia.<\/li>\n<\/ul><p><strong><div><p class=\"important\">&iexcl;Importante!<\/strong><\/p><p> Te recomendamos encarecidamente instalar tanto n8n como Ollama en el mismo contenedor Docker para un mejor aislamiento. Este es el m&eacute;todo que hemos utilizado para probar este tutorial, por lo que est&aacute; comprobado que funciona.<br>\n<br> Si utilizas un VPS de Hostinger, puedes empezar instalando n8n u Ollama en un contenedor Docker simplemente seleccionando la plantilla de SO correspondiente: la aplicaci&oacute;n se instalar&aacute; en un contenedor por defecto. A continuaci&oacute;n, tendr&aacute;s que instalar la otra aplicaci&oacute;n en el mismo contenedor.<\/p><\/div><\/p><h2 class=\"wp-block-heading\" id=\"h-como-configurar-la-integracion-de-ollama-en-n8n\">C&oacute;mo configurar la integraci&oacute;n de Ollama en n8n<\/h2><p>Conectar Ollama con n8n implica a&ntilde;adir el nodo necesario y configurar varios par&aacute;metros. En esta secci&oacute;n, explicaremos los pasos en detalle, incluyendo c&oacute;mo probar la funcionalidad de la integraci&oacute;n.<\/p><h3 class=\"wp-block-heading\" id=\"h-1-anade-el-nodo-ollama-chat-model\">1. A&ntilde;ade el nodo Ollama Chat Model<\/h3><p>Agregar el nodo Ollama Chat Model permite a n8n conectarse con grandes modelos ling&uuml;&iacute;sticos (LLM) en la plataforma de IA a trav&eacute;s de un agente conversacional.<\/p><p>n8n ofrece dos nodos Ollama: <strong>Modelo Ollama <\/strong>y <strong>Modelo Ollama Chat<\/strong>. <\/p><p>El<strong> Modelo de Chat de Ollama<\/strong> est&aacute; dise&ntilde;ado espec&iacute;ficamente para conversaci&oacute;n y tiene incorporado un nodo de <strong>Cadena LLM B&aacute;sica  <\/strong>que reenv&iacute;a su mensaje al modelo elegido. Mientras tanto, el nodo<strong> Modelo de Ollama <\/strong>es adecuado para tareas m&aacute;s generales con otros nodos de la<strong> cadena<\/strong>. Hablaremos sobre esto m&aacute;s a fondo en la secci&oacute;n LangChain.<\/p><p>En este tutorial, utilizaremos el nodo Modelo de Chat de Ollama, ya que es m&aacute;s f&aacute;cil de utilizar e integrar con un flujo de trabajo m&aacute;s completo. Aqu&iacute; te explicamos c&oacute;mo a&ntilde;adirlo a n8n:<\/p><ol class=\"wp-block-list\">\n<li>Accede a tu instancia n8n. Deber&iacute;as poder abrirlo en un navegador web utilizando el nombre de host o la <strong>direcci&oacute;n IP<\/strong> <strong>de tu VPS<\/strong>, dependiendo de tu configuraci&oacute;n. <\/li>\n\n\n\n<li>Accede a tu cuenta n8n. <\/li>\n\n\n\n<li>Crea un nuevo flujo de trabajo haciendo clic en el bot&oacute;n situado en la parte superior derecha de la p&aacute;gina principal de tu n8n.<\/li>\n<\/ol><div class=\"wp-block-image\"><figure data-wp-context='{\"imageId\":\"69f64f3923b0b\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/www.hostinger.com\/tutorials\/wp-content\/uploads\/sites\/2\/2025\/07\/n8n-main-page-workflow-creation-button.png\" alt=\"P&aacute;gina principal de n8n con el bot&oacute;n de creaci&oacute;n de flujo de trabajo resaltado\" class=\"wp-image-131603\"><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Agrandar\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><ol start=\"4\" class=\"wp-block-list\">\n<li>Haz clic en el icono del<strong> signo m&aacute;s<\/strong> y busca <strong>Ollama Chat Model<\/strong>.<\/li>\n\n\n\n<li>A&ntilde;ade el nodo haciendo clic en &eacute;l.<\/li>\n<\/ol><div class=\"wp-block-image\"><figure data-wp-context='{\"imageId\":\"69f64f392557a\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"\/tutorials\/wp-content\/uploads\/sites\/2\/2025\/07\/ollama-model-nodes-in-n8n.png\" alt=\"Nodos del modelo Ollama en n8n\" class=\"wp-image-131604\"><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Agrandar\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Aparecer&aacute; la ventana de configuraci&oacute;n del nodo. Pasemos al siguiente paso para configurarlo.<\/p><h3 class=\"wp-block-heading\" id=\"h-2-elige-tu-modelo-y-la-configuracion-del-tiempo-de-ejecucion\">2. Elige tu modelo y la configuraci&oacute;n del tiempo de ejecuci&oacute;n<\/h3><p>Antes de elegir un modelo de IA y configurar sus par&aacute;metros de ejecuci&oacute;n, conecta n8n con tu instancia de Ollama autoalojada. Aqu&iacute; te explicamos c&oacute;mo hacerlo:<\/p><ol class=\"wp-block-list\">\n<li>En la ventana de configuraci&oacute;n del nodo, despliega el men&uacute; desplegable <strong>Credencial para conectarse con<\/strong>.<\/li>\n\n\n\n<li>Selecciona <strong>Crear nueva credencial.<\/strong><\/li>\n<\/ol><div class=\"wp-block-image\"><figure data-wp-context='{\"imageId\":\"69f64f3926de5\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"\/tutorials\/wp-content\/uploads\/sites\/2\/2025\/07\/ollama-chat-node-new-credential-creation-button.png\" alt=\"Nuevo bot&oacute;n de creaci&oacute;n de credenciales en el nodo Ollama Chat\" class=\"wp-image-131605\"><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Agrandar\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><ol start=\"3\" class=\"wp-block-list\">\n<li>Introduce la URL base de tu instancia de Ollama. Dependiendo de tu entorno de alojamiento, puede ser <strong>localhost <\/strong>o el <strong>nombre de tu contenedor Docker Ollama<\/strong>.<\/li>\n\n\n\n<li>Pulsa <strong>Guardar<\/strong>.<\/li>\n<\/ol><p>Si la conexi&oacute;n se realiza correctamente, ver&aacute;s un mensaje de confirmaci&oacute;n. De lo contrario, aseg&uacute;rate de que la direcci&oacute;n es correcta y de que tu instancia de Ollama est&aacute; en funcionamiento.<\/p><div class=\"wp-block-image\"><figure data-wp-context='{\"imageId\":\"69f64f39285b0\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-large wp-lightbox-container\"><img decoding=\"async\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"\/tutorials\/wp-content\/uploads\/sites\/2\/2025\/07\/a-confirmation-message-confirming-n8n-connection-with-ollama-1024x585.png\" alt=\"Un mensaje de confirmaci&oacute;n de la conexi&oacute;n n8n con Ollama\" class=\"wp-image-131606\"><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Agrandar\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Una vez conectado, puedes elegir el LLM que deseas utilizar en tu nodo modelo de Ollama. Para ello, basta con desplegar el men&uacute; desplegable <strong>Modelo<\/strong> y seleccionar uno de la lista. Si est&aacute; en gris, refrescar el n8n resolver&aacute; el problema.<\/p><p>Ten en cuenta que n8n actualmente s&oacute;lo es compatible con modelos m&aacute;s antiguos como Llama 3 y DeepSeek R1. Si el men&uacute; <strong>Modelo <\/strong>muestra un error y una lista vac&iacute;a, lo m&aacute;s probable es que se deba a que tu Ollama s&oacute;lo tiene modelos incompatibles.<\/p><p>Para solucionarlo, basta con <a href=\"https:\/\/ollama.com\/library\" target=\"_blank\" rel=\"noreferrer noopener\">descargar otros modelos de Ollama<\/a>. En Ollama CLI, haz esto ejecutando el siguiente comando en tu entorno Ollama:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run nombre-modelo<\/pre><p>Tambi&eacute;n puedes utilizar un modelo con ajustes de funcionamiento personalizados, como una temperatura m&aacute;s alta. He aqu&iacute; c&oacute;mo crear uno en <a href=\"\/co\/tutoriales\/tutorial-de-ollama-cli\">Ollama CLI<\/a>:<\/p><ol class=\"wp-block-list\">\n<li>Accede a tu instalaci&oacute;n Ollama. Si utilizas Docker, usa el siguiente comando con <strong>ollama<\/strong> siendo el nombre real de tu contenedor:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">docker exec -it ollama bash<\/pre><ol start=\"2\" class=\"wp-block-list\">\n<li>Crea un nuevo archivo de modelo que defina la configuraci&oacute;n de tiempo de ejecuci&oacute;n de tu modelo. Por ejemplo, fijaremos la temperatura de nuestro modelo Llama 3 en <strong>0,7<\/strong>:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">echo \"FROM llama3\" &gt; Modelfile<\/pre><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">echo \"PARAMETER temperatura 0.7\" &gt;&gt; Modelfile<\/pre><ol start=\"3\" class=\"wp-block-list\">\n<li>Ejecuta el siguiente comando para aplicar la configuraci&oacute;n del archivo de modelo al modelo Llama 3 base, creando un LLM personalizado llamado <strong>llama3-temp07<\/strong>:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama create llama3-temp07 -f Modelfile<\/pre><p>Una vez que hayas completado estos pasos, n8n deber&iacute;a leer tu nuevo modelo Llama 3 con la temperatura personalizada <strong>0.7<\/strong>.<\/p><div class=\"wp-block-image\"><figure data-wp-context='{\"imageId\":\"69f64f3929dd3\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-large wp-lightbox-container\"><img decoding=\"async\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"\/tutorials\/wp-content\/uploads\/sites\/2\/2025\/07\/custom-ollama-model-on-n8n-842x1024.png\" alt=\"un modelo personalizado de Ollama en n8n\" class=\"wp-image-131607\"><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Agrandar\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p><div class=\"protip\">\n                    <h4 class=\"title\">Gesti&oacute;n de Ollama GUI<\/h4>\n                    <p>Si utilizas <a href=\"\/co\/tutoriales\/como-configurar-ollama-gui\">Ollama GUI<\/a>, consulta nuestro tutorial para aprender m&aacute;s sobre su interfaz y c&oacute;mo gestionar tus modelos.<\/p>\n                <\/div>\n\n\n\n<\/p><h3 class=\"wp-block-heading\" id=\"h-3-configura-las-opciones-de-aviso\">3. Configura las opciones de aviso<\/h3><p>La configuraci&oacute;n de los par&aacute;metros de aviso te permite personalizar el modo en que el nodo <strong>Cadena LLM B&aacute;sica<\/strong> modifica tu entrada antes de pasarla a Ollama para su procesamiento. Aunque puedes utilizar la configuraci&oacute;n predeterminada, deber&iacute;as cambiarla en funci&oacute;n de tus tareas.<\/p><div class=\"wp-block-image\"><figure data-wp-context='{\"imageId\":\"69f64f392b71b\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-large wp-lightbox-container\"><img decoding=\"async\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"\/tutorials\/wp-content\/uploads\/sites\/2\/2025\/07\/basic-llm-chain-prompt-source-options-1024x788.png\" alt=\"Opciones b&aacute;sicas de la cadena LLM\" class=\"wp-image-131608\"><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Agrandar\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>A continuaci&oacute;n dos formas de modificar la configuraci&oacute;n de los avisos del nodo de cadena LLM y sus casos de uso de ejemplo.<\/p><p><strong>Nodo de activaci&oacute;n del chat conectado<\/strong><\/p><p>La opci&oacute;n del <strong>nodo disparador Chat Conectado <\/strong>utiliza los mensajes del nodo <strong>Chat<\/strong> por defecto como entrada para Ollama. Es el modo elegido por defecto y pasa los mensajes tal cual.<\/p><p>Sin embargo, puedes incluir avisos adicionales junto con los mensajes para modificar la salida de Ollama. Para ello, haz clic en el bot&oacute;n<strong> A&ntilde;adir aviso<\/strong> en la configuraci&oacute;n <strong>Mensajes de chat (si se utiliza un modelo de chat)<\/strong> y elige entre tres opciones de aviso adicionales:<\/p><ul class=\"wp-block-list\">\n<li><strong>AI<\/strong>: introduce un ejemplo de la respuesta esperada en el campo <strong>Mensaje<\/strong>. El modelo de IA intentar&aacute; responder de la misma manera que el texto proporcionado.<\/li>\n\n\n\n<li><strong>Sistema:<\/strong> escribe un mensaje que gu&iacute;e las respuestas del modelo. Por ejemplo, puedes definir el tono que utilizar&aacute; la IA o las palabras que debe evitar al responder.<\/li>\n\n\n\n<li><strong>Usuario:<\/strong> a&ntilde;ade una muestra de la entrada del usuario para la IA, como un mensaje, una URL o una imagen. Dar a la IA una muestra de lo que puede esperar de los usuarios le permitir&aacute; ofrecer respuestas m&aacute;s coherentes.<\/li>\n<\/ul><p><strong>Definir a continuaci&oacute;n<\/strong><\/p><p>La opci&oacute;n <strong>Definir a continuaci&oacute;n<\/strong> es adecuada si deseas introducir un mensaje preescrito reutilizable. Tambi&eacute;n es ideal para enviar datos din&aacute;micos, ya que puede capturarlos mediante <strong>Expressions<\/strong>, una biblioteca JavaScript que manipula la entrada o selecciona un campo espec&iacute;fico.<\/p><p>Por ejemplo, el nodo anterior obtiene datos sobre el uso de los recursos de tu VPS y deseas analizarlos utilizando IA. En este caso, la indicaci&oacute;n sigue siendo la misma, pero las m&eacute;tricas de uso cambiar&aacute;n continuamente.<\/p><p>Tu prompt podr&iacute;a parecerse a la siguiente, siendo <strong>{{ $json.metric }}<\/strong> el campo que contiene los datos din&aacute;micos sobre el uso de los recursos de tu servidor:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"raw\" data-enlighter-theme=\"atomic\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">El &uacute;ltimo uso de mi servidor es {{ $json.metric }}. Analiza estos datos y comp&aacute;ralos con el historial de uso anterior para comprobar si se trata de algo anormal.<\/pre><p>Ten en cuenta que a&uacute;n puedes a&ntilde;adir indicaciones adicionales como en el modo anterior para dar m&aacute;s contexto a la IA.<\/p><h3 class=\"wp-block-heading\" id=\"h-4-envia-un-aviso-de-prueba\">4. Envia un aviso de prueba<\/h3><p>El env&iacute;o de un aviso de prueba verifica que tu modelo Ollama funciona correctamente al recibir entradas a trav&eacute;s de n8n. La forma m&aacute;s sencilla de hacerlo es introduciendo un mensaje de muestra siguiendo estos pasos:<\/p><ol class=\"wp-block-list\">\n<li>Guarda tu flujo de trabajo haciendo clic en el bot&oacute;n situado en la parte superior derecha del lienzo.<\/li>\n\n\n\n<li>Pasa el rat&oacute;n por encima del nodo Activador del <strong>chat<\/strong> y haz clic en<strong> Abrir chat<\/strong>.<\/li>\n\n\n\n<li>En la<strong> interfaz de chat<\/strong>, env&iacute;a un mensaje de prueba. <\/li>\n<\/ol><div class=\"wp-block-image\"><figure data-wp-context='{\"imageId\":\"69f64f392cea5\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"\/tutorials\/wp-content\/uploads\/sites\/2\/2025\/07\/the-chat-trigger-interface-on-n8n-canvas.png\" alt=\"La interfaz de activaci&oacute;n del chat en el lienzo n8n\" class=\"wp-image-131609\"><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Agrandar\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Esperq hasta que el flujo de trabajo termine de procesar tu mensaje. Durante nuestras pruebas, el flujo de trabajo se atasc&oacute; unas cuantas veces. Si encuentras el mismo problema, simplemente recarga n8n y env&iacute;a un nuevo mensaje.<\/p><p>Si la prueba se realiza correctamente, todos los nodos se volver&aacute;n verdes. Puedes leer la entrada y salida JSON de cada nodo haciendo doble clic en &eacute;l y comprobando los paneles a ambos lados de la ventana de configuraci&oacute;n.<\/p><h2 class=\"wp-block-heading\" id=\"h-como-crear-un-flujo-de-trabajo-de-chatbot-utilizando-ollama-y-n8n\">C&oacute;mo crear un flujo de trabajo de chatbot utilizando Ollama y n8n<\/h2><p>La integraci&oacute;n de Ollama en n8n te permite automatizar varias tareas con LLM, incluida la creaci&oacute;n de un flujo de trabajo impulsado por IA en n8n que responda a las consultas de los usuarios, como un chatbot. En esta secci&oacute;n se analizan los pasos necesarios para elaborar uno.<\/p><p>Si deseas crear un sistema de automatizaci&oacute;n para otras tareas, consulta nuestros <a href=\"\/co\/tutoriales\/ejemplos-de-flujos-de-trabajo-n8n\">ejemplos de flujos de trabajo n8n<\/a> para inspirarte.<\/p><h3 class=\"wp-block-heading\" id=\"h-1-anade-un-nodo-desencadenante\">1. A&ntilde;ade un nodo desencadenante<\/h3><p>El nodo desencadenante en n8n define el evento que iniciar&aacute; tu flujo de trabajo. Entre varias opciones, &eacute;stas son las m&aacute;s comunes para crear un chatbot:<\/p><p><strong>Activador de chat<\/strong><\/p><p>Por defecto, el nodo modelo de chat de Ollama utiliza <strong>Chat message<\/strong> como disparador, que inicia tu flujo de trabajo al recibir un mensaje.<\/p><p>Este nodo<strong> Chat<\/strong> por defecto es perfecto para desarrollar un chatbot. Para que funcione, basta con poner la interfaz de chat a disposici&oacute;n del p&uacute;blico.<\/p><div class=\"wp-block-image\"><figure data-wp-context='{\"imageId\":\"69f64f392e5f6\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"\/tutorials\/wp-content\/uploads\/sites\/2\/2025\/07\/n8n-chat-trigger-make-public-toggle.png\" alt=\"Activar el chat de n8n Hacer que el chat est&eacute; disponible p&uacute;blicamente\" class=\"wp-image-131610\"><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Agrandar\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Para ello, abre el nodo <strong>Chat <\/strong>y haz clic en el bot&oacute;n <strong>Hacer p&uacute;blico el chat<\/strong>. A continuaci&oacute;n, puedes incrustar esta funcionalidad de chat en tu chatbot personalizado con una interfaz de usuario.<\/p><p><strong>Nodos de activaci&oacute;n de aplicaciones de mensajer&iacute;a<\/strong><\/p><p>n8n cuenta con nodos de activaci&oacute;n que toman datos de aplicaciones de mensajer&iacute;a populares como <strong>Telegram<\/strong> y <strong>WhatsApp<\/strong>. Son adecuados si quieres crear un bot para este tipo de aplicaciones.<\/p><p>Configurar estos nodos es bastante complicado porque necesitas una cuenta de desarrollador y claves de autenticaci&oacute;n para conectarte a sus API. Consulta su documentaci&oacute;n para saber m&aacute;s sobre c&oacute;mo configurarlos.<\/p><p><strong>Activador Webhook<\/strong><\/p><p>El disparador <strong>Webhook<\/strong> inicia tu flujo de trabajo cuando tu URL de punto final recibe una solicitud HTTP. Esto es ideal si quieres iniciar tu chatbot utilizando eventos distintos al env&iacute;o de un mensaje, como un clic.<\/p><p>En los siguientes pasos, utilizaremos este nodo para iniciar nuestro flujo de trabajo cada vez que un chatbot de Discord reciba un mensaje. <\/p><p><strong><div><p class=\"important\">&iexcl;Importante!<\/strong><strong><\/strong><\/p><p>Si la URL de tu webhook comienza con localhost, c&aacute;mbiala por el dominio, nombre de host o direcci&oacute;n IP de tu VPS. Puedes hacerlo modificando <a href=\"https:\/\/docs.n8n.io\/hosting\/configuration\/environment-variables\/endpoints\/\" target=\"_blank\" rel=\"noopener\">la variable de entorno WEBHOOK_URL de n8n<\/a> dentro de tu archivo de configuraci&oacute;n.<\/p><\/div><\/p><h3 class=\"wp-block-heading\" id=\"h-2-conecta-el-nodo-ollama\">2. Conecta el nodo Ollama<\/h3><p>La conexi&oacute;n del nodo Ollama permite que el nodo de activaci&oacute;n reenv&iacute;e la entrada del usuario para su procesamiento.<\/p><p>El nodo <strong>Ollama Chat Model<\/strong> no se conecta directamente a los nodos de activaci&oacute;n y s&oacute;lo se integra con un nodo de IA. El predeterminado es el nodo <strong>Cadena LLM B&aacute;sico<\/strong>, pero tambi&eacute;n puede utilizar otros nodos <strong>Cadena <\/strong>para un procesamiento m&aacute;s complejo.<\/p><p>Algunos nodos de la<strong> Cadena<\/strong> admiten herramientas adicionales para procesar tus datos. Por ejemplo, el nodo<strong> Agente IA <\/strong>permite a&ntilde;adir un analizador sint&aacute;ctico para reformatear la salida o incluir una memoria para almacenar las respuestas anteriores.<\/p><p>Para un chatbot que no requiera un procesamiento de datos complejo, como nuestro chatbot Discord, la <strong>cadena LLM b&aacute;sica<\/strong> es suficiente.<\/p><div class=\"wp-block-image\"><figure data-wp-context='{\"imageId\":\"69f64f392fcd6\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"\/tutorials\/wp-content\/uploads\/sites\/2\/2025\/07\/ollama-basic-llm-chain-node-cluster-with-webhook-trigger.png\" alt=\"Cluster de nodos Ollama y Basic LLM Chain con el Webhook trigger conectado\" class=\"wp-image-131611\"><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Agrandar\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Por lo tanto, conecta el nodo de activaci&oacute;n con el nodo de la<strong> cadena LLM b&aacute;sica <\/strong>y define c&oacute;mo pasar la entrada. Utiliza <strong>Fixed<\/strong> para pasar el mensaje como prompt. Mientras tanto, selecciona <strong>Expresi&oacute;n<\/strong> para utilizar datos din&aacute;micos o manipular la entrada antes de reenviarla a Ollama.<\/p><p>Por ejemplo, utilizamos la siguiente <strong>Expresi&oacute;n<\/strong> para elegir como entrada el campo JSON <strong>body.content <\/strong>, que cambia en funci&oacute;n de los mensajes de Discord de los usuarios:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">{{ $json.body.content }}<\/pre><h3 class=\"wp-block-heading\" id=\"h-3-emision-de-la-respuesta\">3. Emisi&oacute;n de la respuesta<\/h3><p>La salida de la respuesta del nodo <strong>Agente IA<\/strong> o <strong>Cadena LLM B&aacute;sica<\/strong> hace posible que los usuarios vean la respuesta de tu bot. En este punto, s&oacute;lo puedes leer la salida de la interfaz de chat o el panel de salida del nodo.<\/p><p>Para enviar la respuesta, utiliza el mismo nodo que tu activador. Por ejemplo, si est&aacute;s desarrollando un chatbot de WhatsApp, conecta el nodo de <strong>env&iacute;o de mensajes de WhatsApp<\/strong>.<\/p><p>Si utilizas el activador de <strong>chat<\/strong> predeterminado, puedes utilizar el nodo <strong>Webhook<\/strong> para reenviar el mensaje a tu bot o interfaz de chatbot con c&oacute;digo personalizado.<\/p><p>Dado que el flujo de trabajo de nuestro bot Discord utiliza el disparador <strong>Webhook <\/strong>, tambi&eacute;n podemos utilizar el nodo <strong>Webhook <\/strong>para la salida. Alternativamente, podemos utilizar el mismo bot para enviar la respuesta conectando el nodo Discord <strong>Send a Message<\/strong> e integr&aacute;ndolo con nuestro chatbot. El flujo de trabajo completado tendr&aacute; el siguiente aspecto:<\/p><div class=\"wp-block-image\"><figure data-wp-context='{\"imageId\":\"69f64f3931591\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"\/tutorials\/wp-content\/uploads\/sites\/2\/2025\/07\/n8n-ollama-discord-bot-workflow.png\" alt=\"Flujo de trabajo del bot de Discord basado en Ollama de n8n\" class=\"wp-image-131612\"><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Agrandar\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p><div class=\"protip\">\n                    <h4 class=\"title\">&iquest;No est&aacute;s seguro de c&oacute;mo crear un flujo de trabajo completo?<\/h4>\n                    <p>n8n ofrece varios flujos de trabajo listos para usar que puedes importar f&aacute;cilmente a tu lienzo. Esto te permite crear un sistema de automatizaci&oacute;n basado en IA sin necesidad de desarrollar el flujo de trabajo desde cero. Echa un vistazo a nuestro tutorial sobre <a href=\"\/co\/tutoriales\/mejores-plantillas-de-n8n\">las mejores plantillas n8n<\/a> para descubrir flujos de trabajo curados y listos para usar con diversos fines.<\/p>\n                <\/div>\n\n\n\n<\/p><h2 class=\"wp-block-heading\" id=\"h-mejores-casos-de-uso-para-la-integracion-de-n8n-ollama\">Mejores casos de uso para la integraci&oacute;n de n8n Ollama<\/h2><p>Siendo una de las herramientas de automatizaci&oacute;n de IA m&aacute;s potentes, la integraci&oacute;n de n8n con los LLM personalizables de Ollama te permite automatizar una amplia gama de tareas.<\/p><p>He aqu&iacute; ejemplos de tareas que puedes <a href=\"\/co\/tutoriales\/ideas-de-automatizacion-con-n8n\">automatizar con n8n<\/a> y la IA:<\/p><ol class=\"wp-block-list\">\n<li><strong>Flujo de trabajo automatizado de atenci&oacute;n al cliente: <\/strong>utiliza los LLM de Ollama para generar respuestas a las consultas de los clientes, resumir tickets o enrutar incidencias en plataformas como Zendesk e Intercom, todo ello a trav&eacute;s de n8n.<\/li>\n\n\n\n<li><strong>Redacci&oacute;n de correos electr&oacute;nicos en funci&oacute;n del contexto:<\/strong> escribe autom&aacute;ticamente correos electr&oacute;nicos para diferentes contextos o tareas utilizando Ollama. Por ejemplo, puedes redactar un mensaje para incorporar a un nuevo cliente potencial, recordar a los clientes el vencimiento de la suscripci&oacute;n y anunciar actualizaciones de productos mediante distintos eventos.<\/li>\n\n\n\n<li><strong>Asistente de la base de conocimientos interna:<\/strong> usa n8n para consultar documentaci&oacute;n interna, como Notion, Confluence o Airtable, e introduce los datos en Ollama para generar respuestas inteligentes o res&uacute;menes para las consultas del equipo interno.<\/li>\n\n\n\n<li><strong>Extracci&oacute;n y resumen de datos:<\/strong> utiliza n8n para ver documentos de texto entrantes, extraer su texto y extraer informaci&oacute;n clave con Ollama: &uacute;til para resumir informes, facturas o documentos legales.<\/li>\n\n\n\n<li><strong>Producci&oacute;n automatizada de contenidos:<\/strong> genera contenidos con n8n y Ollama creando un flujo de trabajo que automatice el proceso de b&uacute;squeda de palabras clave, redacci&oacute;n y edici&oacute;n.<\/li>\n\n\n\n<li><strong>Chatbots seguros para uso interno: <\/strong>crea chatbots internos que trabajen con datos internos confidenciales, donde n8n se encarga de la orquestaci&oacute;n y Ollama ejecuta el LLM completamente offline por seguridad y privacidad.<\/li>\n<\/ol><h3 class=\"wp-block-heading\" id=\"h-por-que-deberias-alojar-tus-flujos-de-trabajo-n8n-ollama-con-hostinger\">&iquest;Por qu&eacute; deber&iacute;as alojar tus flujos de trabajo n8n-Ollama con Hostinger?<\/h3><p>Alojar tus flujos de trabajo n8n-Ollama con Hostinger aporta varias ventajas con respecto a utilizar una m&aacute;quina personal o el plan de alojamiento oficial. Estas son algunas de sus ventajas:<\/p><ul class=\"wp-block-list\">\n<li><strong>Mayor control:<\/strong> el servicio de <a href=\"\/co\/hosting-n8n\">alojamiento VPS n8n<\/a> de Hostinger proporciona a los usuarios acceso root completo a la configuraci&oacute;n y los datos de tu servidor. Esto te permite configurar tus entornos de alojamiento n8n y Ollama seg&uacute;n tus preferencias espec&iacute;ficas.<\/li>\n\n\n\n<li><strong>Mayor privacidad:<\/strong> puesto que alojar&aacute;s n8n y Ollama en un servidor que controla totalmente, tendr&aacute;s libertad para ajustar los l&iacute;mites de acceso y la configuraci&oacute;n de seguridad.<\/li>\n\n\n\n<li><strong>Escalabilidad:<\/strong> los planes VPS de Hostinger son f&aacute;cilmente actualizables sin tiempo de inactividad y ofrecen la plantilla de modo de cola n8n que te permite descargar tu tarea a m&uacute;ltiples trabajadores.<\/li>\n\n\n\n<li><strong>Configuraci&oacute;n simplificada:<\/strong> nuestras plantillas VPS te permiten instalar n8n u Ollama en un solo clic, haciendo que el proceso sea m&aacute;s eficiente.<\/li>\n\n\n\n<li><strong>F&aacute;cil gesti&oacute;n:<\/strong> gestionar un VPS de Hostinger es f&aacute;cil con el intuitivo panel de control hPanel o el terminal de navegador integrado. Los principiantes tambi&eacute;n pueden pedir a nuestro asistente de IA, <strong>Kodee<\/strong>, que realice tareas de administraci&oacute;n del sistema a trav&eacute;s del chat.<\/li>\n<\/ul><figure class=\"wp-block-image size-large\"><a href=\"\/co\/servidor-vps\" target=\"_blank\" rel=\"noreferrer noopener\"><img decoding=\"async\" width=\"1024\" height=\"300\" src=\"https:\/\/blog.hostinger.io\/co-tutoriales\/wp-content\/uploads\/sites\/40\/2023\/02\/ES-VPS-hosting_in-text-banner-1024x300.png\" alt=\"\" class=\"wp-image-29287\" srcset=\"https:\/\/www.hostinger.com\/co\/tutoriales\/wp-content\/uploads\/sites\/40\/2023\/02\/ES-VPS-hosting_in-text-banner.png 1024w, https:\/\/www.hostinger.com\/co\/tutoriales\/wp-content\/uploads\/sites\/40\/2023\/02\/ES-VPS-hosting_in-text-banner-300x88.png 300w, https:\/\/www.hostinger.com\/co\/tutoriales\/wp-content\/uploads\/sites\/40\/2023\/02\/ES-VPS-hosting_in-text-banner-150x44.png 150w, https:\/\/www.hostinger.com\/co\/tutoriales\/wp-content\/uploads\/sites\/40\/2023\/02\/ES-VPS-hosting_in-text-banner-768x225.png 768w, https:\/\/www.hostinger.com\/co\/tutoriales\/wp-content\/uploads\/sites\/40\/2023\/02\/ES-VPS-hosting_in-text-banner-1536x450.png 1536w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/a><\/figure><h2 class=\"wp-block-heading\" id=\"h-uso-del-nodo-lm-ollama-de-langchain-en-n8n\">Uso del nodo LM Ollama de LangChain en n8n<\/h2><p><strong>LangChain <\/strong>es un marco que facilita la integraci&oacute;n de los LLM en las aplicaciones. En n8n, esta implementaci&oacute;n implica conectar diferentes nodos de herramientas y modelos de IA para lograr capacidades de procesamiento particulares.<\/p><p>En n8n, la funci&oacute;n LangChain utiliza<strong> nodos Cluster<\/strong>: un grupo de nodos interconectados que trabajan juntos para proporcionar funcionalidad en tu flujo de trabajo.<\/p><figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/www.hostinger.com\/es\/tutoriales\/wp-content\/uploads\/sites\/32\/2025\/12\/langchain-lm-ollama.jpg\" alt=\"El concepto de cl&uacute;ster, ra&iacute;z y subnodos en la implementaci&oacute;n de LangChain de n8n\" class=\"wp-image-49563\"><\/figure><p>Los nodos del cl&uacute;ster constan de dos partes: los<strong> nodos ra&iacute;z <\/strong>, que definen la funcionalidad principal, y<strong> los subnodos<\/strong>, que a&ntilde;aden la capacidad LLM o caracter&iacute;sticas adicionales.<\/p><p>La parte m&aacute;s importante de la implementaci&oacute;n de LangChain en n8n es la <strong>Cadena<\/strong> dentro de los <strong>nodos ra&iacute;z<\/strong>. Re&uacute;ne y configura la l&oacute;gica de distintos componentes de la IA, como el modelo Ollama y el nodo analizador sint&aacute;ctico, para crear un sistema cohesionado.<\/p><p>Aqu&iacute; est&aacute;n las<strong> Cadenas <\/strong>en n8n y sus funciones:<\/p><ul class=\"wp-block-list\">\n<li><strong>Cadena b&aacute;sica LLM:<\/strong> permite definir el mensaje que utilizar&aacute; el modelo de IA y un analizador sint&aacute;ctico opcional para reformatear la respuesta.<\/li>\n\n\n\n<li><strong>Cadena de preguntas y respuestas de recuperaci&oacute;n:<\/strong> permite recuperar datos procesados por la IA utilizando almacenes vectoriales, bases de datos dise&ntilde;adas para almacenar informaci&oacute;n en formato num&eacute;rico.<\/li>\n\n\n\n<li><strong>Cadena de resumen:<\/strong> resume el contenido de varios documentos o entradas.<\/li>\n\n\n\n<li><strong>An&aacute;lisis del sentimiento:<\/strong> analiza el sentimiento del texto de entrada y lo clasifica en categor&iacute;as como positivo, neutro y negativo.<\/li>\n\n\n\n<li><strong>Clasificador de texto:<\/strong> clasifica los datos de entrada en diferentes categor&iacute;as creadas por el usuario en funci&oacute;n de los criterios y par&aacute;metros especificados.<\/li>\n<\/ul><p>Al crear un flujo de trabajo en n8n, tambi&eacute;n puedes encontrar <strong>Agentes<\/strong>: subconjuntos de<strong> Cadenas<\/strong> con capacidad para tomar decisiones. Mientras que las<strong> Cadenas<\/strong> operan bas&aacute;ndose en un conjunto de reglas predeterminadas, el<strong> Agente <\/strong>utiliza el LLM conectado para determinar las siguientes acciones a realizar.<\/p><h2 class=\"wp-block-heading\" id=\"h-que-sigue-despues-de-conectar-n8n-con-ollama\">&iquest;Qu&eacute; sigue despu&eacute;s de conectar n8n con Ollama?<\/h2><p>Como las tendencias de automatizaci&oacute;n siguen evolucionando, implantar un sistema autom&aacute;tico de procesamiento de datos te ayudar&aacute; a mantenerte por delante de la competencia. Junto con la IA, puedes crear un sistema que lleve el desarrollo y la gesti&oacute;n de tus proyectos al siguiente nivel.<\/p><p>La integraci&oacute;n de Ollama en el flujo de trabajo del n8n aporta una automatizaci&oacute;n basada en IA que va m&aacute;s all&aacute; de las capacidades del nodo incorporado y la compatibilidad de Ollama con varios LLM te permite elegir y adaptar diferentes modelos de IA para que se ajusten mejor a tus necesidades.<\/p><p>Comprender c&oacute;mo conectar Ollama a n8n es s&oacute;lo el primer paso para implantar la automatizaci&oacute;n basada en IA en tu proyecto. Dado el gran n&uacute;mero de casos de uso posibles, el siguiente paso es experimentar y desarrollar el flujo de trabajo que mejor se adapte a tu proyecto.<\/p><p>Si es la primera vez que trabajas con n8n u Ollama, Hostinger es el lugar ideal para empezar. Adem&aacute;s de planes VPS repletos de funciones, disponemos de un completo <a href=\"\/co\/tutoriales\/?s=n8n\">cat&aacute;logo de tutoriales sobre n8n<\/a> que te ayudar&aacute;n a iniciar tu viaje de automatizaci&oacute;n.<\/p><p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>La integraci&oacute;n de n8n con Ollama te permite aprovechar varios modelos de IA en tu flujo de trabajo de automatizaci&oacute;n, permiti&eacute;ndote realizar operaciones complejas que de otro modo ser&iacute;an imposibles. Sin embargo, el proceso puede ser complicado porque hay que configurar varios par&aacute;metros en ambas herramientas para que funcionen a la perfecci&oacute;n. Si ya tienes [&#8230;]<\/p>\n<p><a class=\"btn btn-secondary understrap-read-more-link\" href=\"\/co\/tutoriales\/como-integrar-n8n-con-ollama\">Read More&#8230;<\/a><\/p>\n","protected":false},"author":353,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"rank_math_title":"C\u00f3mo integrar n8n con Ollama: gu\u00eda completa con casos de uso","rank_math_description":"Integra n8n con Ollama para ejecutar LLM locales, crear chatbots y automatizar tareas con mayor control y modelos de IA autoalojados.","rank_math_focus_keyword":"n8n ollama","footnotes":""},"categories":[5700],"tags":[],"class_list":["post-45839","post","type-post","status-publish","format-standard","hentry","category-vps"],"hreflangs":[{"locale":"es-ES","link":"https:\/\/www.hostinger.com\/es\/tutoriales\/como-integrar-n8n-con-ollama","default":0},{"locale":"es-AR","link":"https:\/\/www.hostinger.com\/ar\/tutoriales\/como-integrar-n8n-con-ollama","default":0},{"locale":"es-MX","link":"https:\/\/www.hostinger.com\/mx\/tutoriales\/como-integrar-n8n-con-ollama","default":0},{"locale":"es-CO","link":"https:\/\/www.hostinger.com\/co\/tutoriales\/como-integrar-n8n-con-ollama","default":0}],"acf":[],"_links":{"self":[{"href":"https:\/\/www.hostinger.com\/co\/tutoriales\/wp-json\/wp\/v2\/posts\/45839","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.hostinger.com\/co\/tutoriales\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.hostinger.com\/co\/tutoriales\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.hostinger.com\/co\/tutoriales\/wp-json\/wp\/v2\/users\/353"}],"replies":[{"embeddable":true,"href":"https:\/\/www.hostinger.com\/co\/tutoriales\/wp-json\/wp\/v2\/comments?post=45839"}],"version-history":[{"count":1,"href":"https:\/\/www.hostinger.com\/co\/tutoriales\/wp-json\/wp\/v2\/posts\/45839\/revisions"}],"predecessor-version":[{"id":46918,"href":"https:\/\/www.hostinger.com\/co\/tutoriales\/wp-json\/wp\/v2\/posts\/45839\/revisions\/46918"}],"wp:attachment":[{"href":"https:\/\/www.hostinger.com\/co\/tutoriales\/wp-json\/wp\/v2\/media?parent=45839"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.hostinger.com\/co\/tutoriales\/wp-json\/wp\/v2\/categories?post=45839"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.hostinger.com\/co\/tutoriales\/wp-json\/wp\/v2\/tags?post=45839"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}