Non perdere le offerte a tempo limitato!

Come si integra n8n con Ollama per i flussi di lavoro LLM locali?

Integrare n8n con Ollama ti consente di sfruttare diversi modelli di AI nel tuo flusso di automazione, permettendoti di eseguire operazioni complesse che altrimenti sarebbero difficili o impossibili da automatizzare.

Tuttavia, il processo può risultare complesso, poiché è necessario configurare diverse impostazioni su entrambi gli strumenti affinché funzionino correttamente insieme.

Se hai già n8n e Ollama installati sul tuo server, puoi integrarli in quattro semplici passaggi:

  1. Aggiungi il nodo Ollama Chat Model
  2. Scegli il modello di AI e regola le relative impostazioni di runtime
  3. Configura le impostazioni del prompt nel nodo dell’agente AI
  4. Invia un prompt di test per verificare il corretto funzionamento

Dopo aver completato questi passaggi, avrai un flusso di elaborazione AI funzionante basato su Ollama, che potrai integrare in un sistema di automazione più completo. Ad esempio, puoi collegare applicazioni di messaggistica come WhatsApp per creare un chatbot AI operativo.

Inoltre, eseguire tutto in locale su un server privato, come un VPS Hostinger, ti offre un maggiore controllo sui tuoi dati. Questo rende l’integrazione particolarmente adatta all’automazione di attività che coinvolgono informazioni sensibili, come il riepilogo di documenti interni o la creazione di un chatbot aziendale.

Vediamo nel dettaglio come collegare Ollama a n8n e creare un chatbot basato su questa integrazione. Nella parte finale, analizzeremo anche i casi d’uso più comuni e come ampliare le funzionalità utilizzando i nodi LangChain.

Prerequisiti

Per integrare n8n con Ollama, assicurati di soddisfare i seguenti prerequisiti:

  • Ollama installato in locale. Assicurati di aver installato Ollama in locale su un server privato virtuale (VPS). L’host deve disporre di risorse hardware sufficienti per eseguire i modelli di AI desiderati, che potrebbero richiedere oltre 8 GB di RAM.
  • n8n configurato e accessibile. Installa n8n su un VPS e crea un account. Per motivi di compatibilità, deve essere configurato sullo stesso server su cui è installato Ollama.
  • Porte necessarie aperte. Verifica che le porte 11434 e 5678 sul tuo server siano aperte, così da garantire l’accessibilità di Ollama e n8n. Se utilizzi un VPS Hostinger, puoi controllare e configurare le porte chiedendo assistenza al nostro assistente AI Kodee.
  • Conoscenze di base di JSON. È importante saper leggere e comprendere il formato JSON, poiché i nodi di n8n scambiano principalmente dati in questo formato. Questo ti aiuterà a selezionare correttamente i campi e a risolvere eventuali errori in modo più efficiente.

Importante! Consigliamo vivamente di installare sia n8n sia Ollama nello stesso container Docker per garantire un migliore isolamento. Questo è il metodo utilizzato per testare il tutorial, ed è stato verificato come funzionante.

Se utilizzi un VPS Hostinger, puoi iniziare installando n8n oppure Ollama in un container Docker semplicemente selezionando il template del sistema operativo corrispondente: l’applicazione verrà installata in un container per impostazione predefinita. Successivamente, dovrai installare anche l’altra applicazione all’interno dello stesso container.

Come configurare l’integrazione di Ollama in n8n

Collegare Ollama a n8n richiede l’aggiunta del nodo corretto e la configurazione di diverse impostazioni. In questa sezione vedremo i passaggi nel dettaglio, inclusa la procedura per testare il corretto funzionamento dell’integrazione.

1. Aggiungi il nodo Ollama Chat Model

L’aggiunta del nodo Ollama Chat Model consente a n8n di connettersi ai modelli linguistici di grandi dimensioni (LLM) eseguiti su Ollama tramite un agente conversazionale.

n8n offre due nodi dedicati a Ollama: Ollama Model e Ollama Chat Model. Il nodo Ollama Chat Model è progettato specificamente per le conversazioni e include un nodo Basic LLM Chain integrato che inoltra il messaggio al modello selezionato. Il nodo Ollama Model, invece, è più adatto a casi d’uso generici in combinazione con altri nodi Chain: approfondiremo questo aspetto nella sezione dedicata a LangChain.

In questo tutorial utilizzeremo il nodo Ollama Chat Model perché è più semplice da configurare e integrare in un workflow di automazione più completo. Ecco come aggiungerlo in n8n:

  1. Accedi alla tua istanza di n8n. Dovresti poterla aprire dal browser utilizzando l’hostname o l’indirizzo IP del tuo VPS, in base alla configurazione.
  2. Accedi al tuo account n8n.
  3. Crea un nuovo workflow facendo click sul pulsante in alto a destra della pagina principale di n8n.
  1. Fai click sull’icona “+” e cerca Ollama Chat Model.
  2. Fai click sul nodo per aggiungerlo al canvas.

Si aprirà la finestra di configurazione del nodo selezionato. Passa al passaggio successivo per configurarlo.

2. Scegli il modello e configura le impostazioni di runtime

Prima di selezionare un modello AI e configurarne le impostazioni di runtime, devi collegare n8n alla tua istanza Ollama self-hosted. Ecco come fare:

  1. Nella finestra di configurazione del nodo, espandi il menu a discesa Credential to connect with.
  2. Seleziona Create new credential.
  1. Inserisci l’URL base della tua istanza Ollama. A seconda dell’ambiente di hosting, può essere localhost oppure il nome del container Docker di Ollama.
  2. Clicca su Save.

Se la connessione va a buon fine, vedrai un messaggio di conferma. In caso contrario, verifica che l’indirizzo sia corretto e che Ollama sia in esecuzione.

Una volta stabilita la connessione, puoi selezionare l’LLM da utilizzare nel nodo Ollama. Espandi il menu a discesa Model e scegli il modello dall’elenco. Se il menu risulta disabilitato, aggiorna la pagina di n8n per risolvere il problema.

Tieni presente che attualmente n8n supporta solo alcuni modelli, come Llama 3 e DeepSeek R1. Se il menu Model mostra un errore o un elenco vuoto, è probabile che nella tua installazione di Ollama siano presenti solo modelli non compatibili.

Per risolvere il problema, scarica un modello compatibile tramite la CLI di Ollama, eseguendo il seguente comando nel tuo ambiente Ollama:

ollama run model-name

Puoi anche utilizzare un modello con impostazioni di runtime personalizzate, ad esempio una temperatura più alta. Ecco come crearne uno tramite Ollama CLI:

  1. Accedi alla tua installazione di Ollama. Se utilizzi Docker, esegui il seguente comando (sostituendo ollama con il nome effettivo del container):
docker exec -it ollama bash
  1. Crea un nuovo Modelfile che definisca le impostazioni di runtime del modello. Ad esempio, impostiamo la temperatura del modello Llama 3 a 0,7:
echo "FROM llama3" > Modelfile
echo "PARAMETER temperature 0.7" >> Modelfile
  1. Esegui il seguente comando per applicare la configurazione al modello base Llama 3 e creare un LLM personalizzato chiamato llama3-temp07:
ollama create llama3-temp07 -f Modelfile

Dopo aver completato questi passaggi, n8n dovrebbe rilevare il nuovo modello Llama 3 con temperatura personalizzata 0,7.

3. Configura le impostazioni del prompt

Configurando le impostazioni del prompt puoi definire in che modo il nodo Basic LLM Chain elaborerà l’input prima di inviarlo a Ollama. Puoi utilizzare le impostazioni predefinite, ma è consigliabile personalizzarle in base al tuo caso d’uso.

Di seguito trovi due modalità principali per configurare il prompt e i relativi esempi di utilizzo.

Nodo Connected Chat trigger

L’opzione Connected Chat trigger utilizza i messaggi del nodo Chat predefinito come input per Ollama. È la modalità attiva per impostazione predefinita e inoltra i messaggi senza modificarli.

Puoi comunque aggiungere prompt supplementari per influenzare l’output del modello. Per farlo, fai click su Add Prompt nella sezione Chat Messages (if Using a Chat Model) e scegli una delle seguenti opzioni:

  • AI. Inserisci un esempio di risposta nel campo Message. Il modello AI cercherà di replicare lo stile e la struttura del testo fornito.
  • System. Scrivi un messaggio che definisca il comportamento del modello, ad esempio il tono da utilizzare o i termini da evitare.
  • User. Aggiungi un esempio di input utente, come un messaggio, un URL o un’immagine. Questo aiuta il modello a generare risposte più coerenti.

Define below

L’opzione Define below è adatta se vuoi inserire un prompt riutilizzabile già scritto. È particolarmente utile quando devi elaborare dati dinamici, che puoi richiamare tramite Expressions, una libreria JavaScript che consente di manipolare l’input o selezionare campi specifici.

Ad esempio, se il nodo precedente recupera dati sull’utilizzo delle risorse del tuo VPS e vuoi analizzarli con un modello AI, il prompt rimane invariato mentre i dati cambiano.

Il prompt potrebbe essere strutturato così, dove {{ $json.metric }} rappresenta il campo contenente i dati dinamici:

L’ultimo utilizzo del mio server è {{ $json.metric }}. Analizza questi dati e confrontali con lo storico precedente per verificare eventuali anomalie.

Anche in questa modalità puoi aggiungere ulteriori prompt per fornire più contesto al modello.

4. Invia un prompt di prova

Inviare un prompt di test ti permette di verificare che il modello Ollama funzioni correttamente quando riceve input tramite n8n. Il modo più semplice è inviare un messaggio di esempio seguendo questi passaggi:

  1. Salva il workflow facendo click sul pulsante in alto a destra del canvas.
  2. Passa il mouse sul nodo Chat trigger e fai click su Open chat.
  3. Nell’interfaccia Chat, invia un messaggio di prova.

Attendi che il workflow completi l’elaborazione del tuo messaggio. Durante i test, il flusso si è bloccato occasionalmente. Se riscontri lo stesso problema, ricarica n8n e invia nuovamente il messaggio.

Se il test va a buon fine, tutti i nodi diventeranno verdi. Puoi visualizzare l’input e l’output JSON di ciascun nodo facendo doppio click su di esso e controllando i pannelli laterali nella finestra di configurazione.

Come creare un flusso di lavoro per chatbot con Ollama e n8n

Integrare Ollama in n8n ti consente di automatizzare diverse attività con gli LLM, tra cui la creazione di un flusso di lavoro in n8n basato sull’AI che risponde alle richieste degli utenti, come un chatbot. In questa sezione vedremo i passaggi necessari per svilupparne uno.

Se vuoi creare un sistema di automazione per altre attività, dai un’occhiata ai nostri esempi di workflow n8n per trovare ispirazione.

1. Aggiungi un nodo trigger

In n8n, il nodo trigger definisce l’evento che avvia il flusso di lavoro. Tra le varie opzioni disponibili, ecco le più comuni per creare un chatbot:

Trigger della chat

Per impostazione predefinita, il nodo Ollama Chat Model utilizza Chat message come trigger, che avvia il flusso di lavoro alla ricezione di un messaggio.

Il nodo Chat predefinito è ideale per sviluppare un chatbot. Per farlo funzionare, è sufficiente rendere pubblicamente disponibile l’interfaccia della chat.

Per farlo, apri il nodo Chat e fai click sull’interruttore Make Chat Publicly Available. Potrai quindi integrare questa funzionalità di chat nel tuo chatbot personalizzato con un’interfaccia utente dedicata.

Nodi trigger per app di messaggistica

n8n offre nodi trigger che ricevono input da applicazioni di messaggistica popolari come Telegram e WhatsApp. Sono adatti se vuoi creare un bot per questo tipo di piattaforme.

La configurazione di questi nodi è più complessa, perché richiede un account sviluppatore e chiavi di autenticazione per connettersi alle rispettive API. Consulta la documentazione ufficiale delle piattaforme per maggiori dettagli sulla configurazione.

Trigger Webhook

Il nodo Webhook avvia il flusso di lavoro quando l’URL del suo endpoint riceve una richiesta HTTP. È una soluzione adatta se vuoi attivare il chatbot tramite eventi diversi dall’invio diretto di un messaggio, ad esempio un click.

Nei passaggi seguenti useremo questo nodo per avviare il flusso di lavoro ogni volta che un chatbot Discord riceve un messaggio. Se vuoi seguire la procedura passo dopo passo, consulta prima la nostra guida su come integrare n8n con Discord per creare un bot Discord.

Importante! Se l’URL del webhook inizia con localhost, sostituiscilo con il dominio, l’hostname o l’indirizzo IP del tuo VPS. Puoi farlo modificando la variabile d’ambiente WEBHOOK_URL di n8n nel relativo file di configurazione.

2. Connetti il nodo Ollama

Collegare il nodo Ollama consente al nodo trigger di inoltrare l’input dell’utente per l’elaborazione tramite il modello AI.

Il nodo Ollama Chat Model non si collega direttamente ai nodi trigger, ma si integra con un nodo AI. Quello predefinito è Basic LLM Chain, ma puoi utilizzare anche altri nodi Chain per scenari più complessi.

Alcuni nodi Chain supportano strumenti aggiuntivi per elaborare i dati. Ad esempio, il nodo AI Agent permette di aggiungere un parser per riformattare l’output o una memoria per memorizzare le risposte precedenti.

Per un chatbot che non richiede un’elaborazione avanzata dei dati, come il nostro esempio con Discord, il nodo Basic LLM Chain è sufficiente.

Collega quindi il nodo trigger al nodo Basic LLM Chain e definisci come passare l’input: usa Fixed per passare direttamente il messaggio come prompt, oppure seleziona Expression per utilizzare dati dinamici o manipolare l’input prima di inoltrarlo a Ollama.

Ad esempio, possiamo usare la seguente Expression per selezionare il campo JSON body.content come input, che varia in base ai messaggi inviati dagli utenti su Discord:

{{ $json.body.content }}

3. Invia la risposta

Per consentire agli utenti di visualizzare la risposta generata dal nodo AI Agent o Basic LLM Chain, è necessario inoltrare l’output tramite un nodo appropriato. In questa fase, puoi visualizzare l’output solo nell’interfaccia chat o nel pannello di output del nodo.

Per inviare effettivamente la risposta, utilizza un nodo coerente con il trigger scelto. Ad esempio, se stai sviluppando un chatbot per WhatsApp, collega il nodo WhatsApp Send Message.

Se utilizzi il Chat trigger predefinito, puoi usare un nodo Webhook per inoltrare il messaggio al tuo bot personalizzato o alla tua interfaccia chatbot sviluppata su misura.

Nel nostro esempio, il flusso di lavoro del bot Discord utilizza il trigger Webhook, quindi possiamo usare un nodo compatibile anche per l’output. In alternativa, possiamo collegare il nodo Discord Send a Message per inviare direttamente la risposta tramite lo stesso bot. Il workflow completato avrà questa struttura:

Non sai come creare un workflow completo?

n8n mette a disposizione diversi workflow pronti all’uso che puoi importare facilmente nel canvas. Questo ti permette di creare un sistema di automazione basato sull’AI senza dover sviluppare il flusso di lavoro da zero. Consulta il nostro tutorial sui migliori template n8n per scoprire flussi di lavoro selezionati e pronti all’uso per diversi casi d’uso.

Quali sono i migliori casi d’uso per l’integrazione di n8n con Ollama?

Essendo uno degli strumenti di automazione AI più potenti, l’integrazione di n8n con gli LLM personalizzabili di Ollama ti consente di automatizzare un’ampia gamma di attività.

Ecco alcuni esempi di attività che puoi automatizzare con n8n e l’AI:

  1. Flusso di lavoro automatizzato per l’assistenza clienti. Utilizza gli LLM di Ollama per generare risposte alle richieste dei clienti, riassumere ticket o smistare le segnalazioni su piattaforme come Zendesk e Intercom, il tutto orchestrato tramite n8n.
  2. Redazione di email basata sul contesto. Crea automaticamente email per diversi contesti o attività utilizzando Ollama. Ad esempio, puoi scrivere un messaggio per l’onboarding di un nuovo lead, ricordare ai clienti la scadenza dell’abbonamento o annunciare aggiornamenti di prodotto in base a eventi specifici.
  3. Assistente per la knowledge base interna. Usa n8n per interrogare la documentazione interna, come Notion, Confluence o Airtable, e invia i dati a Ollama per generare risposte pertinenti o riepiloghi destinati alle richieste del team.
  4. Estrazione e sintesi dei dati. Utilizza n8n per monitorare documenti di testo in arrivo, estrarne il contenuto e individuare le informazioni chiave con Ollama: una soluzione utile per riassumere report, fatture o documenti legali.
  5. Pipeline di produzione di contenuti automatizzata. Genera contenuti con n8n e Ollama creando un workflow che automatizza il processo di ricerca delle parole chiave, scrittura ed editing.
  6. Chatbot sicuri per uso interno. Crea chatbot aziendali che operano su dati sensibili, dove n8n gestisce l’orchestrazione del flusso di lavoro e Ollama esegue l’LLM completamente in locale per garantire sicurezza e privacy.

Perché dovresti ospitare i tuoi workflow n8n-Ollama con Hostinger?

Ospitare i tuoi workflow n8n-Ollama su Hostinger offre diversi vantaggi rispetto all’utilizzo di una macchina personale o del piano di hosting ufficiale. Ecco alcuni dei principali benefici:

  • Maggiore controllo. Il servizio VPS per n8n di Hostinger fornisce accesso root completo alle impostazioni e ai dati del server. Questo ti consente di configurare l’ambiente di hosting di n8n e Ollama in base alle tue esigenze specifiche.
  • Privacy migliorata. Poiché ospiti n8n e Ollama su un server sotto il tuo pieno controllo, puoi gestire in modo più preciso i limiti di accesso e le impostazioni di sicurezza.
  • Scalabilità. I piani VPS di Hostinger sono facilmente aggiornabili senza downtime e includono il template n8n in modalità queue, che ti permette di distribuire i task su più worker.
  • Configurazione semplificata. I template VPS consentono di installare n8n o Ollama con un solo click, rendendo l’intero processo più rapido ed efficiente.
  • Gestione intuitiva. Puoi amministrare il tuo VPS Hostinger tramite l’intuitivo pannello di controllo hPanel o il terminale integrato nel browser. Inoltre, i principianti possono chiedere supporto al nostro assistente AI Kodee per eseguire attività di amministrazione di sistema tramite chat.

Utilizzare il nodo LM Ollama di LangChain in n8n

LangChain è un framework che facilita l’integrazione degli LLM nelle applicazioni. In n8n, questa implementazione prevede il collegamento di diversi nodi e modelli AI per ottenere funzionalità di elaborazione avanzate.

In n8n, la funzionalità LangChain utilizza i Cluster nodes, ovvero gruppi di nodi interconnessi che lavorano insieme per fornire funzionalità specifiche nel workflow.

I Cluster Node sono composti da due parti: i Root Node, che definiscono la funzionalità principale, e i Sub-node, che aggiungono capacità LLM o funzionalità aggiuntive.

La parte centrale dell’implementazione di LangChain in n8n è la Chain all’interno dei root nodes. Essa combina e configura la logica dei diversi componenti AI, come il modello Ollama e il nodo parser, per creare un sistema coerente.

Ecco le principali Chains disponibili in n8n e le relative funzioni:

  • Basic LLM Chain. Consente di impostare il prompt utilizzato dal modello AI e, facoltativamente, di aggiungere un parser per riformattare la risposta.
  • Retrieval Q&A Chain. Permette di recuperare dati elaborati dall’AI utilizzando vector store, database progettati per archiviare informazioni in formato numerico.
  • Summarization Chain. Riassume il contenuto di più documenti o input.
  • Sentiment Analysis. Analizza il sentiment del testo in input e lo classifica in categorie come positivo, neutro o negativo.
  • Text Classifier. Classifica i dati di input in categorie definite dall’utente in base a criteri e parametri specifici.

Durante la creazione di un workflow in n8n, potresti incontrare anche gli Agents, sottoinsiemi delle Chains con capacità decisionali. Mentre le Chains operano seguendo regole predefinite, un Agent utilizza l’LLM collegato per determinare dinamicamente le azioni successive.

Qual è il prossimo passo dopo aver collegato n8n con Ollama?

Con l’evoluzione costante delle tecnologie di automazione, implementare un sistema di elaborazione automatica dei dati ti aiuta a restare competitivo. In combinazione con l’AI, puoi sviluppare soluzioni che portano la gestione e lo sviluppo dei tuoi progetti a un livello superiore.

Integrare Ollama nel tuo workflow n8n significa abilitare un sistema di automazione AI che va oltre le funzionalità dei nodi standard. Inoltre, la compatibilità di Ollama con diversi LLM ti consente di scegliere e personalizzare i modelli più adatti alle tue esigenze.

Comprendere come collegare Ollama a n8n è solo il primo passo verso l’implementazione di un sistema di automazione AI nel tuo progetto. Vista l’ampia varietà di casi d’uso possibili, il passo successivo è sperimentare e sviluppare un workflow su misura per i tuoi obiettivi.

Se è la prima volta che utilizzi n8n o Ollama, Hostinger rappresenta un ottimo punto di partenza. Oltre a piani VPS completi e scalabili, offriamo un catalogo dettagliato di tutorial su n8n per accompagnarti nel tuo percorso di automazione.

Tutti i contenuti dei tutorial presenti su questo sito web sono soggetti ai rigorosi standard editoriali e ai valori di Hostinger.

Author
L'autore

Faradilla Ayunindya

Faradilla, conosciuta anche come Ninda, è Content Marketing Specialist in Hostinger, con oltre 5 anni di esperienza nel settore e un background di 10 anni come linguista. Si dedica a rendere la tecnologia più accessibile, adattando guide complesse in tutorial chiari e facili da seguire. Nel tempo libero, quando non è impegnata a seguire le ultime tendenze del mondo tech e del digital marketing, ama approfondire temi legati alle scienze della vita o guardare video divertenti di animali. Puoi connetterti con lei su LinkedIn.

Cosa dicono i nostri clienti

Lascia un commento

Please fill the required fields.Please accept the privacy checkbox.Please fill the required fields and accept the privacy checkbox.

Thank you! Your comment has been successfully submitted. It will be approved within the next 24 hours.