Sep 10, 2025
Chaimaa C.
12minutes de lecture
L’intégration de n8n à Ollama vous permet d’exploiter divers modèles d’IA dans votre flux de travail automatisé, ce qui lui permet d’effectuer des opérations complexes qui seraient autrement impossibles.
Cependant, le processus peut s’avérer délicat, car vous devez configurer divers paramètres sur les deux outils afin qu’ils fonctionnent de manière transparente.
Si n8n et Ollama sont déjà installés sur votre serveur, vous pouvez les intégrer en quatre étapes simples :
Une fois ces étapes terminées, vous disposerez d’un flux de travail de traitement IA fonctionnel, alimenté par Ollama, que vous pourrez intégrer dans un système d’automatisation plus complet. Par exemple, vous pouvez connecter des applications de messagerie telles que WhatsApp pour créer un chatbot IA fonctionnel.
De plus, le fait de l’exécuter localement sur un serveur privé tel qu’un VPS Hostinger vous offre un niveau de contrôle plus élevé sur vos données. Cette intégration est donc particulièrement adaptée à l’automatisation de tâches impliquant des informations sensibles, telles que la synthèse de documents internes ou la création d’un chatbot interne.
Voyons en détail comment connecter Ollama à n8n et créer un chatbot basé sur cette intégration. À la fin, nous expliquerons également les cas d’utilisation courants de cette intégration et étendrons ses capacités à l’aide des nœuds LangChain.
Pour intégrer n8n à Ollama, vous devez remplir les conditions préalables suivantes :
Important ! Nous vous recommandons vivement d’installer n8n et Ollama dans le même conteneur Docker pour une meilleure isolation. C’est la méthode que nous avons utilisée pour tester ce tutoriel, elle a donc fait ses preuves.
Si vous utilisez un VPS Hostinger, vous pouvez commencer par installer n8n ou Ollama dans un conteneur Docker en sélectionnant simplement le template d’OS correspondant. L’application sera installée dans un conteneur par défaut. Vous devrez ensuite installer l’autre application dans le même conteneur.
Pour connecter Ollama à n8n, il faut ajouter le nœud nécessaire et configurer plusieurs paramètres. Dans cette section, nous allons expliquer les étapes en détail, y compris comment tester le fonctionnement de l’intégration.
L’ajout du nœud Ollama Chat Model permet à n8n de se connecter à de grands modèles linguistiques (LLM) sur la plateforme IA via un agent conversationnel.
n8n propose deux nœuds Ollama : Ollama Model et Ollama Chat Model. Le nœud Ollama Chat Model est spécialement conçu pour la conversation et dispose d’un nœud Basic LLM Chain intégré qui transmet votre message au modèle choisi. Le nœud Ollama Model, quant à lui, convient à des tâches plus générales avec d’autres nœuds Chain. Nous aborderons ce sujet plus en détail dans la section LangChain.
Dans ce tutoriel, nous utiliserons le nœud Ollama Chat Model, car il est plus facile à utiliser et s’intègre à un flux de travail plus complet. Voici comment l’ajouter à n8n :


La fenêtre de configuration du nœud apparaîtra. Passons à l’étape suivante pour le configurer.
Avant de choisir un modèle d’IA et de configurer ses paramètres d’exécution, connectez n8n à votre instance Ollama auto-hébergée. Voici comment procéder :

Si la connexion est établie, un message de confirmation s’affiche. Sinon, vérifiez que l’adresse est correcte et que votre instance Ollama est en cours d’exécution.

Une fois connecté, vous pouvez choisir le LLM à utiliser dans votre nœud de modèle Ollama. Pour ce faire, il suffit de développer le menu déroulant Model et d’en sélectionner un dans la liste. S’il est grisé, actualisez n8n pour résoudre le problème.
Notez que n8n ne prend actuellement en charge que les anciens modèles tels que Llama 3 et DeepSeek R1. Si le menu Model affiche une erreur et une liste vide, cela est probablement dû au fait que votre Ollama ne dispose que de modèles incompatibles.
Pour résoudre ce problème, il suffit de télécharger d’autres modèles Ollama. Sur Ollama CLI, pour ce faire, exécutez la commande suivante dans votre environnement Ollama :
ollama run nom-du-modèle
Vous pouvez également utiliser un modèle avec des paramètres d’exécution personnalisés, tels qu’une température plus élevée. Voici comment en créer un dans Ollama CLI :
docker exec -it ollama bash
echo "FROM llama3" > Modelfile
echo "PARAMETER temperature 0.7" >> Modelfile
ollama create llama3-temp07 -f Modelfile
Une fois ces étapes terminées, n8n devrait lire votre nouveau modèle Llama 3 avec la température personnalisée de 0,7.

Si vous utilisez Ollama GUI, consultez notre tutoriel pour en savoir plus sur son interface et sur la façon de gérer vos modèles.
La configuration des paramètres d’invite vous permet de personnaliser la manière dont le nœud Basic LLM Chain modifie votre entrée avant de la transmettre à Ollama pour traitement. Bien que vous puissiez utiliser les paramètres par défaut, vous devriez les modifier en fonction de vos tâches.

Voici deux façons de modifier les paramètres d’invite du nœud LLM chain et des exemples d’utilisation.
Nœud déclencheur Connected Chat
L’option Connected Chat trigger node utilise les messages du nœud Chat par défaut comme entrée pour Ollama. Il s’agit du mode sélectionné par défaut, qui transmet les messages tels quels.
Cependant, vous pouvez inclure des invites supplémentaires avec les messages afin de modifier la sortie d’Ollama. Pour ce faire, cliquez sur le bouton Add Prompt dans le paramètre Chat Messages (si vous utilisez un modèle de chat) et choisissez parmi trois options de prompt supplémentaires :
Option Define below
L’option Define below est appropriée si vous souhaitez saisir une invite pré-saisie réutilisable. Elle est également idéale pour transférer des données dynamiques, car vous pouvez les capturer à l’aide d’Expressions, une bibliothèque JavaScript qui manipule les entrées ou sélectionne un champ spécifique.
Par exemple, le nœud précédent récupère des données sur l’utilisation de vos ressources VPS et vous souhaitez les analyser à l’aide de l’IA. Dans ce cas, l’invite reste la même, mais les mesures d’utilisation changent continuellement.
Votre invite pourrait ressembler à ce qui suit, {{ $json.metric }} étant le champ contenant les données dynamiques sur l’utilisation des ressources de votre serveur :
The latest usage of my server is {{ $json.metric }}. Analyze this data and compare it with the previous usage history to check if this is abnormal.Notez que vous pouvez toujours ajouter des invites supplémentaires comme dans le mode précédent pour donner plus de contexte à l’IA.
L’envoi d’une invite de test permet de vérifier que votre modèle Ollama fonctionne correctement lorsqu’il reçoit des entrées via n8n. La façon la plus simple de le faire est de saisir un exemple de message en suivant ces étapes :

Attendez que le flux de travail ait fini de traiter votre message. Lors de nos tests, le flux de travail s’est bloqué à plusieurs reprises. Si vous rencontrez le même problème, rechargez simplement n8n et envoyez un nouveau message.
Si le test est réussi, tous les nœuds deviendront verts. Vous pouvez lire les entrées et sorties JSON de chaque nœud en double-cliquant dessus et en vérifiant les volets des deux côtés de la fenêtre de configuration.
L’intégration d’Ollama dans n8n vous permet d’automatiser diverses tâches avec les LLM, notamment la création d’un workflow alimenté par l’IA qui répond aux requêtes des utilisateurs, comme un chatbot. Cette section explore les étapes nécessaires à son développement.
Si vous souhaitez créer un système d’automatisation pour d’autres tâches, consultez nos exemples de workflows n8n pour trouver l’inspiration.
Le nœud de déclenchement dans n8n définit l’événement qui lancera votre workflow. Parmi plusieurs options, voici les plus courantes pour créer un chatbot :
Déclencheur de chat
Par défaut, le nœud du modèle de chat Ollama utilise Chat message comme déclencheur, qui lance votre flux de travail dès réception d’un message.
Ce nœud Chat par défaut est parfait pour développer un chatbot. Pour le faire fonctionner, il vous suffit de rendre l’interface de chat accessible au public.

Pour ce faire, ouvrez le nœud Chat et cliquez sur le bouton Make Chat Publicly Available. Vous pouvez ensuite intégrer cette fonctionnalité de chat dans votre chatbot personnalisé avec une interface utilisateur.
Nœuds de déclenchement d’applications de messagerie
n8n dispose de nœuds de déclenchement qui acceptent les entrées provenant d’applications de messagerie populaires telles que Telegram et WhatsApp. Ils sont adaptés si vous souhaitez créer un bot pour ces applications.
La configuration de ces nœuds est assez délicate, car vous avez besoin d’un compte développeur et de clés d’authentification pour vous connecter à leurs API. Consultez leur documentation pour en savoir plus sur leur configuration.
Déclencheur Webhook
Le déclencheur Webhook lance votre flux de travail lorsque son URL de point de terminaison reçoit une requête HTTP. Il est adapté si vous souhaitez lancer votre chatbot à l’aide d’événements autres que l’envoi d’un message, comme un clic.
Dans les étapes ci-dessous, nous utiliserons ce nœud pour démarrer notre workflow chaque fois qu’un chatbot Discord reçoit un message.
Important ! Si votre URL webhook commence par localhost, remplacez-la par le nom de domaine, le nom d’hôte ou l’adresse IP de votre VPS. Pour ce faire, modifiez la variable d’environnement WEBHOOK_URL de n8n dans son fichier de configuration.
La connexion du nœud Ollama permet au nœud de déclenchement de transférer les entrées utilisateur pour traitement.
Le nœud Ollama Chat Model ne se connecte pas directement aux nœuds de déclenchement et s’intègre uniquement à un nœud IA. Le nœud par défaut est le nœud Basic LLM Chain, mais vous pouvez également utiliser d’autres nœuds Chain pour un traitement plus complexe.
Certains nœuds Chain prennent en charge des outils supplémentaires pour le traitement de vos données. Par exemple, le nœud AI Agent vous permet d’ajouter un analyseur syntaxique pour reformater la sortie ou d’inclure une mémoire pour stocker les réponses précédentes.
Pour un chatbot qui ne nécessite pas de traitement de données complexe, comme notre chatbot Discord, la chaîne LLM de base suffit.

Connectez donc le nœud de déclenchement au nœud Basic LLM Chain et définissez comment transmettre l’entrée. Utilisez Fixed pour transmettre le message en tant qu’invite. Parallèlement, sélectionnez Expression pour utiliser des données dynamiques ou manipuler l’entrée avant de la transmettre à Ollama.
Par exemple, nous utilisons l’Expression suivante pour choisir le champ JSON body.content comme entrée, qui change en fonction des messages Discord des utilisateurs :
{{ $json.body.content }}La sortie de la réponse à partir du nœud AI Agent ou Basic LLM Chain permet aux utilisateurs de voir la réponse de votre bot. À ce stade, vous ne pouvez lire la sortie qu’à partir de l’interface de chat ou du volet de sortie du nœud.
Pour envoyer la réponse, utilisez le même nœud que votre déclencheur. Par exemple, si vous développez un chatbot WhatsApp, connectez le nœud WhatsApp send message.
Si vous utilisez le déclencheur Chat par défaut, vous pouvez utiliser le nœud Webhook pour transférer le message vers votre bot personnalisé ou votre interface de chatbot.
Étant donné que le flux de travail de notre bot Discord utilise le déclencheur Webhook, nous pouvons également utiliser le nœud Webhook pour la sortie. Nous pouvons également utiliser le même bot pour envoyer la réponse en connectant le nœud Discord Send a Message et en l’intégrant à notre chatbot. Le flux de travail complet ressemblera à ceci :

n8n fournit divers workflows prêts à l’emploi que vous pouvez facilement importer dans votre canevas. Cela vous permet de créer un système d’automatisation alimenté par l’IA sans avoir à développer le workflow à partir de zéro.
Consultez notre tutoriel sur les meilleurs templates n8n pour découvrir des workflows sélectionnés et prêts à l’emploi pour divers usages.
Étant l’un des outils d’automatisation IA les plus puissants, l’intégration de n8n avec les LLM personnalisables d’Ollama vous permet d’automatiser un large éventail de tâches.
Voici quelques exemples de tâches que vous pouvez automatiser avec n8n et l’intelligence artificielle :
L’hébergement de vos flux de travail n8n-Ollama avec Hostinger présente divers avantages par rapport à l’utilisation d’une machine personnelle ou du plan d’hébergement officiel. Voici quelques-uns de ces avantages :

LangChain est un framework qui facilite l’intégration des LLM dans les applications. Dans n8n, cette implémentation implique la connexion de différents nœuds d’outils et modèles d’IA afin d’obtenir des capacités de traitement particulières.
Dans n8n, la fonctionnalité LangChain utilise des nœuds Cluster, un groupe de nœuds interconnectés qui fonctionnent ensemble pour fournir des fonctionnalités dans votre flux de travail.

Les nœuds de cluster se composent de deux parties : les nœuds racines qui définissent la fonctionnalité principale et les sous-nœuds qui ajoutent la capacité LLM ou des fonctionnalités supplémentaires.
La partie la plus importante de l’implémentation de LangChain dans n8n est la chaîne à l’intérieur des nœuds racines. Elle rassemble et configure la logique de différents composants IA, tels que le modèle Ollama et le nœud analyseur, afin de créer un système cohérent.
Voici les chaînes dans n8n et leurs fonctions :
Lorsque vous créez un flux de travail dans n8n, vous pouvez également rencontrer des agents, qui sont des sous-ensembles de chaînes capables de prendre des décisions. Alors que les chaînes fonctionnent selon un ensemble de règles prédéterminées, un Agent utilise le LLM connecté pour déterminer les actions suivantes à entreprendre.
Alors que les tendances de l’automatisation continuent d’évoluer, la mise en œuvre d’un système de traitement automatique des données vous aidera à garder une longueur d’avance sur la concurrence. Associé à l’IA, vous pouvez créer un système qui fera passer le développement et la gestion de vos projets à un niveau supérieur.
L’intégration d’Ollama dans votre flux de travail n8n vous offre une automatisation basée sur l’IA qui va au-delà des capacités du nœud intégré. De plus, la compatibilité d’Ollama avec divers LLM vous permet de choisir et d’adapter différents modèles d’IA afin de répondre au mieux à vos besoins.
Comprendre comment connecter Ollama à n8n n’est que la première étape de la mise en œuvre de l’automatisation alimentée par l’IA dans votre projet. Étant donné le nombre impressionnant de cas d’utilisation possibles, l’étape suivante consiste à expérimenter et à développer un flux de travail qui correspond le mieux à votre projet.
Si vous utilisez n8n ou Ollama pour la première fois, Hostinger est le point de départ idéal. Outre nos plans VPS riches en fonctionnalités, nous proposons un catalogue complet de tutoriels sur n8n qui vous aideront à vous lancer dans l’automatisation.
Tout le contenu des tutoriels de ce site est soumis aux normes éditoriales et aux valeurs rigoureuses de Hostinger.