{"id":42133,"date":"2025-09-10T19:42:11","date_gmt":"2025-09-10T19:42:11","guid":{"rendered":"\/fr\/tutoriels\/?p=42133"},"modified":"2025-09-10T19:43:08","modified_gmt":"2025-09-10T19:43:08","slug":"n8n-ollama","status":"publish","type":"post","link":"\/fr\/tutoriels\/n8n-ollama","title":{"rendered":"Comment int\u00e9grer n8n \u00e0 Ollama pour les flux de travail LLM locaux ?"},"content":{"rendered":"<p>L&rsquo;int&eacute;gration de n8n &agrave; Ollama vous permet d&rsquo;exploiter divers mod&egrave;les d&rsquo;IA dans votre flux de travail automatis&eacute;, ce qui lui permet d&rsquo;effectuer des op&eacute;rations complexes qui seraient autrement impossibles.<\/p><p>Cependant, le processus peut s&rsquo;av&eacute;rer d&eacute;licat, car vous devez configurer divers param&egrave;tres sur les deux outils afin qu&rsquo;ils fonctionnent de mani&egrave;re transparente.&nbsp;<\/p><p>Si n8n et Ollama sont d&eacute;j&agrave; install&eacute;s sur votre serveur, vous pouvez les int&eacute;grer en quatre &eacute;tapes simples :<\/p><ol class=\"wp-block-list\">\n<li>Ajoutez le n&oelig;ud du mod&egrave;le de chat Ollama&nbsp;<\/li>\n\n\n\n<li>Choisissez le mod&egrave;le d&rsquo;IA et ajustez ses param&egrave;tres d&rsquo;ex&eacute;cution<\/li>\n\n\n\n<li>Configurez les param&egrave;tres d&rsquo;invite du n&oelig;ud de l&rsquo;agent IA<\/li>\n\n\n\n<li>Envoyez une invite de test pour v&eacute;rifier le bon fonctionnement<\/li>\n<\/ol><p>Une fois ces &eacute;tapes termin&eacute;es, vous disposerez d&rsquo;un flux de travail de traitement IA fonctionnel, aliment&eacute; par Ollama, que vous pourrez int&eacute;grer dans un syst&egrave;me d&rsquo;automatisation plus complet. Par exemple, vous pouvez connecter des applications de messagerie telles que WhatsApp pour cr&eacute;er un chatbot IA fonctionnel.&nbsp;<\/p><p>De plus, le fait de l&rsquo;ex&eacute;cuter localement sur un serveur priv&eacute; tel qu&rsquo;un VPS Hostinger vous offre un niveau de contr&ocirc;le plus &eacute;lev&eacute; sur vos donn&eacute;es. Cette int&eacute;gration est donc particuli&egrave;rement adapt&eacute;e &agrave; l&rsquo;automatisation de t&acirc;ches impliquant des informations sensibles, telles que la synth&egrave;se de documents internes ou la cr&eacute;ation d&rsquo;un chatbot interne.&nbsp;<\/p><p>Voyons en d&eacute;tail comment connecter Ollama &agrave; n8n et cr&eacute;er un chatbot bas&eacute; sur cette int&eacute;gration. &Agrave; la fin, nous expliquerons &eacute;galement les cas d&rsquo;utilisation courants de cette int&eacute;gration et &eacute;tendrons ses capacit&eacute;s &agrave; l&rsquo;aide des n&oelig;uds LangChain.&nbsp;<\/p><h2 class=\"wp-block-heading\" id=\"h-prerequis\"><strong>Pr&eacute;requis<\/strong><\/h2><p>Pour int&eacute;grer n8n &agrave; Ollama, vous devez remplir les conditions pr&eacute;alables suivantes :<\/p><ul class=\"wp-block-list\">\n<li><strong>Ollama doit &ecirc;tre install&eacute; localement<\/strong>. Assurez-vous d&rsquo;avoir <a href=\"https:\/\/www.hostinger.com\/fr\/tutoriels\/comment-installer-ollama\">install&eacute; Ollama<\/a> localement sur un serveur priv&eacute; virtuel (VPS). L&rsquo;h&ocirc;te doit disposer d&rsquo;un mat&eacute;riel suffisant pour ex&eacute;cuter les mod&egrave;les d&rsquo;IA souhait&eacute;s, ce qui peut n&eacute;cessiter plus de<strong> 8 Go <\/strong>de RAM.&nbsp;<\/li>\n\n\n\n<li><strong>n8n doit &ecirc;tre configur&eacute; et accessible<\/strong>. <a href=\"https:\/\/www.hostinger.com\/fr\/tutoriels\/installer-n8n\">Installez n8n<\/a> sur un VPS et cr&eacute;ez un compte. Il doit &ecirc;tre configur&eacute; sur le m&ecirc;me serveur qu&rsquo;Ollama en raison de contraintes de compatibilit&eacute;.&nbsp;<\/li>\n\n\n\n<li><strong>Assurez-vous que les ports n&eacute;cessaires sont ouverts<\/strong>. V&eacute;rifiez que les ports<strong> 11434 <\/strong>et<strong> 5678 <\/strong>de votre serveur sont ouverts afin de garantir l&rsquo;accessibilit&eacute; d&rsquo;Ollama et de n8n. Si vous les h&eacute;bergez sur Hostinger VPS, v&eacute;rifiez les ports et configurez-les en demandant simplement &agrave; notre assistant Kodee IA.&nbsp;<\/li>\n\n\n\n<li><strong>Connaissances de base en JSON<\/strong>. Apprenez &agrave; lire le JSON, car les n&oelig;uds n8n &eacute;changent principalement des donn&eacute;es dans ce format. Le comprendre vous aidera &agrave; s&eacute;lectionner les donn&eacute;es et &agrave; r&eacute;soudre les erreurs plus efficacement.<\/li>\n<\/ul><p>\n\n\n<div><p class=\"important\"><strong>Important !<\/strong> Nous vous recommandons vivement d&rsquo;installer n8n et Ollama dans le m&ecirc;me conteneur Docker pour une meilleure isolation. C&rsquo;est la m&eacute;thode que nous avons utilis&eacute;e pour tester ce tutoriel, elle a donc fait ses preuves.<\/p><p>Si vous utilisez un VPS Hostinger, vous pouvez commencer par installer n8n ou Ollama dans un conteneur Docker en s&eacute;lectionnant simplement le template d&rsquo;OS correspondant. L&rsquo;application sera install&eacute;e dans un conteneur par d&eacute;faut. Vous devrez ensuite installer l&rsquo;autre application dans le m&ecirc;me conteneur.<\/p><\/div>\n\n\n\n<\/p><h2 class=\"wp-block-heading\" id=\"h-comment-configurer-l-integration-d-ollama-dans-n8n\"><strong>Comment configurer l&rsquo;int&eacute;gration d&rsquo;Ollama dans n8n<\/strong><\/h2><p>Pour connecter Ollama &agrave; n8n, il faut ajouter le n&oelig;ud n&eacute;cessaire et configurer plusieurs param&egrave;tres. Dans cette section, nous allons expliquer les &eacute;tapes en d&eacute;tail, y compris comment tester le fonctionnement de l&rsquo;int&eacute;gration.&nbsp;<\/p><h3 class=\"wp-block-heading\" id=\"h-1-ajouter-le-noeud-ollama-chat-model\"><strong>1. Ajouter le n&oelig;ud Ollama Chat Model<\/strong><\/h3><p>L&rsquo;ajout du n&oelig;ud Ollama Chat Model permet &agrave; n8n de se connecter &agrave; de grands mod&egrave;les linguistiques (LLM) sur la plateforme IA via un agent conversationnel.&nbsp;<\/p><p>n8n propose deux n&oelig;uds Ollama : <strong>Ollama Model <\/strong>et <strong>Ollama Chat Model<\/strong>. Le <strong>n&oelig;ud Ollama Chat Model <\/strong>est sp&eacute;cialement con&ccedil;u pour la conversation et dispose d&rsquo;un n&oelig;ud<strong> Basic LLM Chain <\/strong>int&eacute;gr&eacute; qui transmet votre message au mod&egrave;le choisi. Le n&oelig;ud<strong> Ollama Model<\/strong>, quant &agrave; lui, convient &agrave; des t&acirc;ches plus g&eacute;n&eacute;rales avec d&rsquo;autres n&oelig;uds <strong>Chain<\/strong>. Nous aborderons ce sujet plus en d&eacute;tail dans la section LangChain.<\/p><p>Dans ce tutoriel, nous utiliserons le n&oelig;ud Ollama Chat Model, car il est plus facile &agrave; utiliser et s&rsquo;int&egrave;gre &agrave; un flux de travail plus complet. Voici comment l&rsquo;ajouter &agrave; n8n :<\/p><ol class=\"wp-block-list\">\n<li>Acc&eacute;dez &agrave; votre instance n8n. Vous devriez pouvoir l&rsquo;ouvrir dans un navigateur web en utilisant le <strong>nom d&rsquo;h&ocirc;te <\/strong>ou l&rsquo;<strong>adresse IP de <\/strong>votre <strong>VPS<\/strong>, selon votre configuration.&nbsp;<\/li>\n\n\n\n<li>Connectez-vous &agrave; votre compte n8n.&nbsp;<\/li>\n\n\n\n<li>Cr&eacute;ez un nouveau flux de travail en cliquant sur le bouton en haut &agrave; droite de la page principale de n8n.&nbsp;<\/li>\n<\/ol><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69f08d7d64966\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-large wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"521\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/n8n-page-principale-creation-workflow-bouton.png\/public\" alt=\"Page principale de n8n avec le bouton de cr&eacute;ation de flux de travail mis en &eacute;vidence\" class=\"wp-image-42174\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/n8n-page-principale-creation-workflow-bouton.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/n8n-page-principale-creation-workflow-bouton.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/n8n-page-principale-creation-workflow-bouton.png\/w=150,fit=scale-down 150w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/n8n-page-principale-creation-workflow-bouton.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Agrandir\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><ol start=\"4\" class=\"wp-block-list\">\n<li>Cliquez sur l&rsquo;ic&ocirc;ne <strong>&laquo; + &raquo; <\/strong>et recherchez &laquo; <strong>Ollama Chat Model <\/strong>&raquo;.<\/li>\n\n\n\n<li>Ajoutez le n&oelig;ud en cliquant dessus.&nbsp;<\/li>\n<\/ol><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69f08d7d66616\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"936\" height=\"664\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/ollama-model-nodes-n8.png\/public\" alt=\"N&oelig;uds du mod&egrave;le Ollama dans n8n\" class=\"wp-image-42177\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/ollama-model-nodes-n8.png\/w=936,fit=scale-down 936w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/ollama-model-nodes-n8.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/ollama-model-nodes-n8.png\/w=150,fit=scale-down 150w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/ollama-model-nodes-n8.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 936px) 100vw, 936px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Agrandir\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>La fen&ecirc;tre de configuration du n&oelig;ud appara&icirc;tra. Passons &agrave; l&rsquo;&eacute;tape suivante pour le configurer.&nbsp;<\/p><h3 class=\"wp-block-heading\" id=\"h-2-choisir-votre-modele-et-vos-parametres-d-execution\"><strong>2. Choisir votre mod&egrave;le et vos param&egrave;tres d&rsquo;ex&eacute;cution<\/strong><\/h3><p>Avant de choisir un mod&egrave;le d&rsquo;IA et de configurer ses param&egrave;tres d&rsquo;ex&eacute;cution, connectez n8n &agrave; votre instance Ollama auto-h&eacute;berg&eacute;e. Voici comment proc&eacute;der :<\/p><ol class=\"wp-block-list\">\n<li>Dans la fen&ecirc;tre de configuration du n&oelig;ud, d&eacute;veloppez le menu d&eacute;roulant <strong>Credential to connect with<\/strong>.<\/li>\n\n\n\n<li>S&eacute;lectionnez <strong><strong>Create new credential<\/strong>.&nbsp;<\/strong><\/li>\n<\/ol><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69f08d7d674ad\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"958\" height=\"600\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/bouton-creer-nouvel-identifiant-noeud-ollama-chat.png\/public\" alt=\"bouton de cr&eacute;ation de nouveaux identifiants dans le n&oelig;ud Ollama Chat\" class=\"wp-image-42178\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/bouton-creer-nouvel-identifiant-noeud-ollama-chat.png\/w=958,fit=scale-down 958w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/bouton-creer-nouvel-identifiant-noeud-ollama-chat.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/bouton-creer-nouvel-identifiant-noeud-ollama-chat.png\/w=150,fit=scale-down 150w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/bouton-creer-nouvel-identifiant-noeud-ollama-chat.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 958px) 100vw, 958px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Agrandir\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><ol start=\"3\" class=\"wp-block-list\">\n<li>Saisissez l&rsquo;URL de base de votre instance Ollama. Selon votre environnement d&rsquo;h&eacute;bergement, il peut s&rsquo;agir de <strong>localhost <\/strong>ou du <strong>nom de votre conteneur Docker Ollama<\/strong>.&nbsp;<\/li>\n\n\n\n<li>Cliquez sur <strong>Enregistrer<\/strong>.<\/li>\n<\/ol><p>Si la connexion est &eacute;tablie, un message de confirmation s&rsquo;affiche. Sinon, v&eacute;rifiez que l&rsquo;adresse est correcte et que votre instance Ollama est en cours d&rsquo;ex&eacute;cution.&nbsp;<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69f08d7d68338\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"585\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/message-confirmation-confirmation-connexion-n8n-avec-ollama.png\/public\" alt=\"Un message confirmant la connexion n8n avec Ollama\" class=\"wp-image-42179\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/message-confirmation-confirmation-connexion-n8n-avec-ollama.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/message-confirmation-confirmation-connexion-n8n-avec-ollama.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/message-confirmation-confirmation-connexion-n8n-avec-ollama.png\/w=150,fit=scale-down 150w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/message-confirmation-confirmation-connexion-n8n-avec-ollama.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Agrandir\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Une fois connect&eacute;, vous pouvez choisir le LLM &agrave; utiliser dans votre n&oelig;ud de mod&egrave;le Ollama. Pour ce faire, il suffit de d&eacute;velopper le menu d&eacute;roulant <strong><strong>Model<\/strong> <\/strong>et d&rsquo;en s&eacute;lectionner un dans la liste. S&rsquo;il est gris&eacute;, actualisez n8n pour r&eacute;soudre le probl&egrave;me.<\/p><p>Notez que n8n ne prend actuellement en charge que les anciens mod&egrave;les tels que Llama 3 et DeepSeek R1. Si le menu<strong> <strong>Model<\/strong> <\/strong>affiche une erreur et une liste vide, cela est probablement d&ucirc; au fait que votre Ollama ne dispose que de mod&egrave;les incompatibles.&nbsp;<\/p><p>Pour r&eacute;soudre ce probl&egrave;me, il suffit de <a href=\"https:\/\/ollama.com\/library\" target=\"_blank\" rel=\"noopener\">t&eacute;l&eacute;charger d&rsquo;autres mod&egrave;les Ollama<\/a>. Sur Ollama CLI, pour ce faire, ex&eacute;cutez la commande suivante dans votre environnement Ollama :<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run nom-du-mod&egrave;le<\/pre><p>Vous pouvez &eacute;galement utiliser un mod&egrave;le avec des param&egrave;tres d&rsquo;ex&eacute;cution personnalis&eacute;s, tels qu&rsquo;une temp&eacute;rature plus &eacute;lev&eacute;e. Voici comment en cr&eacute;er un dans <a href=\"https:\/\/www.hostinger.com\/fr\/tutoriels\/tutoriel-ollama-cli\">Ollama CLI<\/a> :<\/p><ol class=\"wp-block-list\">\n<li>Acc&eacute;dez &agrave; votre installation Ollama. Si vous utilisez Docker, utilisez la commande suivante en rempla&ccedil;ant <strong>ollama <\/strong>par le nom r&eacute;el de votre conteneur :<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">docker exec -it ollama bash<\/pre><ol start=\"2\" class=\"wp-block-list\">\n<li>Cr&eacute;ez un nouveau <a href=\"https:\/\/ollama.readthedocs.io\/en\/modelfile\/#format\" target=\"_blank\" rel=\"noopener\"><\/a><a href=\"https:\/\/ollama.readthedocs.io\/en\/modelfile\/#format\" target=\"_blank\" rel=\"noreferrer noopener\">modelfile<\/a> d&eacute;finissant le param&egrave;tre d&rsquo;ex&eacute;cution de votre mod&egrave;le. Par exemple, nous allons r&eacute;gler la temp&eacute;rature de notre mod&egrave;le Llama 3 sur<strong> 0,7 <\/strong>:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">echo \"FROM llama3\" &gt; Modelfile<\/pre><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">echo \"PARAMETER temperature 0.7\" &gt;&gt; Modelfile<\/pre><ol start=\"3\" class=\"wp-block-list\">\n<li>Ex&eacute;cutez la commande suivante pour appliquer la configuration du fichier mod&egrave;le au mod&egrave;le Llama 3 de base, cr&eacute;ant ainsi un LLM personnalis&eacute; appel&eacute; <strong>llama3-temp07 <\/strong>:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama create llama3-temp07 -f Modelfile<\/pre><p>Une fois ces &eacute;tapes termin&eacute;es, n8n devrait lire votre nouveau mod&egrave;le Llama 3 avec la temp&eacute;rature personnalis&eacute;e de <strong>0,7<\/strong>.&nbsp;<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69f08d7d69749\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"842\" height=\"1024\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/modele-personnalise-ollama-sur-n8n.png\/public\" alt=\"un mod&egrave;le Ollama personnalis&eacute; sur n8n\" class=\"wp-image-42180\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/modele-personnalise-ollama-sur-n8n.png\/w=842,fit=scale-down 842w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/modele-personnalise-ollama-sur-n8n.png\/w=247,fit=scale-down 247w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/modele-personnalise-ollama-sur-n8n.png\/w=123,fit=scale-down 123w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/modele-personnalise-ollama-sur-n8n.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 842px) 100vw, 842px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Agrandir\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>\n\n<div class=\"protip\">\n                    <h4 class=\"title\">Gestion de Ollama GUI<\/h4>\n                    <p>Si vous utilisez <a href=\"https:\/\/www.hostinger.com\/fr\/tutoriels\/tutoriel-ollama-gui\">Ollama GUI<\/a>, consultez notre tutoriel pour en savoir plus sur son interface et sur la fa&ccedil;on de g&eacute;rer vos mod&egrave;les.<\/p>\n                <\/div>\n\n\n\n<\/p><h3 class=\"wp-block-heading\" id=\"h-3-configurer-les-parametres-de-prompt\"><strong>3. Configurer les param&egrave;tres de prompt<\/strong><\/h3><p>La configuration des param&egrave;tres d&rsquo;invite vous permet de personnaliser la mani&egrave;re dont le n&oelig;ud <strong>Basic LLM Chain <\/strong>modifie votre entr&eacute;e avant de la transmettre &agrave; Ollama pour traitement. Bien que vous puissiez utiliser les param&egrave;tres par d&eacute;faut, vous devriez les modifier en fonction de vos t&acirc;ches.&nbsp;<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69f08d7d6ac7e\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"788\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/options-source-prompt-chaine-llm-de-base.png\/public\" alt=\"Options de source de prompt de Basic LLM Chain\" class=\"wp-image-42182\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/options-source-prompt-chaine-llm-de-base.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/options-source-prompt-chaine-llm-de-base.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/options-source-prompt-chaine-llm-de-base.png\/w=150,fit=scale-down 150w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/options-source-prompt-chaine-llm-de-base.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Agrandir\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Voici deux fa&ccedil;ons de modifier les param&egrave;tres d&rsquo;invite du n&oelig;ud LLM chain et des exemples d&rsquo;utilisation.<\/p><p><strong>N&oelig;ud d&eacute;clencheur Connected Chat<\/strong><\/p><p>L&rsquo;option <strong>Connected Chat trigger node<\/strong> utilise les messages du n&oelig;ud <strong>Chat<\/strong> par d&eacute;faut comme entr&eacute;e pour Ollama. Il s&rsquo;agit du mode s&eacute;lectionn&eacute; par d&eacute;faut, qui transmet les messages tels quels.&nbsp;&nbsp;<\/p><p>Cependant, vous pouvez inclure des invites suppl&eacute;mentaires avec les messages afin de modifier la sortie d&rsquo;Ollama. Pour ce faire, cliquez sur le bouton <strong><strong>Add Prompt<\/strong> <\/strong>dans le param&egrave;tre <strong><strong>Chat Messages<\/strong> (si vous utilisez un mod&egrave;le de chat) <\/strong>et choisissez parmi trois options de prompt suppl&eacute;mentaires :<\/p><ul class=\"wp-block-list\">\n<li><strong>IA<\/strong>. Entrez un exemple de r&eacute;ponse attendue dans le champ <strong>Message<\/strong>. Le mod&egrave;le d&rsquo;IA tentera de r&eacute;pondre de la m&ecirc;me mani&egrave;re que le texte fourni.&nbsp;<\/li>\n\n\n\n<li><strong>Syst&egrave;me<\/strong>. R&eacute;digez un message qui guide les r&eacute;ponses du mod&egrave;le. Par exemple, vous pouvez d&eacute;finir le ton que l&rsquo;IA utilisera ou les mots qu&rsquo;elle doit &eacute;viter dans ses r&eacute;ponses.<\/li>\n\n\n\n<li><strong>Utilisateur<\/strong>. Ajoutez un exemple de saisie utilisateur pour l&rsquo;IA, tel qu&rsquo;un message, une URL ou une image. En fournissant &agrave; l&rsquo;IA un exemple de ce &agrave; quoi elle peut s&rsquo;attendre de la part des utilisateurs, vous lui permettrez de renvoyer des r&eacute;ponses plus coh&eacute;rentes.&nbsp;<\/li>\n<\/ul><p><strong>Option Define below<\/strong><\/p><p>L&rsquo;option <strong><strong>Define below<\/strong> <\/strong>est appropri&eacute;e si vous souhaitez saisir une invite pr&eacute;-saisie r&eacute;utilisable. Elle est &eacute;galement id&eacute;ale pour transf&eacute;rer des donn&eacute;es dynamiques, car vous pouvez les capturer &agrave; l&rsquo;aide d&rsquo;<a href=\"https:\/\/docs.n8n.io\/code\/expressions\/\" target=\"_blank\" rel=\"noopener\">Expressions<\/a>, une biblioth&egrave;que JavaScript qui manipule les entr&eacute;es ou s&eacute;lectionne un champ sp&eacute;cifique.&nbsp;<\/p><p>Par exemple, le n&oelig;ud pr&eacute;c&eacute;dent r&eacute;cup&egrave;re des donn&eacute;es sur l&rsquo;utilisation de vos ressources VPS et vous souhaitez les analyser &agrave; l&rsquo;aide de l&rsquo;IA. Dans ce cas, l&rsquo;invite reste la m&ecirc;me, mais les mesures d&rsquo;utilisation changent continuellement.&nbsp;<\/p><p>Votre invite pourrait ressembler &agrave; ce qui suit, <strong>{{ $json.metric }} <\/strong>&eacute;tant le champ contenant les donn&eacute;es dynamiques sur l&rsquo;utilisation des ressources de votre serveur :<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">The latest usage of my server is {{ $json.metric }}. Analyze this data and compare it with the previous usage history to check if this is abnormal.<\/pre><p>&nbsp;Notez que vous pouvez toujours ajouter des invites suppl&eacute;mentaires comme dans le mode pr&eacute;c&eacute;dent pour donner plus de contexte &agrave; l&rsquo;IA.<\/p><h3 class=\"wp-block-heading\" id=\"h-4-envoyer-une-invite-de-test\"><strong>4. Envoyer une invite de test<\/strong><\/h3><p>L&rsquo;envoi d&rsquo;une invite de test permet de v&eacute;rifier que votre mod&egrave;le Ollama fonctionne correctement lorsqu&rsquo;il re&ccedil;oit des entr&eacute;es via n8n. La fa&ccedil;on la plus simple de le faire est de saisir un exemple de message en suivant ces &eacute;tapes :<\/p><ol class=\"wp-block-list\">\n<li>Enregistrez votre flux de travail en cliquant sur le bouton en haut &agrave; droite de votre canevas.&nbsp;<\/li>\n\n\n\n<li>Passez la souris sur le n&oelig;ud de d&eacute;clenchement <strong>Chat <\/strong>et cliquez sur <strong><strong>Open chat<\/strong><\/strong>.&nbsp;<\/li>\n\n\n\n<li>Dans <strong>l&rsquo;interface Chat<\/strong>, envoyez un message test.&nbsp;<\/li>\n<\/ol><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69f08d7d6d1d3\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-large wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"601\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/interface-declencheur-chat-sur-canvas-n8n.png\/public\" alt=\"L'interface de d&eacute;clenchement Chat sur le canevas n8n\" class=\"wp-image-42183\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/interface-declencheur-chat-sur-canvas-n8n.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/interface-declencheur-chat-sur-canvas-n8n.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/interface-declencheur-chat-sur-canvas-n8n.png\/w=150,fit=scale-down 150w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/interface-declencheur-chat-sur-canvas-n8n.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Agrandir\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Attendez que le flux de travail ait fini de traiter votre message. Lors de nos tests, le flux de travail s&rsquo;est bloqu&eacute; &agrave; plusieurs reprises. Si vous rencontrez le m&ecirc;me probl&egrave;me, rechargez simplement n8n et envoyez un nouveau message.<\/p><p>Si le test est r&eacute;ussi, tous les n&oelig;uds deviendront verts. Vous pouvez lire les entr&eacute;es et sorties JSON de chaque n&oelig;ud en double-cliquant dessus et en v&eacute;rifiant les volets des deux c&ocirc;t&eacute;s de la fen&ecirc;tre de configuration.&nbsp;<\/p><h2 class=\"wp-block-heading\" id=\"h-comment-creer-un-workflow-de-chatbot-a-l-aide-d-ollama-et-de-n8n\"><strong>Comment cr&eacute;er un workflow de chatbot &agrave; l&rsquo;aide d&rsquo;Ollama et de n8n<\/strong><\/h2><p>L&rsquo;int&eacute;gration d&rsquo;Ollama dans n8n vous permet d&rsquo;automatiser diverses t&acirc;ches avec les LLM, notamment la cr&eacute;ation d&rsquo;un workflow aliment&eacute; par l&rsquo;IA qui r&eacute;pond aux requ&ecirc;tes des utilisateurs, comme un chatbot. Cette section explore les &eacute;tapes n&eacute;cessaires &agrave; son d&eacute;veloppement.&nbsp;<\/p><p>Si vous souhaitez cr&eacute;er un syst&egrave;me d&rsquo;automatisation pour d&rsquo;autres t&acirc;ches, consultez nos <a href=\"https:\/\/www.hostinger.com\/fr\/tutoriels\/exemples-de-workflows-n8n\">exemples de workflows n8n<\/a> pour trouver l&rsquo;inspiration.<\/p><h3 class=\"wp-block-heading\" id=\"h-1-ajouter-un-noeud-de-declenchement\"><strong>1. Ajouter un n&oelig;ud de d&eacute;clenchement<\/strong><\/h3><p>Le n&oelig;ud de d&eacute;clenchement dans n8n d&eacute;finit l&rsquo;&eacute;v&eacute;nement qui lancera votre workflow. Parmi plusieurs options, voici les plus courantes pour cr&eacute;er un chatbot :<\/p><p><strong>D&eacute;clencheur de chat&nbsp;<\/strong><\/p><p>Par d&eacute;faut, le n&oelig;ud du mod&egrave;le de chat Ollama utilise <strong><strong>Chat message<\/strong> <\/strong>comme d&eacute;clencheur, qui lance votre flux de travail d&egrave;s r&eacute;ception d&rsquo;un message.&nbsp;<\/p><p>Ce n&oelig;ud <strong>Chat <\/strong>par d&eacute;faut est parfait pour d&eacute;velopper un chatbot. Pour le faire fonctionner, il vous suffit de rendre l&rsquo;interface de chat accessible au public.&nbsp;<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69f08d7d6eb3b\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"784\" height=\"830\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/n8n-declencheur-chat-bascule-rendre-public.png\/public\" alt=\"Option basculante &ldquo;Rendre le chat public&rdquo; du d&eacute;clencheur n8n Chat\" class=\"wp-image-42184\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/n8n-declencheur-chat-bascule-rendre-public.png\/w=784,fit=scale-down 784w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/n8n-declencheur-chat-bascule-rendre-public.png\/w=283,fit=scale-down 283w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/n8n-declencheur-chat-bascule-rendre-public.png\/w=142,fit=scale-down 142w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/n8n-declencheur-chat-bascule-rendre-public.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 784px) 100vw, 784px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Agrandir\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Pour ce faire, ouvrez le n&oelig;ud<strong> Chat <\/strong>et cliquez sur le bouton <strong>Make Chat Publicly Available<\/strong>. Vous pouvez ensuite int&eacute;grer cette fonctionnalit&eacute; de chat dans votre chatbot personnalis&eacute; avec une interface utilisateur.<\/p><p><strong>N&oelig;uds de d&eacute;clenchement d&rsquo;applications de messagerie<\/strong><\/p><p>n8n dispose de n&oelig;uds de d&eacute;clenchement qui acceptent les entr&eacute;es provenant d&rsquo;applications de messagerie populaires telles que <strong>Telegram <\/strong>et <strong>WhatsApp<\/strong>. Ils sont adapt&eacute;s si vous souhaitez cr&eacute;er un bot pour ces applications.&nbsp;<\/p><p>La configuration de ces n&oelig;uds est assez d&eacute;licate, car vous avez besoin d&rsquo;un compte d&eacute;veloppeur et de cl&eacute;s d&rsquo;authentification pour vous connecter &agrave; leurs API. Consultez leur documentation pour en savoir plus sur leur configuration.&nbsp;<\/p><p><strong>D&eacute;clencheur Webhook<\/strong><\/p><p>Le d&eacute;clencheur <strong>Webhook <\/strong>lance votre flux de travail lorsque son URL de point de terminaison re&ccedil;oit une requ&ecirc;te HTTP. Il est adapt&eacute; si vous souhaitez lancer votre chatbot &agrave; l&rsquo;aide d&rsquo;&eacute;v&eacute;nements autres que l&rsquo;envoi d&rsquo;un message, comme un clic.<\/p><p>Dans les &eacute;tapes ci-dessous, nous utiliserons ce n&oelig;ud pour d&eacute;marrer notre workflow chaque fois qu&rsquo;un chatbot Discord re&ccedil;oit un message.&nbsp;<\/p><p>\n\n\n<div><p class=\"important\"><strong>Important !<\/strong> Si votre URL webhook commence par <strong>localhost<\/strong>, remplacez-la par le nom de domaine, le nom d&rsquo;h&ocirc;te ou l&rsquo;adresse IP de votre VPS. Pour ce faire, modifiez la <a href=\"https:\/\/docs.n8n.io\/hosting\/configuration\/environment-variables\/endpoints\/\" target=\"_blank\" rel=\"noopener\">variable d&rsquo;environnement WEBHOOK_URL de n8n<\/a> dans son fichier de configuration. <\/p><\/div>\n\n\n\n<\/p><h3 class=\"wp-block-heading\" id=\"h-2-connecter-le-noeud-ollama\"><strong>2. Connecter le n&oelig;ud Ollama<\/strong><\/h3><p>La connexion du n&oelig;ud Ollama permet au n&oelig;ud de d&eacute;clenchement de transf&eacute;rer les entr&eacute;es utilisateur pour traitement.&nbsp;<\/p><p>Le n&oelig;ud <strong>Ollama Chat Model <\/strong>ne se connecte pas directement aux n&oelig;uds de d&eacute;clenchement et s&rsquo;int&egrave;gre uniquement &agrave; un n&oelig;ud IA. Le n&oelig;ud par d&eacute;faut est le n&oelig;ud <strong>Basic LLM Chain<\/strong>, mais vous pouvez &eacute;galement utiliser d&rsquo;autres n&oelig;uds<strong> Chain <\/strong>pour un traitement plus complexe.&nbsp;<\/p><p>Certains n&oelig;uds <strong>Chain <\/strong>prennent en charge des outils suppl&eacute;mentaires pour le traitement de vos donn&eacute;es. Par exemple, le n&oelig;ud<strong> <strong>AI Agent<\/strong> <\/strong>vous permet d&rsquo;ajouter un analyseur syntaxique pour reformater la sortie ou d&rsquo;inclure une m&eacute;moire pour stocker les r&eacute;ponses pr&eacute;c&eacute;dentes.<\/p><p>Pour un chatbot qui ne n&eacute;cessite pas de traitement de donn&eacute;es complexe, comme notre chatbot Discord, la <strong>cha&icirc;ne LLM de base <\/strong>suffit.&nbsp;<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69f08d7d70300\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-large wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"565\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/noeud-ollama-chaine-llm-de-base-cluster-avec-declencheur-webhook.png\/public\" alt=\"Cluster de n&oelig;uds Ollama et Basic LLM Chain avec le d&eacute;clencheur Webhook connect&eacute;\" class=\"wp-image-42185\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/noeud-ollama-chaine-llm-de-base-cluster-avec-declencheur-webhook.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/noeud-ollama-chaine-llm-de-base-cluster-avec-declencheur-webhook.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/noeud-ollama-chaine-llm-de-base-cluster-avec-declencheur-webhook.png\/w=150,fit=scale-down 150w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/noeud-ollama-chaine-llm-de-base-cluster-avec-declencheur-webhook.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Agrandir\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Connectez donc le n&oelig;ud de d&eacute;clenchement au n&oelig;ud<strong> Basic LLM Chain <\/strong>et d&eacute;finissez comment transmettre l&rsquo;entr&eacute;e. Utilisez <strong><strong>Fixed<\/strong> <\/strong>pour transmettre le message en tant qu&rsquo;invite. Parall&egrave;lement, s&eacute;lectionnez <strong>Expression <\/strong>pour utiliser des donn&eacute;es dynamiques ou manipuler l&rsquo;entr&eacute;e avant de la transmettre &agrave; Ollama.&nbsp;<\/p><p>Par exemple, nous utilisons l&rsquo;<strong><strong><strong>Expression<\/strong><\/strong><\/strong> suivante pour choisir le champ JSON<strong> body.content <\/strong>comme entr&eacute;e, qui change en fonction des messages Discord des utilisateurs :<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">{{ $json.body.content }}<\/pre><h3 class=\"wp-block-heading\" id=\"h-3-afficher-la-reponse\"><strong>3. Afficher la r&eacute;ponse<\/strong><\/h3><p>La sortie de la r&eacute;ponse &agrave; partir du n&oelig;ud <strong><strong>AI Agent<\/strong> <\/strong>ou <strong>Basic LLM Chain <\/strong>permet aux utilisateurs de voir la r&eacute;ponse de votre bot. &Agrave; ce stade, vous ne pouvez lire la sortie qu&rsquo;&agrave; partir de l&rsquo;interface de chat ou du volet de sortie du n&oelig;ud.&nbsp;<\/p><p>Pour envoyer la r&eacute;ponse, utilisez le m&ecirc;me n&oelig;ud que votre d&eacute;clencheur. Par exemple, si vous d&eacute;veloppez un chatbot WhatsApp, connectez le n&oelig;ud <strong>WhatsApp send message<\/strong>.&nbsp;<\/p><p>Si vous utilisez le d&eacute;clencheur <strong>Chat<\/strong> par d&eacute;faut, vous pouvez utiliser le n&oelig;ud <strong>Webhook <\/strong>pour transf&eacute;rer le message vers votre bot personnalis&eacute; ou votre interface de chatbot.&nbsp;<\/p><p>&Eacute;tant donn&eacute; que le flux de travail de notre bot Discord utilise le d&eacute;clencheur<strong> Webhook<\/strong>, nous pouvons &eacute;galement utiliser le n&oelig;ud<strong> Webhook <\/strong>pour la sortie. Nous pouvons &eacute;galement utiliser le m&ecirc;me bot pour envoyer la r&eacute;ponse en connectant le n&oelig;ud Discord <strong>Send a Message <\/strong>et en l&rsquo;int&eacute;grant &agrave; notre chatbot. Le flux de travail complet ressemblera &agrave; ceci :<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69f08d7d710cf\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-large wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"374\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/workflow-bot-discord-ollama-n8n.png\/public\" alt=\"Flux de travail du bot Discord aliment&eacute; par Ollama de n8n\" class=\"wp-image-42186\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/workflow-bot-discord-ollama-n8n.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/workflow-bot-discord-ollama-n8n.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/workflow-bot-discord-ollama-n8n.png\/w=150,fit=scale-down 150w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/workflow-bot-discord-ollama-n8n.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Agrandir\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>\n\n<div class=\"protip\">\n                    <h4 class=\"title\">Vous ne savez pas comment cr&eacute;er un workflow complet ?<\/h4>\n                    <p>n8n fournit divers workflows pr&ecirc;ts &agrave; l'emploi que vous pouvez facilement importer dans votre canevas. Cela vous permet de cr&eacute;er un syst&egrave;me d'automatisation aliment&eacute; par l'IA sans avoir &agrave; d&eacute;velopper le workflow &agrave; partir de z&eacute;ro.<br>\nConsultez notre tutoriel sur les <a href=\"https:\/\/www.hostinger.com\/fr\/tutoriels\/templates-n8n\">meilleurs templates n8n<\/a> pour d&eacute;couvrir des workflows s&eacute;lectionn&eacute;s et pr&ecirc;ts &agrave; l'emploi pour divers usages.<\/p>\n                <\/div>\n\n\n\n<\/p><h2 class=\"wp-block-heading\" id=\"h-quels-sont-les-meilleurs-cas-d-utilisation-de-l-integration-n8n-ollama\"><strong>Quels sont les meilleurs cas d&rsquo;utilisation de l&rsquo;int&eacute;gration n8n Ollama ?<\/strong><\/h2><p>&Eacute;tant l&rsquo;un des <a href=\"https:\/\/www.hostinger.com\/fr\/tutoriels\/outils-automatisation-ia\">outils d&rsquo;automatisation IA<\/a> les plus puissants, l&rsquo;int&eacute;gration de n8n avec les LLM personnalisables d&rsquo;Ollama vous permet d&rsquo;automatiser un large &eacute;ventail de t&acirc;ches.<\/p><p>Voici quelques exemples de t&acirc;ches que vous pouvez automatiser avec n8n et l&rsquo;intelligence artificielle :<\/p><ol class=\"wp-block-list\">\n<li><strong>Workflow automatis&eacute; pour le service client. <\/strong>Utilisez les LLM d&rsquo;Ollama pour g&eacute;n&eacute;rer des r&eacute;ponses aux demandes des clients, r&eacute;sumer les tickets ou acheminer les probl&egrave;mes sur des plateformes telles que Zendesk et Intercom, le tout via n8n.<\/li>\n\n\n\n<li><strong>R&eacute;daction d&rsquo;e-mails contextuels. <\/strong>R&eacute;digez automatiquement des e-mails pour diff&eacute;rents contextes ou t&acirc;ches &agrave; l&rsquo;aide d&rsquo;Ollama. Par exemple, vous pouvez r&eacute;diger un message pour accueillir un nouveau prospect, rappeler aux clients l&rsquo;expiration de leur abonnement et annoncer les mises &agrave; jour de produits &agrave; l&rsquo;aide de diff&eacute;rents &eacute;v&eacute;nements.&nbsp;<\/li>\n\n\n\n<li><strong>Assistant de base de connaissances interne. <\/strong>Utilisez n8n pour interroger la documentation interne, comme Notion, Confluence ou Airtable, et transmettez les donn&eacute;es &agrave; Ollama pour g&eacute;n&eacute;rer des r&eacute;ponses ou des r&eacute;sum&eacute;s intelligents aux questions de l&rsquo;&eacute;quipe interne.<\/li>\n\n\n\n<li><strong>Extraction et synth&egrave;se de donn&eacute;es. <\/strong>Utilisez n8n pour surveiller les documents texte entrants, extraire leur texte et extraire les informations cl&eacute;s avec Ollama, ce qui est utile pour r&eacute;sumer des rapports, des factures ou des documents juridiques.<\/li>\n\n\n\n<li><strong>Pipeline de production de contenu automatis&eacute;<\/strong>. G&eacute;n&eacute;rez du contenu &agrave; l&rsquo;aide de n8n et Ollama en cr&eacute;ant un flux de travail qui automatise la recherche de mots-cl&eacute;s, la r&eacute;daction et le processus d&rsquo;&eacute;dition.&nbsp;<\/li>\n\n\n\n<li><strong>Chatbots s&eacute;curis&eacute;s &agrave; usage interne. <\/strong>Cr&eacute;ez des chatbots internes qui traitent des donn&eacute;es internes sensibles, o&ugrave; n8n g&egrave;re l&rsquo;orchestration et Ollama ex&eacute;cute le LLM enti&egrave;rement hors ligne pour des raisons de s&eacute;curit&eacute; et de confidentialit&eacute;.&nbsp;<\/li>\n<\/ol><h3 class=\"wp-block-heading\" id=\"h-pourquoi-heberger-vos-flux-de-travail-n8n-ollama-avec-hostinger\"><strong>Pourquoi h&eacute;berger vos flux de travail n8n-Ollama avec Hostinger ?<\/strong><\/h3><p>L&rsquo;h&eacute;bergement de vos flux de travail n8n-Ollama avec Hostinger pr&eacute;sente divers avantages par rapport &agrave; l&rsquo;utilisation d&rsquo;une machine personnelle ou du plan d&rsquo;h&eacute;bergement officiel. Voici quelques-uns de ces avantages :<\/p><ul class=\"wp-block-list\">\n<li><strong>Contr&ocirc;le accru<\/strong>. Le service d&rsquo;<a href=\"https:\/\/www.hostinger.com\/fr\/hebergement-n8n\">h&eacute;bergement VPS n8n<\/a> de Hostinger offre aux utilisateurs un acc&egrave;s root complet aux param&egrave;tres et aux donn&eacute;es de leur serveur. Cela vous permet de configurer vos environnements d&rsquo;h&eacute;bergement n8n et Ollama selon vos pr&eacute;f&eacute;rences sp&eacute;cifiques.&nbsp;<\/li>\n\n\n\n<li><strong>Confidentialit&eacute; am&eacute;lior&eacute;e<\/strong>. Comme vous h&eacute;bergerez n8n et Ollama sur un serveur sur lequel vous avez un contr&ocirc;le total, vous aurez la libert&eacute; d&rsquo;ajuster les limites d&rsquo;acc&egrave;s et les param&egrave;tres de s&eacute;curit&eacute;.<\/li>\n\n\n\n<li><strong>&Eacute;volutivit&eacute;<\/strong>. Les plans VPS Hostinger sont facilement &eacute;volutifs sans temps d&rsquo;arr&ecirc;t et offrent le template de mode de file d&rsquo;attente n8n qui vous permet de d&eacute;charger votre t&acirc;che vers plusieurs travailleurs.&nbsp;<\/li>\n\n\n\n<li><strong>Configuration simplifi&eacute;e<\/strong>. Nos VPS templates vous permettent d&rsquo;installer n8n ou Ollama en un seul clic, ce qui rend le processus plus efficace.<\/li>\n\n\n\n<li><strong>Gestion facile<\/strong>. La gestion d&rsquo;un VPS Hostinger est facile gr&acirc;ce au panneau de contr&ocirc;le intuitif hPanel ou au terminal int&eacute;gr&eacute; au navigateur. Les d&eacute;butants peuvent &eacute;galement demander &agrave; notre assistant IA, <strong>Kodee<\/strong>, d&rsquo;effectuer des t&acirc;ches d&rsquo;administration syst&egrave;me via le chat.&nbsp;<\/li>\n<\/ul><figure class=\"wp-block-image size-full\"><a href=\"https:\/\/www.hostinger.com\/fr\/vps\" target=\"_blank\" rel=\"noreferrer noopener\"><img decoding=\"async\" width=\"1024\" height=\"300\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2022\/12\/FR-VPS-hosting_in-text-banner-1024x300-1.png\/public\" alt=\"\" class=\"wp-image-41471\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2022\/12\/FR-VPS-hosting_in-text-banner-1024x300-1.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2022\/12\/FR-VPS-hosting_in-text-banner-1024x300-1.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2022\/12\/FR-VPS-hosting_in-text-banner-1024x300-1.png\/w=150,fit=scale-down 150w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2022\/12\/FR-VPS-hosting_in-text-banner-1024x300-1.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/a><\/figure><h2 class=\"wp-block-heading\" id=\"h-utilisation-du-noeud-lm-ollama-de-langchain-dans-n8n\"><strong>Utilisation du n&oelig;ud LM Ollama de LangChain dans n8n<\/strong><\/h2><p><strong>LangChain <\/strong>est un framework qui facilite l&rsquo;int&eacute;gration des LLM dans les applications. Dans n8n, cette impl&eacute;mentation implique la connexion de diff&eacute;rents n&oelig;uds d&rsquo;outils et mod&egrave;les d&rsquo;IA afin d&rsquo;obtenir des capacit&eacute;s de traitement particuli&egrave;res.<\/p><p>Dans n8n, la fonctionnalit&eacute; LangChain utilise des<strong> n&oelig;uds Cluster<\/strong>, un groupe de n&oelig;uds interconnect&eacute;s qui fonctionnent ensemble pour fournir des fonctionnalit&eacute;s dans votre flux de travail.&nbsp;<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69f08d7d731c7\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"914\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/illustration-noeuds-sous-root-cluster-vps.png\/public\" alt=\"Le concept de cluster, racine et sous-n&oelig;uds dans l'impl&eacute;mentation LangChain de n8n\" class=\"wp-image-42187\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/illustration-noeuds-sous-root-cluster-vps.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/illustration-noeuds-sous-root-cluster-vps.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/illustration-noeuds-sous-root-cluster-vps.png\/w=150,fit=scale-down 150w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/09\/illustration-noeuds-sous-root-cluster-vps.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Agrandir\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Les n&oelig;uds de cluster se composent de deux parties : les <strong>n&oelig;uds racines <\/strong>qui d&eacute;finissent la fonctionnalit&eacute; principale et les <strong>sous-n&oelig;uds <\/strong>qui ajoutent la capacit&eacute; LLM ou des fonctionnalit&eacute;s suppl&eacute;mentaires.&nbsp;<\/p><p>La partie la plus importante de l&rsquo;impl&eacute;mentation de LangChain dans n8n est la <strong>cha&icirc;ne <\/strong>&agrave; l&rsquo;int&eacute;rieur des <strong>n&oelig;uds racines<\/strong>. Elle rassemble et configure la logique de diff&eacute;rents composants IA, tels que le mod&egrave;le Ollama et le n&oelig;ud analyseur, afin de cr&eacute;er un syst&egrave;me coh&eacute;rent.<\/p><p>Voici les <strong>cha&icirc;nes <\/strong>dans n8n et leurs fonctions :<\/p><ul class=\"wp-block-list\">\n<li><strong>Cha&icirc;ne LLM de base<\/strong>. Vous permet de d&eacute;finir l&rsquo;invite que le mod&egrave;le d&rsquo;IA utilisera et un analyseur syntaxique optionnel pour reformater la r&eacute;ponse.<\/li>\n\n\n\n<li><strong>Cha&icirc;ne de recherche <strong>Q&amp;A<\/strong><\/strong>. Vous permet de r&eacute;cup&eacute;rer des donn&eacute;es trait&eacute;es par l&rsquo;IA &agrave; l&rsquo;aide de magasins de vecteurs, des bases de donn&eacute;es con&ccedil;ues pour stocker des informations sous forme num&eacute;rique.<\/li>\n\n\n\n<li><strong>Cha&icirc;ne de synth&egrave;se<\/strong>. R&eacute;sume le contenu de plusieurs documents ou entr&eacute;es.&nbsp;<\/li>\n\n\n\n<li><strong>Analyse des sentiments<\/strong>. Analyse le sentiment du texte saisi et le classe dans des cat&eacute;gories telles que positif, neutre et n&eacute;gatif.<\/li>\n\n\n\n<li><strong><strong>Classificateur de texte<\/strong><\/strong>. Trie les donn&eacute;es d&rsquo;entr&eacute;e en diff&eacute;rentes cat&eacute;gories cr&eacute;&eacute;es par l&rsquo;utilisateur en fonction des crit&egrave;res et param&egrave;tres sp&eacute;cifi&eacute;s.&nbsp;<\/li>\n<\/ul><p>Lorsque vous cr&eacute;ez un flux de travail dans n8n, vous pouvez &eacute;galement rencontrer des <strong>agents<\/strong>, qui sont des sous-ensembles de <strong>cha&icirc;nes <\/strong>capables de prendre des d&eacute;cisions. Alors que les <strong>cha&icirc;nes <\/strong>fonctionnent selon un ensemble de r&egrave;gles pr&eacute;d&eacute;termin&eacute;es, un <strong>Agent<\/strong> utilise le LLM connect&eacute; pour d&eacute;terminer les actions suivantes &agrave; entreprendre.<\/p><h2 class=\"wp-block-heading\" id=\"h-quelle-est-la-prochaine-etape-apres-avoir-connecte-n8n-a-ollama\"><strong>Quelle est la prochaine &eacute;tape apr&egrave;s avoir connect&eacute; n8n &agrave; Ollama ?<\/strong><\/h2><p>Alors que les tendances de l&rsquo;automatisation continuent d&rsquo;&eacute;voluer, la mise en &oelig;uvre d&rsquo;un syst&egrave;me de traitement automatique des donn&eacute;es vous aidera &agrave; garder une longueur d&rsquo;avance sur la concurrence. Associ&eacute; &agrave; l&rsquo;IA, vous pouvez cr&eacute;er un syst&egrave;me qui fera passer le d&eacute;veloppement et la gestion de vos projets &agrave; un niveau sup&eacute;rieur.&nbsp;<\/p><p>L&rsquo;int&eacute;gration d&rsquo;Ollama dans votre flux de travail n8n vous offre une automatisation bas&eacute;e sur l&rsquo;IA qui va au-del&agrave; des capacit&eacute;s du n&oelig;ud int&eacute;gr&eacute;. De plus, la compatibilit&eacute; d&rsquo;Ollama avec divers LLM vous permet de choisir et d&rsquo;adapter diff&eacute;rents mod&egrave;les d&rsquo;IA afin de r&eacute;pondre au mieux &agrave; vos besoins.<\/p><p>Comprendre comment connecter Ollama &agrave; n8n n&rsquo;est que la premi&egrave;re &eacute;tape de la mise en &oelig;uvre de l&rsquo;automatisation aliment&eacute;e par l&rsquo;IA dans votre projet. &Eacute;tant donn&eacute; le nombre impressionnant de cas d&rsquo;utilisation possibles, l&rsquo;&eacute;tape suivante consiste &agrave; exp&eacute;rimenter et &agrave; d&eacute;velopper un flux de travail qui correspond le mieux &agrave; votre projet.&nbsp;<\/p><p>Si vous utilisez n8n ou Ollama pour la premi&egrave;re fois, Hostinger est le point de d&eacute;part id&eacute;al. Outre nos plans VPS riches en fonctionnalit&eacute;s, nous proposons un catalogue complet de tutoriels sur n8n qui vous aideront &agrave; vous lancer dans l&rsquo;automatisation.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>L&rsquo;int&eacute;gration de n8n &agrave; Ollama vous permet d&rsquo;exploiter divers mod&egrave;les d&rsquo;IA dans votre flux de travail automatis&eacute;, ce qui lui permet d&rsquo;effectuer des op&eacute;rations complexes qui seraient autrement impossibles. Cependant, le processus peut s&rsquo;av&eacute;rer d&eacute;licat, car vous devez configurer divers param&egrave;tres sur les deux outils afin qu&rsquo;ils fonctionnent de mani&egrave;re transparente.&nbsp; Si n8n et Ollama [&#8230;]<\/p>\n<p><a class=\"btn btn-secondary understrap-read-more-link\" href=\"\/fr\/tutoriels\/n8n-ollama\">Read More&#8230;<\/a><\/p>\n","protected":false},"author":355,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"rank_math_title":"Comment int\u00e9grer n8n \u00e0 Ollama ?","rank_math_description":"Comment int\u00e9grer n8n \u00e0 Ollama : 1. Ajoutez le n\u0153ud Ollama chat model, 2. Choisissez votre mod\u00e8le IA, 3. R\u00e9glez l\u2019invite et plus.","rank_math_focus_keyword":"n8n ollama","footnotes":""},"categories":[4760,5831],"tags":[],"class_list":["post-42133","post","type-post","status-publish","format-standard","hentry","category-vps","category-automatisation"],"hreflangs":[{"locale":"en-US","link":"https:\/\/www.hostinger.com\/tutorials\/n8n-ollama-integration","default":0},{"locale":"fr-FR","link":"https:\/\/www.hostinger.com\/fr\/tutoriels\/n8n-ollama","default":0},{"locale":"en-CA","link":"https:\/\/www.hostinger.com\/ca\/tutorials\/n8n-ollama-integration","default":0},{"locale":"en-UK","link":"https:\/\/www.hostinger.com\/uk\/tutorials\/n8n-ollama-integration","default":0},{"locale":"en-PH","link":"https:\/\/www.hostinger.com\/ph\/tutorials\/n8n-ollama-integration","default":0},{"locale":"en-MY","link":"https:\/\/www.hostinger.com\/my\/tutorials\/n8n-ollama-integration","default":0},{"locale":"en-IN","link":"https:\/\/www.hostinger.com\/in\/tutorials\/n8n-ollama-integration","default":0},{"locale":"en-AU","link":"https:\/\/www.hostinger.com\/au\/tutorials\/n8n-ollama-integration","default":0},{"locale":"en-NG","link":"https:\/\/www.hostinger.com\/ng\/tutorials\/n8n-ollama-integration","default":0}],"_links":{"self":[{"href":"https:\/\/www.hostinger.com\/fr\/tutoriels\/wp-json\/wp\/v2\/posts\/42133","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.hostinger.com\/fr\/tutoriels\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.hostinger.com\/fr\/tutoriels\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.hostinger.com\/fr\/tutoriels\/wp-json\/wp\/v2\/users\/355"}],"replies":[{"embeddable":true,"href":"https:\/\/www.hostinger.com\/fr\/tutoriels\/wp-json\/wp\/v2\/comments?post=42133"}],"version-history":[{"count":10,"href":"https:\/\/www.hostinger.com\/fr\/tutoriels\/wp-json\/wp\/v2\/posts\/42133\/revisions"}],"predecessor-version":[{"id":42211,"href":"https:\/\/www.hostinger.com\/fr\/tutoriels\/wp-json\/wp\/v2\/posts\/42133\/revisions\/42211"}],"wp:attachment":[{"href":"https:\/\/www.hostinger.com\/fr\/tutoriels\/wp-json\/wp\/v2\/media?parent=42133"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.hostinger.com\/fr\/tutoriels\/wp-json\/wp\/v2\/categories?post=42133"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.hostinger.com\/fr\/tutoriels\/wp-json\/wp\/v2\/tags?post=42133"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}