{"id":40352,"date":"2025-05-08T20:34:29","date_gmt":"2025-05-08T20:34:29","guid":{"rendered":"\/fr\/tutoriels\/?p=40352"},"modified":"2025-05-08T20:47:42","modified_gmt":"2025-05-08T20:47:42","slug":"configurer-deepseek-avec-ollama","status":"publish","type":"post","link":"\/fr\/tutoriels\/configurer-deepseek-avec-ollama","title":{"rendered":"Comment configurer DeepSeek avec Ollama sur un VPS ?"},"content":{"rendered":"<p>Ollama vous permet d&rsquo;ex&eacute;cuter divers <strong><a href=\"\/fr\/tutoriels\/modele-de-langage\">grands mod&egrave;les de langage<\/a> <\/strong>(LLM) sur un serveur priv&eacute; ou une machine locale afin de cr&eacute;er un agent d&rsquo;IA personnel. Par exemple, vous pouvez le configurer avec DeepSeek R1, un mod&egrave;le d&rsquo;IA tr&egrave;s populaire connu pour sa pr&eacute;cision et son prix abordable.<\/p><p>Dans cet article, nous allons expliquer comment faire fonctionner DeepSeek R1 avec Ollama. Nous vous guiderons &agrave; travers les &eacute;tapes de l&rsquo;installation de la plateforme jusqu&rsquo;&agrave; la configuration des param&egrave;tres de chat pour votre cas d&rsquo;utilisation.<\/p><h2 class=\"wp-block-heading\" id=\"h-conditions-prealables\"><strong>Conditions pr&eacute;alables<\/strong><\/h2><p>Avant d&rsquo;installer Ollama, assurez-vous que vous disposez d&rsquo;une <a href=\"\/fr\/vps\"><strong>plateforme VPS Linux<\/strong><\/a>, que nous utiliserons pour h&eacute;berger l&rsquo;agent AI. Si vous souhaitez l&rsquo;installer en local, vous pouvez utiliser votre ordinateur personnel Linux.<\/p><p>Quoi qu&rsquo;il en soit, votre syst&egrave;me doit r&eacute;pondre aux exigences mat&eacute;rielles minimales. Les plateformes d&rsquo;IA comme <strong><a href=\"\/fr\/tutoriels\/qu-est-ce-que-ollama\">Ollama<\/a> <\/strong>&eacute;tant gourmandes en ressources, il vous faut au moins :<\/p><ul class=\"wp-block-list\">\n<li>16 Go de RAM&nbsp;<\/li>\n\n\n\n<li>12 Go d&rsquo;espace de stockage<\/li>\n\n\n\n<li>4 c&oelig;urs de CPU<\/li>\n<\/ul><p>Pour le syst&egrave;me d&rsquo;exploitation, vous pouvez utiliser des distributions Linux populaires comme Ubuntu et CentOS. Il est important d&rsquo;utiliser la version la plus r&eacute;cente pour &eacute;viter les probl&egrave;mes de compatibilit&eacute; et de s&eacute;curit&eacute;.<\/p><p>Si vous ne disposez pas d&rsquo;un syst&egrave;me r&eacute;pondant aux exigences, achetez-en un chez Hostinger. &Agrave; partir de <strong>\u20ac10.99\/mois<\/strong>, notre plan <strong>KVM 4 <\/strong>offre 4 c&oelig;urs de CPU, 16 Go de RAM et 200 Go de stockage SSD NVMe.<\/p><figure class=\"wp-block-image size-full\"><a href=\"https:\/\/www.hostinger.com\/fr\/vps\" target=\"_blank\" rel=\"noreferrer noopener\"><img decoding=\"async\" width=\"1024\" height=\"300\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2022\/12\/FR-VPS-hosting_in-text-banner-1024x300-1.png\/public\" alt=\"\" class=\"wp-image-41471\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2022\/12\/FR-VPS-hosting_in-text-banner-1024x300-1.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2022\/12\/FR-VPS-hosting_in-text-banner-1024x300-1.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2022\/12\/FR-VPS-hosting_in-text-banner-1024x300-1.png\/w=150,fit=scale-down 150w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2022\/12\/FR-VPS-hosting_in-text-banner-1024x300-1.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/a><\/figure><p>Notre VPS dispose &eacute;galement de <a href=\"https:\/\/support.hostinger.com\/fr\/articles\/1583571-quels-sont-les-systemes-d-exploitation-disponibles-pour-les-vps\" target=\"_blank\" rel=\"noopener\"><strong>plusieurs templates de syst&egrave;mes d&rsquo;exploitation<\/strong><\/a><strong> <\/strong>qui vous permettent d&rsquo;installer des applications en un seul clic, y compris Ollama. Cela rend le processus d&rsquo;installation plus rapide et plus convivial pour les d&eacute;butants.<\/p><p>En outre, Hostinger VPS dispose de l&rsquo;<strong>assistant IA Kodee <\/strong>int&eacute;gr&eacute; qui peut vous aider &agrave; r&eacute;soudre les probl&egrave;mes ou vous guider dans la gestion de votre serveur. &Agrave; l&rsquo;aide d&rsquo;invites, vous pouvez lui demander de v&eacute;rifier votre syst&egrave;me ou de g&eacute;n&eacute;rer des commandes pour divers besoins.<\/p><h2 class=\"wp-block-heading\" id=\"h-comment-configurer-deepseek-avec-ollama\"><strong>Comment configurer DeepSeek avec Ollama<\/strong><\/h2><p>Apr&egrave;s vous &ecirc;tre assur&eacute; que vous remplissez les conditions pr&eacute;alables, suivez les &eacute;tapes suivantes pour installer Ollama sur un syst&egrave;me Linux.<\/p><h3 class=\"wp-block-heading\" id=\"h-1-installer-ollama\"><strong>1. Installer Ollama<\/strong><\/h3><p>Les utilisateurs d&rsquo;Hostinger peuvent facilement <strong><a href=\"\/fr\/tutoriels\/comment-installer-ollama\">installer Ollama<\/a> <\/strong>en s&eacute;lectionnant le template correspondant lors de l&rsquo;onboarding ou dans le menu <strong>Syst&egrave;me d&rsquo;exploitation <\/strong>de <strong>hPanel.<\/strong><\/p><p>Sinon, vous devez utiliser des commandes. Pour commencer, <a href=\"https:\/\/support.hostinger.com\/fr\/articles\/5723772-comment-se-connecter-a-votre-vps-via-ssh\" target=\"_blank\" rel=\"noopener\"><strong>connectez-vous &agrave; votre serveur via SSH<\/strong><\/a><strong> <\/strong>en utilisant PuTTY ou Terminal. Si vous souhaitez installer Ollama localement, sautez cette &eacute;tape et ouvrez simplement le terminal de votre syst&egrave;me.<\/p><p>\n\n\n<div><p class=\"important\"><strong>Important !<\/strong> Si vous utilisez des distributions bas&eacute;es sur Red Hat Enterprise Linux comme CentOS ou AlmaLinux, remplacez <strong>apt<\/strong> par <strong>dnf<\/strong>.<\/p><\/div>\n\n\n\n<\/p><p>Une fois connect&eacute;, suivez les &eacute;tapes suivantes pour installer Ollama :<\/p><ol class=\"wp-block-list\">\n<li>Entrez la commande suivante pour mettre &agrave; jour le r&eacute;f&eacute;rentiel de votre serveur. Si vous utilisez des distributions bas&eacute;es sur Red Hat Enterprise Linux, comme CentOS ou AlmaLinux, remplacez <strong>apt <\/strong>par <strong>dnf<\/strong>.<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">sudo apt update<\/pre><ol start=\"2\" class=\"wp-block-list\">\n<li>Installer les d&eacute;pendances externes &ndash; les logiciels dont Ollama a besoin pour fonctionner correctement. Voici la commande :<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">sudo apt install python3 python3-pip python3-venv<\/pre><ol start=\"3\" class=\"wp-block-list\">\n<li>Entrez la commande suivante pour t&eacute;l&eacute;charger et configurer Ollama :<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">curl -fsSL https:\/\/ollama.com\/install.sh | sh<\/pre><ol start=\"4\" class=\"wp-block-list\">\n<li>Cr&eacute;ez un environnement virtuel Python en ex&eacute;cutant cette commande :<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">python3 -m venv ~\/ollama-webui &amp;amp;&amp;amp; source ~\/ollama-webui\/bin\/activate<\/pre><ol start=\"5\" class=\"wp-block-list\">\n<li>Ex&eacute;cutez cette commande pour configurer l&rsquo;interface web d&rsquo;Ollama. Vous pouvez &eacute;galement utiliser <a href=\"\/fr\/tutoriels\/tutoriel-ollama-cli\"><strong>Ollama CLI<\/strong><\/a>, mais elle est compliqu&eacute;e et moins intuitive :<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">pip install open-webui<\/pre><ol start=\"6\" class=\"wp-block-list\">\n<li>D&eacute;marrez un terminal virtuel en utilisant <a href=\"\/fr\/tutoriels\/comment-utiliser-screen-linux\"><strong>Screen<\/strong><\/a>. Cela permettra &agrave; Ollama de continuer &agrave; fonctionner en arri&egrave;re-plan m&ecirc;me apr&egrave;s la fermeture de la connexion SSH.<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">screen -S Ollama<\/pre><ol start=\"7\" class=\"wp-block-list\">\n<li>Ex&eacute;cutez Ollama en proc&eacute;dant comme suit :<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">open-webui serve <\/pre><p>Voil&agrave;, c&rsquo;est fait ! Maintenant, vous pouvez acc&eacute;der &agrave; Ollama en entrant l&rsquo;adresse suivante dans votre navigateur web. N&rsquo;oubliez pas de remplacer <strong>185.185.185.185 <\/strong>par l&rsquo;adresse IP actuelle de votre VPS :<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">185.185.185.185:8080<\/pre><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"6a0598c494507\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"543\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/05\/page-bienvenue-ollama-web-ui.png\/public\" alt=\"Page d'accueil de l'interface utilisateur web Ollama\" class=\"wp-image-40367\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/05\/page-bienvenue-ollama-web-ui.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/05\/page-bienvenue-ollama-web-ui.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/05\/page-bienvenue-ollama-web-ui.png\/w=150,fit=scale-down 150w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/05\/page-bienvenue-ollama-web-ui.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Enlarge\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><h3 class=\"wp-block-heading\" id=\"h-2-configurer-deepseek\"><strong>2. Configurer DeepSeek<\/strong><\/h3><p>Apr&egrave;s avoir confirm&eacute; qu&rsquo;Ollama peut fonctionner correctement, configurons le DeepSeek R1 LLM. Pour ce faire, retournez &agrave; l&rsquo;interface de ligne de commande de votre syst&egrave;me h&ocirc;te et appuyez sur <strong>Ctrl + C <\/strong>pour arr&ecirc;ter Ollama.<\/p><p>Si vous installez Ollama en utilisant le mod&egrave;le de syst&egrave;me d&rsquo;exploitation de Hostinger, connectez-vous simplement &agrave; votre serveur via SSH. La fa&ccedil;on la plus simple de le faire est d&rsquo;utiliser le <a href=\"https:\/\/support.hostinger.com\/fr\/articles\/7978544-comment-utiliser-le-terminal-du-navigateur\" target=\"_blank\" rel=\"noopener\"><strong>terminal de navigateur<\/strong><\/a>.<\/p><p>Ensuite, lancez cette commande pour t&eacute;l&eacute;charger le mod&egrave;le Deepseek R1. Nous utiliserons la version <strong>7b :<\/strong><\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run deepseek-r1:7b<\/pre><p>Si vous pr&eacute;voyez d&rsquo;utiliser une autre version, comme la <strong>1.5b, <\/strong>modifiez la commande en cons&eacute;quence. Pour en savoir plus sur les diff&eacute;rences et les exigences de chaque version, consultez la <a href=\"https:\/\/ollama.com\/library\/deepseek-r1:1.5b\" target=\"_blank\" rel=\"noopener\"><strong>biblioth&egrave;que Ollama DeepSeek<\/strong><\/a>.<\/p><p>Attendez que votre syst&egrave;me ait termin&eacute; le t&eacute;l&eacute;chargement de DeepSeek. La taille du fichier LLM &eacute;tant d&rsquo;environ <strong>5 Go<\/strong>, ce processus peut prendre beaucoup de temps, en fonction de votre vitesse d&rsquo; acc&egrave;s &agrave; Internet.<\/p><p>Une fois le t&eacute;l&eacute;chargement termin&eacute;, appuyez sur <strong>Ctrl + d <\/strong>pour revenir au shell principal. Ensuite, ex&eacute;cutez la commande suivante pour v&eacute;rifier si DeepSeek est configur&eacute; correctement :<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama list<\/pre><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"6a0598c4964fc\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"101\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/05\/deepseek-r1-in-ollama-llm-list-1024x101-1.png\/public\" alt=\"DeepSeek R1 dans la liste Ollama LLM\" class=\"wp-image-40368\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/05\/deepseek-r1-in-ollama-llm-list-1024x101-1.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/05\/deepseek-r1-in-ollama-llm-list-1024x101-1.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/05\/deepseek-r1-in-ollama-llm-list-1024x101-1.png\/w=150,fit=scale-down 150w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/05\/deepseek-r1-in-ollama-llm-list-1024x101-1.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Enlarge\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Si vous voyez DeepSeek dans la liste des LLM d&rsquo;Ollama, la configuration est r&eacute;ussie. Red&eacute;marrez maintenant l&rsquo;interface web :<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">open-webui serve<\/pre><h3 class=\"wp-block-heading\" id=\"h-3-tester-deepseek-sur-ollama\"><strong>3. Tester DeepSeek sur Ollama<\/strong><\/h3><p>Acc&eacute;dez &agrave; votre interface graphique Ollama et cr&eacute;ez un nouveau compte. Cet utilisateur sera l&rsquo;administrateur par d&eacute;faut de votre agent IA.<\/p><p>Une fois connect&eacute;, vous verrez le panneau de donn&eacute;es principal o&ugrave; vous pourrez interagir avec DeepSeek. Lancez une conversation pour proc&eacute;der &agrave; une v&eacute;rification du bon fonctionnement du LLM.<\/p><p>Par exemple, posons la question suivante : &ldquo;Expliquez ce qu&rsquo;est l&rsquo;h&eacute;bergement VPS&rdquo;. Si DeepSeek peut y r&eacute;pondre, le LLM et votre agent IA fonctionnent comme pr&eacute;vu.<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"6a0598c498ba4\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"385\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/05\/deepseek-repond-a-une-qst.png\/public\" alt=\"DeepSeek r&eacute;pond &agrave; une question d'un utilisateur.\" class=\"wp-image-40369\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/05\/deepseek-repond-a-une-qst.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/05\/deepseek-repond-a-une-qst.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/05\/deepseek-repond-a-une-qst.png\/w=150,fit=scale-down 150w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/05\/deepseek-repond-a-une-qst.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Enlarge\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Le temps de r&eacute;ponse de DeepSeek varie en fonction de la connexion Internet de l&rsquo;h&ocirc;te et de sa consommation de ressources.<\/p><h3 class=\"wp-block-heading\" id=\"h-4-affiner-ollama\"><strong>4. Affiner Ollama<\/strong><\/h3><p>Bien qu&rsquo;Ollama et DeepSeek fonctionnent parfaitement avec la configuration par d&eacute;faut, vous pouvez affiner les param&egrave;tres du chat en fonction de votre cas d&rsquo;utilisation.<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"6a0598c49a523\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"361\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/05\/parametres-ollama-tableau-de-bord.png\/public\" alt=\"L'ic&ocirc;ne du curseur sur le tableau de bord Ollama\" class=\"wp-image-40370\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/05\/parametres-ollama-tableau-de-bord.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/05\/parametres-ollama-tableau-de-bord.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/05\/parametres-ollama-tableau-de-bord.png\/w=150,fit=scale-down 150w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/46\/2025\/05\/parametres-ollama-tableau-de-bord.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Enlarge\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Pour acc&eacute;der au menu, cliquez sur l&rsquo;ic&ocirc;ne du <strong>curseur <\/strong>en haut &agrave; droite de votre tableau de bord Ollama, &agrave; c&ocirc;t&eacute; de l&rsquo;ic&ocirc;ne du profil. Dans la section <strong>Param&egrave;tres avanc&eacute;s<\/strong>, vous pouvez ajuster diff&eacute;rents param&egrave;tres, notamment :<\/p><ul class=\"wp-block-list\">\n<li><strong>R&eacute;ponse au chat en continu <\/strong>&ndash; d&eacute;terminez si votre agent d&rsquo;intelligence artificielle r&eacute;pond ou non aux messages en temps r&eacute;el. L&rsquo;activation de cette option permet d&rsquo;obtenir des r&eacute;ponses plus rapides, mais consomme davantage de puissance de calcul.<\/li>\n\n\n\n<li><strong>Seed<\/strong> &ndash; permet &agrave; votre agent IA de g&eacute;n&eacute;rer la m&ecirc;me r&eacute;ponse &agrave; une question sp&eacute;cifique lorsqu&rsquo;elle est d&eacute;finie sur une valeur particuli&egrave;re. La valeur par d&eacute;faut est <strong>random <\/strong>t.<\/li>\n\n\n\n<li><strong>Temp&eacute;rature <\/strong>&ndash; d&eacute;finit le niveau de cr&eacute;ativit&eacute; de votre agent d&rsquo; intelligence artificielle. Une valeur plus &eacute;lev&eacute;e se traduira par des r&eacute;ponses plus innovantes et imaginatives.<\/li>\n\n\n\n<li><strong>Effort de raisonnement <\/strong>&ndash; contr&ocirc;le l&rsquo;intensit&eacute; de la r&eacute;flexion du mod&egrave;le d&rsquo;IA avant de g&eacute;n&eacute;rer des r&eacute;ponses. La valeur, comprise entre 1 et 100, d&eacute;termine le nombre d&rsquo;it&eacute;rations de raisonnement que le mod&egrave;le effectuera avant de finaliser une r&eacute;ponse.&nbsp;&nbsp;<\/li>\n\n\n\n<li><strong>Top K <\/strong>&ndash; r&eacute;duit la probabilit&eacute; de g&eacute;n&eacute;rer des non-sens. En fixant une valeur &eacute;lev&eacute;e, votre agent IA renverra des r&eacute;ponses tr&egrave;s diverses, mais avec une forte probabilit&eacute; d&rsquo;hallucination.&nbsp;<\/li>\n\n\n\n<li><strong>Max tokens <\/strong>&ndash; d&eacute;finit le nombre maximum de jetons que votre mod&egrave;le d&rsquo;IA peut utiliser. Plus la valeur est &eacute;lev&eacute;e, plus votre agent d&rsquo;intelligence artificielle produira des r&eacute;ponses longues contenant des informations moins pertinentes.<\/li>\n<\/ul><p>Par exemple, si vous utilisez DeepSeek pour vous aider &agrave; &eacute;crire de la fiction, il peut &ecirc;tre utile de d&eacute;finir une valeur de <strong>Temperature <\/strong>&eacute;lev&eacute;e. &Agrave; l&rsquo;inverse, vous souhaiterez peut-&ecirc;tre la r&eacute;duire et augmenter le <strong>Reasoning effort <\/strong>lors de la g&eacute;n&eacute;ration de code.<\/p><p>Si vous souhaitez en savoir plus sur les param&egrave;tres, les menus et la configuration, nous vous recommandons de consulter notre <a href=\"\/fr\/tutoriels\/tutoriel-ollama-gui\"><strong>tutoriel sur Ollama GUI<\/strong><\/a>.<\/p><h2 class=\"wp-block-heading\" id=\"h-conclusion\"><strong>Conclusion<\/strong><\/h2><p>Ollama est une plateforme qui vous permet d&rsquo;ex&eacute;cuter divers mod&egrave;les de langage (LLM) open source sur votre serveur priv&eacute; ou votre ordinateur afin de cr&eacute;er un agent d&rsquo;IA personnel. Dans cet article, nous avons expliqu&eacute; comment configurer le c&eacute;l&egrave;bre mod&egrave;le d&rsquo;IA, DeepSeek, sur Ollama. <\/p><p>Pour l&rsquo;installer, vous avez besoin d&rsquo;un syst&egrave;me Linux avec au moins 4 c&oelig;urs de CPU, 16 Go de RAM et 12 Go d&rsquo;espace de stockage. Une fois que vous disposez d&rsquo;une machine r&eacute;pondant &agrave; ces exigences, installez Ollama et l&rsquo;Open WebUI &agrave; l&rsquo;aide du mod&egrave;le de syst&egrave;me d&rsquo;exploitation de Hostinger ou des commandes.<\/p><p>T&eacute;l&eacute;chargez DeepSeek pour Ollama via la ligne de commande. Une fois le t&eacute;l&eacute;chargement termin&eacute;, lancez la plateforme en ex&eacute;cutant <strong>open-webui serve<\/strong>. Maintenant, acc&eacute;dez au tableau de bord en utilisant l&rsquo;IP de l&rsquo;h&ocirc;te et le port <strong>8080<\/strong>.<\/p><p>Pour affiner la r&eacute;ponse d&rsquo;Ollama en fonction de vos cas d&rsquo;utilisation, modifiez les param&egrave;tres de configuration du chat. En outre, utilisez des <a href=\"\/fr\/tutoriels\/prompt-engineering\"><strong>techniques de prompting IA<\/strong><\/a><strong> <\/strong>appropri&eacute;es pour am&eacute;liorer la qualit&eacute; des r&eacute;ponses de DeepSeek.<\/p><h2 class=\"wp-block-heading\" id=\"h-comment-configurer-deepseek-avec-ollama-faq\"><strong>Comment configurer DeepSeek avec Ollama &ndash; FAQ<\/strong><\/h2><div class=\"schema-faq wp-block-yoast-faq-block\"><div class=\"schema-faq-section\" id=\"faq-question-1746731295442\"><h3 class=\"schema-faq-question\"><strong>Quelles sont les conditions requises pour utiliser DeepSeek avec Ollama ?<\/strong><\/h3> <p class=\"schema-faq-answer\">Pour utiliser DeepSeek R1 avec Ollama, vous avez besoin d&rsquo;un syst&egrave;me h&ocirc;te Linux avec au moins un processeur &agrave; 4 c&oelig;urs, 16 Go de RAM et 12 Go d&rsquo;espace de stockage. Vous pouvez utiliser des distributions populaires comme Ubuntu et CentOS pour le syst&egrave;me d&rsquo;exploitation. N&rsquo;oubliez pas d&rsquo;utiliser une version plus r&eacute;cente du syst&egrave;me d&rsquo;exploitation pour &eacute;viter les probl&egrave;mes de compatibilit&eacute; et de s&eacute;curit&eacute;.&nbsp;<\/p> <\/div> <div class=\"schema-faq-section\" id=\"faq-question-1746731352532\"><h3 class=\"schema-faq-question\"><strong>Qu&rsquo;est-ce que DeepSeek et pourquoi devrais-je l&rsquo;utiliser avec Ollama ?<\/strong><\/h3> <p class=\"schema-faq-answer\">DeepSeek est un LLM r&eacute;put&eacute; pour &ecirc;tre plus abordable et plus efficace que d&rsquo;autres mod&egrave;les populaires comme OpenAI o1, tout en offrant un niveau de pr&eacute;cision similaire. En l&rsquo;utilisant avec Ollama, vous pouvez mettre en place un agent d&rsquo;IA personnel abordable qui tire parti des capacit&eacute;s du LLM.<\/p> <\/div> <div class=\"schema-faq-section\" id=\"faq-question-1746731367743\"><h3 class=\"schema-faq-question\"><strong>Puis-je utiliser DeepSeek avec Ollama sur n&rsquo;importe quelle version d&rsquo;Ubuntu ?<\/strong><\/h3> <p class=\"schema-faq-answer\">En th&eacute;orie, vous pouvez installer Ollama et ex&eacute;cuter DeepSeek sur n&rsquo;importe quelle version d&rsquo;Ubuntu. Cependant, nous recommandons d&rsquo;installer l&rsquo;agent AI sur une version plus r&eacute;cente du syst&egrave;me d&rsquo;exploitation, comme Ubuntu 20.04, 22.04 et 24.04. L&rsquo;utilisation des nouvelles versions permet d&rsquo;&eacute;viter les probl&egrave;mes de compatibilit&eacute; et de s&eacute;curit&eacute;.&nbsp;<\/p> <\/div> <\/div>\n","protected":false},"excerpt":{"rendered":"<p>Ollama vous permet d&rsquo;ex&eacute;cuter divers grands mod&egrave;les de langage (LLM) sur un serveur priv&eacute; ou une machine locale afin de cr&eacute;er un agent d&rsquo;IA personnel. Par exemple, vous pouvez le configurer avec DeepSeek R1, un mod&egrave;le d&rsquo;IA tr&egrave;s populaire connu pour sa pr&eacute;cision et son prix abordable. Dans cet article, nous allons expliquer comment faire [&#8230;]<\/p>\n<p><a class=\"btn btn-secondary understrap-read-more-link\" href=\"\/fr\/tutoriels\/configurer-deepseek-avec-ollama\">Read More&#8230;<\/a><\/p>\n","protected":false},"author":355,"featured_media":33668,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"rank_math_title":"Comment configurer DeepSeek avec Ollama sur Ubuntu","rank_math_description":"Apprenez \u00e0 configurer DeepSeek avec Ollama : installez Ollama sur votre VPS, configurez le LLM DeepSeek et testez son bon fonctionnement.","rank_math_focus_keyword":"Configurer DeepSeek avec Ollama","footnotes":""},"categories":[4760],"tags":[],"class_list":["post-40352","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-vps"],"hreflangs":[{"locale":"en-US","link":"https:\/\/www.hostinger.com\/tutorials\/how-to-set-up-deepseek-with-ollama","default":0},{"locale":"fr-FR","link":"https:\/\/www.hostinger.com\/fr\/tutoriels\/configurer-deepseek-avec-ollama","default":0},{"locale":"es-ES","link":"https:\/\/www.hostinger.com\/es\/tutoriales\/como-ejecutar-deepseek-con-ollama","default":0},{"locale":"id-ID","link":"https:\/\/www.hostinger.com\/id\/tutorial\/cara-menggunakan-deepseek-dengan-ollama","default":0},{"locale":"en-UK","link":"https:\/\/www.hostinger.com\/uk\/tutorials\/how-to-set-up-deepseek-with-ollama","default":0},{"locale":"en-MY","link":"https:\/\/www.hostinger.com\/my\/tutorials\/how-to-set-up-deepseek-with-ollama","default":0},{"locale":"en-PH","link":"https:\/\/www.hostinger.com\/ph\/tutorials\/how-to-set-up-deepseek-with-ollama","default":0},{"locale":"en-IN","link":"https:\/\/www.hostinger.com\/in\/tutorials\/how-to-set-up-deepseek-with-ollama","default":0},{"locale":"en-CA","link":"https:\/\/www.hostinger.com\/ca\/tutorials\/how-to-set-up-deepseek-with-ollama","default":0},{"locale":"es-AR","link":"https:\/\/www.hostinger.com\/ar\/tutoriales\/como-ejecutar-deepseek-con-ollama","default":0},{"locale":"es-MX","link":"https:\/\/www.hostinger.com\/mx\/tutoriales\/como-ejecutar-deepseek-con-ollama","default":0},{"locale":"es-CO","link":"https:\/\/www.hostinger.com\/co\/tutoriales\/como-ejecutar-deepseek-con-ollama","default":0},{"locale":"en-AU","link":"https:\/\/www.hostinger.com\/au\/tutorials\/how-to-set-up-deepseek-with-ollama","default":0},{"locale":"en-NG","link":"https:\/\/www.hostinger.com\/ng\/tutorials\/how-to-set-up-deepseek-with-ollama","default":0}],"_links":{"self":[{"href":"https:\/\/www.hostinger.com\/fr\/tutoriels\/wp-json\/wp\/v2\/posts\/40352","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.hostinger.com\/fr\/tutoriels\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.hostinger.com\/fr\/tutoriels\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.hostinger.com\/fr\/tutoriels\/wp-json\/wp\/v2\/users\/355"}],"replies":[{"embeddable":true,"href":"https:\/\/www.hostinger.com\/fr\/tutoriels\/wp-json\/wp\/v2\/comments?post=40352"}],"version-history":[{"count":10,"href":"https:\/\/www.hostinger.com\/fr\/tutoriels\/wp-json\/wp\/v2\/posts\/40352\/revisions"}],"predecessor-version":[{"id":40376,"href":"https:\/\/www.hostinger.com\/fr\/tutoriels\/wp-json\/wp\/v2\/posts\/40352\/revisions\/40376"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.hostinger.com\/fr\/tutoriels\/wp-json\/wp\/v2\/media\/33668"}],"wp:attachment":[{"href":"https:\/\/www.hostinger.com\/fr\/tutoriels\/wp-json\/wp\/v2\/media?parent=40352"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.hostinger.com\/fr\/tutoriels\/wp-json\/wp\/v2\/categories?post=40352"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.hostinger.com\/fr\/tutoriels\/wp-json\/wp\/v2\/tags?post=40352"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}