{"id":45675,"date":"2025-12-02T17:45:52","date_gmt":"2025-12-02T16:45:52","guid":{"rendered":"\/mx\/tutoriales\/como-ejecutar-deepseek-con-ollama"},"modified":"2026-03-10T16:26:58","modified_gmt":"2026-03-10T15:26:58","slug":"como-ejecutar-deepseek-con-ollama","status":"publish","type":"post","link":"\/mx\/tutoriales\/como-ejecutar-deepseek-con-ollama","title":{"rendered":"C\u00f3mo ejecutar DeepSeek con Ollama en un VPS"},"content":{"rendered":"<p>Ollama te permite ejecutar varios <a href=\"\/mx\/tutoriales\/modelos-grandes-de-lenguaje-llm\">modelos ling&uuml;&iacute;sticos de gran tama&ntilde;o<\/a> (LLM) en un servidor privado o en una m&aacute;quina local para crear un agente de IA personal. Por ejemplo, puedes configurarlo con DeepSeek R1, un modelo de IA muy popular conocido por su precisi&oacute;n y asequibilidad.<\/p><p>En este art&iacute;culo, explicaremos c&oacute;mo ejecutar DeepSeek con Ollama. Te guiaremos a trav&eacute;s de los pasos, desde la instalaci&oacute;n de la plataforma hasta la configuraci&oacute;n del chat para tu caso de uso.<\/p><h2 class=\"wp-block-heading\" id=\"h-requisitos-previos\">Requisitos previos<\/h2><p>Antes de configurar Ollama, aseg&uacute;rate de que dispones de un <a href=\"\/mx\/servidor-vps\">servidor VPS<\/a> Linux, que utilizaremos para alojar el agente de IA. Si deseas instalarlo localmente, puedes utilizar tu ordenador personal Linux.<\/p><p>En cualquier caso, tu sistema debe cumplir los requisitos m&iacute;nimos de hardware. Dado que las plataformas de IA como <a href=\"\/mx\/tutoriales\/que-es-ollama\">Ollama<\/a> exigen muchos recursos, necesitar&aacute;s como m&iacute;nimo:<\/p><ul class=\"wp-block-list\">\n<li>16 GB de RAM<\/li>\n\n\n\n<li>12 GB de espacio de almacenamiento<\/li>\n\n\n\n<li>4 n&uacute;cleos de CPUs<\/li>\n<\/ul><p>Para el sistema operativo, puedes utilizar distribuciones de Linux populares como Ubuntu y CentOS. Es importante que ejecutes la versi&oacute;n m&aacute;s reciente para evitar problemas de compatibilidad y seguridad.<\/p><p>Si no tienes un sistema que cumpla los requisitos, compra uno en Hostinger. A partir de <strong>9.99 euros al mes<\/strong>, nuestro plan <strong>KVM 4<\/strong> ofrece 4 n&uacute;cleos de CPU, 16 GB de RAM y 200 GB de almacenamiento SSD NVMe.<\/p><figure class=\"wp-block-image size-large\"><a href=\"\/mx\/servidor-vps\" target=\"_blank\" rel=\"noreferrer noopener\"><img decoding=\"async\" width=\"1024\" height=\"300\" src=\"https:\/\/blog.hostinger.io\/mx-tutoriales\/wp-content\/uploads\/sites\/39\/2023\/02\/ES-VPS-hosting_in-text-banner-1024x300.png\" alt=\"\" class=\"wp-image-29287\" srcset=\"https:\/\/www.hostinger.com\/mx\/tutoriales\/wp-content\/uploads\/sites\/39\/2023\/02\/ES-VPS-hosting_in-text-banner.png 1024w, https:\/\/www.hostinger.com\/mx\/tutoriales\/wp-content\/uploads\/sites\/39\/2023\/02\/ES-VPS-hosting_in-text-banner-300x88.png 300w, https:\/\/www.hostinger.com\/mx\/tutoriales\/wp-content\/uploads\/sites\/39\/2023\/02\/ES-VPS-hosting_in-text-banner-150x44.png 150w, https:\/\/www.hostinger.com\/mx\/tutoriales\/wp-content\/uploads\/sites\/39\/2023\/02\/ES-VPS-hosting_in-text-banner-768x225.png 768w, https:\/\/www.hostinger.com\/mx\/tutoriales\/wp-content\/uploads\/sites\/39\/2023\/02\/ES-VPS-hosting_in-text-banner-1536x450.png 1536w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/a><\/figure><p>Nuestro VPS tambi&eacute;n cuenta con varias <a href=\"https:\/\/support.hostinger.com\/es\/articles\/1583571-cuales-son-los-sistemas-operativos-disponibles-para-vps\" target=\"_blank\" rel=\"noreferrer noopener\">plantillas de SO<\/a> que te permiten instalar aplicaciones con un solo clic, incluyendo Ollama. Esto hace que el proceso de configuraci&oacute;n sea m&aacute;s r&aacute;pido y m&aacute;s amigable para los principiantes.<\/p><p>Adem&aacute;s, el VPS de Hostinger tiene incorporado el asistente con IA Kodee que puede ayudarte a solucionar problemas o guiarte en la gesti&oacute;n de tu servidor. Mediante prompts, puedes pedirle que compruebe tu sistema o genere comandos para diversas necesidades.<\/p><h2 class=\"wp-block-heading\" id=\"h-como-configurar-deepseek-con-ollama\">C&oacute;mo configurar DeepSeek con Ollama<\/h2><p>Tras asegurarte de que cumples los requisitos previos, sigue estos pasos para instalar Ollama en un sistema Linux.<\/p><h3 class=\"wp-block-heading\" id=\"h-1-instalar-ollama\">1. Instalar Ollama<\/h3><p>Los usuarios de Hostinger pueden <a href=\"\/mx\/tutoriales\/como-instalar-ollama\">instalar f&aacute;cilmente Ollama<\/a> seleccionando la plantilla correspondiente durante el onboarding o en el men&uacute; <strong>Sistema Operativo de hPanel<\/strong>.<\/p><p>De lo contrario, deber&aacute;s utilizar comandos. Para empezar, <a href=\"https:\/\/support.hostinger.com\/es\/articles\/5723772-como-conectarte-a-tu-vps-a-traves-de-ssh\" target=\"_blank\" rel=\"noreferrer noopener\">con&eacute;ctate a tu servidor v&iacute;a SSH<\/a> usando PuTTY o Terminal. Si deseas instalar Ollama localmente, omite este paso y simplemente abre el terminal de tu sistema.<\/p><p><div><p class=\"important\"><strong>&iexcl;Importante!<\/strong> Si utilizas distribuciones basadas en Red Hat Enterprise Linux como CentOS o AlmaLinux, sustituye<strong> apt <\/strong>por <strong>dnf.<\/strong><\/p><\/div><\/p><p>Una vez conectado, sigue estos pasos para instalar Ollama:<\/p><ol class=\"wp-block-list\">\n<li>Introduce el siguiente comando para actualizar el repositorio de tu servidor. Si utilizas distribuciones basadas en Red Hat Enterprise Linux, como CentOS o AlmaLinux, sustituye <strong>apt<\/strong> por <strong>dnf<\/strong>.<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">sudo apt update<\/pre><ol start=\"2\" class=\"wp-block-list\">\n<li>Instala las dependencias externas, software que Ollama necesita para funcionar correctamente. Aqu&iacute; est&aacute; el comando:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">sudo apt install python3 python3-pip python3-venv<\/pre><ol start=\"3\" class=\"wp-block-list\">\n<li>Introduce el siguiente comando para descargar y configurar Ollama:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">curl -fsSL https:\/\/ollama.com\/install.sh | sh<\/pre><ol start=\"4\" class=\"wp-block-list\">\n<li>Crea un entorno virtual Python ejecutando este comando:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">python3 -m venv ~\/ollama-webui &amp;&amp; source ~\/ollama-webui\/bin\/activate<\/pre><ol start=\"5\" class=\"wp-block-list\">\n<li>Ejecuta este comando para configurar la interfaz web de Ollama. Tambi&eacute;n puedes usar Ollama CLI, pero es complicado y menos intuitivo:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">pip install open-webui<\/pre><ol start=\"6\" class=\"wp-block-list\">\n<li>Inicia un terminal virtual usando <a href=\"\/mx\/tutoriales\/instalar-usar-linux-screen\">Screen<\/a>. Esto mantendr&aacute; Ollama funcionando en segundo plano incluso despu&eacute;s de cerrar la conexi&oacute;n SSH.<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">screen -S Ollama<\/pre><ol start=\"7\" class=\"wp-block-list\">\n<li>Ejecuta Ollama utilizando lo siguiente:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">open-webui serve<\/pre><p>&iexcl;Ya est&aacute;! Ahora, puedes acceder a Ollama introduciendo la siguiente direcci&oacute;n en tu navegador web. Recuerda sustituir 185.185.185.185 por la direcci&oacute;n IP real de tu VPS:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">185.185.185.185:8080<\/pre><figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/www.hostinger.com\/es\/tutoriales\/wp-content\/uploads\/sites\/32\/2025\/05\/pagina-bienvenida-ollama.png\" alt=\"P&aacute;gina de bienvenida de Ollama\" class=\"wp-image-46851\"><\/figure><h3 class=\"wp-block-heading\" id=\"h-2-configurar-deepseek\">2. Configurar DeepSeek<\/h3><p>Despu&eacute;s de confirmar que Ollama puede ejecutarse correctamente, vamos a configurar el LLM DeepSeek R1. Para ello, vuelve a la interfaz de l&iacute;nea de comandos del sistema del host y pulsa <strong>Ctrl + C<\/strong> para detener Ollama.<\/p><p>Si instalas Ollama usando la plantilla SO de Hostinger, simplemente con&eacute;ctate a tu servidor v&iacute;a SSH. La forma m&aacute;s sencilla de hacerlo es utilizar el <a href=\"https:\/\/support.hostinger.com\/es\/articles\/7978544-como-utilizar-el-terminal-del-navegador\" target=\"_blank\" rel=\"noreferrer noopener\">terminal del navegador<\/a>.<\/p><p>A continuaci&oacute;n, ejecuta este comando para descargar el modelo Deepseek R1. Utilizaremos la versi&oacute;n <strong>7b<\/strong>:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run deepseek-r1:7b<\/pre><p>Si planeas utilizar otra versi&oacute;n, como la <strong>1.5b<\/strong>, cambia el comando en consecuencia. Para obtener m&aacute;s informaci&oacute;n sobre las diferencias y los requisitos de cada versi&oacute;n, consulta la <a href=\"https:\/\/ollama.com\/library\/deepseek-r1:1.5b\" target=\"_blank\" rel=\"noreferrer noopener\">biblioteca Ollama DeepSeek<\/a>.<\/p><p>Espera a que tu sistema termine de descargar DeepSeek. Dado que el tama&ntilde;o del archivo LLM es de unos <strong>5 GB<\/strong>, este proceso puede tardar bastante, dependiendo de tu velocidad de Internet.<\/p><p>Una vez finalizada la descarga, pulsa <strong>Ctrl + d <\/strong>para volver al int&eacute;rprete de comandos principal. A continuaci&oacute;n, ejecuta el siguiente comando para comprobar si DeepSeek est&aacute; configurado correctamente:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama list&nbsp;<\/pre><div class=\"wp-block-image\"><figure class=\"aligncenter size-full\"><img decoding=\"async\" src=\"https:\/\/www.hostinger.com\/es\/tutoriales\/wp-content\/uploads\/sites\/32\/2025\/05\/deepseek-r1-in-ollama-llm-list.png\" alt=\"Ejemplo de lista de Ollama\" class=\"wp-image-46853\"><\/figure><\/div><p>Si ves DeepSeek en la lista de LLM de Ollama, la configuraci&oacute;n se ha realizado correctamente. Ahora, reinicia la interfaz web:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">open-webui serve<\/pre><h3 class=\"wp-block-heading\" id=\"h-3-probar-deepseek-en-ollama\">3. Probar DeepSeek en Ollama<\/h3><p>Accede a tu GUI de Ollama y crea una nueva cuenta. Este usuario ser&aacute; el administrador por defecto de tu agente de IA.<\/p><p>Una vez iniciada la sesi&oacute;n, ver&aacute;s el panel principal de datos donde podr&aacute;s interactuar con DeepSeek. Empieza a chatear para comprobar si el LLM funciona correctamente.<\/p><p>Por ejemplo, pregunta &ldquo;Explica qu&eacute; es el alojamiento VPS&rdquo;. Si DeepSeek puede responderla, el LLM y tu agente de IA funcionan seg&uacute;n lo previsto.<\/p><p>Dependiendo de la conexi&oacute;n a Internet del host y del consumo de recursos, el tiempo que DeepSeek necesita para responder var&iacute;a.<\/p><h3 class=\"wp-block-heading\" id=\"h-4-perfeccionar-ollama\">4. Perfeccionar Ollama<\/h3><p>Aunque Ollama y DeepSeek funcionan bien con la configuraci&oacute;n por defecto, puedes ajustar la configuraci&oacute;n del chat seg&uacute;n tu caso de uso.<\/p><figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/www.hostinger.com\/es\/tutoriales\/wp-content\/uploads\/sites\/32\/2025\/05\/ajustes-ollama.png\" alt=\"Bot&oacute;n de ajustes de Ollama\" class=\"wp-image-46854\"><\/figure><p>Para acceder al men&uacute;, haz clic en el icono <strong>deslizante<\/strong> situado en la parte superior derecha de tu panel de control de Ollama, junto al icono de perfil. En la secci&oacute;n <strong>Ajustes avanzados<\/strong>, puedes configurar varias opciones, entre ellas:<\/p><ul class=\"wp-block-list\">\n<li><strong>Respuesta de chat en tiempo real: <\/strong>establece si tu agente de IA responde o no a los mensajes en tiempo real. Activar esta opci&oacute;n proporciona respuestas m&aacute;s r&aacute;pidas, pero consumir&aacute; m&aacute;s potencia de c&aacute;lculo.<\/li>\n\n\n\n<li><strong>Semilla: <\/strong>permite que tu agente de IA genere la misma respuesta para un mensaje espec&iacute;fico cuando se establece en un valor determinado. Su valor por defecto es t aleatorio.<\/li>\n\n\n\n<li><strong>Temperatura: <\/strong>establece el nivel de creatividad de tu agente de IA. Un valor m&aacute;s alto resultar&aacute; en respuestas m&aacute;s innovadoras e imaginativas.<\/li>\n\n\n\n<li><strong>Esfuerzo de razonamiento: <\/strong>controla cu&aacute;nto pensar&aacute; el modelo de IA antes de generar respuestas. El valor, que va de 1 a 100, determina cu&aacute;ntas iteraciones de razonamiento completar&aacute; el modelo antes de finalizar una respuesta.<strong>&nbsp;<\/strong><\/li>\n\n\n\n<li><strong>Top K: <\/strong>reduce la probabilidad de generar respuestas sin sentido. Establecer un valor alto significa que tu agente de IA devolver&aacute; una respuesta muy diversa pero con una alta probabilidad de alucinaci&oacute;n.<\/li>\n\n\n\n<li><strong>M&aacute;ximo de tokens: <\/strong>establece el n&uacute;mero m&aacute;ximo de tokens que tu modelo de IA puede utilizar. Cuanto mayor sea el valor, tu agente de IA emitir&aacute; respuestas m&aacute;s largas con menos informaci&oacute;n relevante.<\/li>\n<\/ul><p>Por ejemplo, si utilizas DeepSeek para ayudarte a escribir ficci&oacute;n, establecer un valor alto de <strong>Temperatura<\/strong> puede ser &uacute;til. Por el contrario, puede que quieras bajarlo y aumentar el esfuerzo de <strong>Razonamiento<\/strong> al generar c&oacute;digo.<\/p><p>Si quieres saber m&aacute;s sobre los ajustes, men&uacute;s y configuraci&oacute;n, te recomendamos que eches un vistazo a nuestro tutorial sobre la <a href=\"\/mx\/tutoriales\/como-configurar-ollama-gui\">interfaz gr&aacute;fica de Ollama<\/a>.<\/p><h2 class=\"wp-block-heading\" id=\"h-conclusion\">Conclusi&oacute;n<\/h2><p>Ollama es una plataforma que te permite ejecutar varios LLM en tu servidor privado u ordenador para crear un agente de IA personal. En este art&iacute;culo, hemos explicado c&oacute;mo configurar el famoso modelo de IA, DeepSeek, en Ollama.<\/p><p>Para configurarlo, necesitas un sistema Linux con al menos 4 n&uacute;cleos de CPU, 16 GB de RAM y 12 GB de espacio de almacenamiento. Una vez que tengas una m&aacute;quina que cumpla estos requisitos, instala Ollama y la Open WebUI utilizando la plantilla de SO o los comandos de Hostinger.<\/p><p>Descarga DeepSeek para Ollama a trav&eacute;s de la l&iacute;nea de comandos. Una vez terminado, ejecuta la plataforma ejecutando <strong>open-webui serve<\/strong>. Ahora, accede al dashboard utilizando la IP del host y el puerto <strong>8080<\/strong>.<\/p><p>Para ajustar la respuesta de Ollama en funci&oacute;n de tus casos de uso, edita los par&aacute;metros de configuraci&oacute;n del chat. Adem&aacute;s, utiliza <a href=\"\/mx\/tutoriales\/prompt-engineering\">t&eacute;cnicas adecuadas de prompting de IA<\/a> para mejorar la calidad de la respuesta de DeepSeek.<\/p><h2 class=\"wp-block-heading\" id=\"h-preguntas-frecuentes-sobre-como-ejecutar-deepseek-con-ollama\">Preguntas frecuentes sobre c&oacute;mo ejecutar DeepSeek con Ollama<\/h2><div id=\"rank-math-faq\" class=\"rank-math-block\">\n<div class=\"rank-math-list \">\n<div id=\"faq-question-694430038d087\" class=\"rank-math-list-item\">\n<h3 class=\"rank-math-question \">&iquest;Cu&aacute;les son los requisitos para ejecutar DeepSeek con Ollama?<\/h3>\n<div class=\"rank-math-answer \">\n\n<p>Para ejecutar DeepSeek con Ollama, necesitas un sistema de host Linux con al menos una CPU de 4 n&uacute;cleos, 16 GB de RAM y 12 GB de espacio de almacenamiento. Puedes utilizar distribuciones populares como Ubuntu y CentOS para el sistema operativo. u003cbr \/u003eu003cbr \/u003eRecuerda utilizar una versi&oacute;n m&aacute;s reciente del sistema operativo para evitar problemas de compatibilidad y seguridad.&nbsp;<\/p>\n\n<\/div>\n<\/div>\n<div id=\"faq-question-694430038d089\" class=\"rank-math-list-item\">\n<h3 class=\"rank-math-question \">&iquest;Qu&eacute; es DeepSeek y por qu&eacute; debo utilizarlo con Ollama?<\/h3>\n<div class=\"rank-math-answer \">\n\n<p>DeepSeek es un LLM famoso por ser m&aacute;s asequible y eficiente que otros modelos populares como OpenAI o1, a la vez que ofrece un nivel de precisi&oacute;n similar. Su uso con Ollama permite configurar un agente de IA personal asequible aprovechando la capacidad del LLM.<\/p>\n\n<\/div>\n<\/div>\n<div id=\"faq-question-694430038d08a\" class=\"rank-math-list-item\">\n<h3 class=\"rank-math-question \">&iquest;Puedo ejecutar DeepSeek con Ollama en cualquier versi&oacute;n de Ubuntu?<\/h3>\n<div class=\"rank-math-answer \">\n\n<p>En teor&iacute;a, puedes instalar Ollama y ejecutar DeepSeek en cualquier versi&oacute;n de Ubuntu. Sin embargo, recomendamos instalar el agente de IA en una versi&oacute;n m&aacute;s reciente del sistema operativo, como Ubuntu 20.04, 22.04 y 24.04. u003cbr \/u003eu003cbr \/u003eEl uso de las nuevas versiones ayuda a evitar problemas de compatibilidad y seguridad.<\/p>\n\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Ollama te permite ejecutar varios modelos ling&uuml;&iacute;sticos de gran tama&ntilde;o (LLM) en un servidor privado o en una m&aacute;quina local para crear un agente de IA personal. Por ejemplo, puedes configurarlo con DeepSeek R1, un modelo de IA muy popular conocido por su precisi&oacute;n y asequibilidad. En este art&iacute;culo, explicaremos c&oacute;mo ejecutar DeepSeek con Ollama. [&#8230;]<\/p>\n<p><a class=\"btn btn-secondary understrap-read-more-link\" href=\"\/mx\/tutoriales\/como-ejecutar-deepseek-con-ollama\">Read More&#8230;<\/a><\/p>\n","protected":false},"author":353,"featured_media":46389,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"rank_math_title":"Gu\u00eda completa para ejecutar DeepSeek con Ollama en un VPS","rank_math_description":"Aprende a configurar DeepSeek con Ollama en un VPS, optimizando tu servidor para crear un agente de IA personalizado.","rank_math_focus_keyword":"ollama deepseek","footnotes":""},"categories":[5700],"tags":[],"class_list":["post-45675","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-vps"],"hreflangs":[{"locale":"en-US","link":"https:\/\/www.hostinger.com\/tutorials\/how-to-set-up-deepseek-with-ollama","default":0},{"locale":"fr-FR","link":"https:\/\/www.hostinger.com\/fr\/tutoriels\/configurer-deepseek-avec-ollama","default":0},{"locale":"es-ES","link":"https:\/\/www.hostinger.com\/es\/tutoriales\/como-ejecutar-deepseek-con-ollama","default":0},{"locale":"id-ID","link":"https:\/\/www.hostinger.com\/id\/tutorial\/cara-menggunakan-deepseek-dengan-ollama","default":0},{"locale":"en-UK","link":"https:\/\/www.hostinger.com\/uk\/tutorials\/how-to-set-up-deepseek-with-ollama","default":0},{"locale":"en-MY","link":"https:\/\/www.hostinger.com\/my\/tutorials\/how-to-set-up-deepseek-with-ollama","default":0},{"locale":"en-PH","link":"https:\/\/www.hostinger.com\/ph\/tutorials\/how-to-set-up-deepseek-with-ollama","default":0},{"locale":"en-IN","link":"https:\/\/www.hostinger.com\/in\/tutorials\/how-to-set-up-deepseek-with-ollama","default":0},{"locale":"en-CA","link":"https:\/\/www.hostinger.com\/ca\/tutorials\/how-to-set-up-deepseek-with-ollama","default":0},{"locale":"es-AR","link":"https:\/\/www.hostinger.com\/ar\/tutoriales\/como-ejecutar-deepseek-con-ollama","default":0},{"locale":"es-MX","link":"https:\/\/www.hostinger.com\/mx\/tutoriales\/como-ejecutar-deepseek-con-ollama","default":0},{"locale":"es-CO","link":"https:\/\/www.hostinger.com\/co\/tutoriales\/como-ejecutar-deepseek-con-ollama","default":0},{"locale":"en-AU","link":"https:\/\/www.hostinger.com\/au\/tutorials\/how-to-set-up-deepseek-with-ollama","default":0},{"locale":"en-NG","link":"https:\/\/www.hostinger.com\/ng\/tutorials\/how-to-set-up-deepseek-with-ollama","default":0}],"acf":[],"_links":{"self":[{"href":"https:\/\/www.hostinger.com\/mx\/tutoriales\/wp-json\/wp\/v2\/posts\/45675","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.hostinger.com\/mx\/tutoriales\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.hostinger.com\/mx\/tutoriales\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.hostinger.com\/mx\/tutoriales\/wp-json\/wp\/v2\/users\/353"}],"replies":[{"embeddable":true,"href":"https:\/\/www.hostinger.com\/mx\/tutoriales\/wp-json\/wp\/v2\/comments?post=45675"}],"version-history":[{"count":2,"href":"https:\/\/www.hostinger.com\/mx\/tutoriales\/wp-json\/wp\/v2\/posts\/45675\/revisions"}],"predecessor-version":[{"id":46388,"href":"https:\/\/www.hostinger.com\/mx\/tutoriales\/wp-json\/wp\/v2\/posts\/45675\/revisions\/46388"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.hostinger.com\/mx\/tutoriales\/wp-json\/wp\/v2\/media\/46389"}],"wp:attachment":[{"href":"https:\/\/www.hostinger.com\/mx\/tutoriales\/wp-json\/wp\/v2\/media?parent=45675"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.hostinger.com\/mx\/tutoriales\/wp-json\/wp\/v2\/categories?post=45675"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.hostinger.com\/mx\/tutoriales\/wp-json\/wp\/v2\/tags?post=45675"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}