{"id":45628,"date":"2025-12-02T17:50:30","date_gmt":"2025-12-02T16:50:30","guid":{"rendered":"\/co\/tutoriales\/tutorial-de-ollama-cli"},"modified":"2026-03-10T16:42:44","modified_gmt":"2026-03-10T15:42:44","slug":"tutorial-de-ollama-cli","status":"publish","type":"post","link":"\/co\/tutoriales\/tutorial-de-ollama-cli","title":{"rendered":"Tutorial de Ollama CLI: ejecutar Ollama a trav\u00e9s del terminal"},"content":{"rendered":"<?xml encoding=\"utf-8\" ?><p>Al ser una herramienta potente para ejecutar modelos de lenguaje grandes (LLM) de forma local, Ollama ofrece a desarrolladores, cient&iacute;ficos de datos y usuarios t&eacute;cnicos un mayor control y flexibilidad a la hora de personalizar modelos.<\/p><p>Aunque puedes utilizar Ollama con interfaces gr&aacute;ficas de terceros, como Open WebUI, para interacciones m&aacute;s sencillas, ejecutarlo a trav&eacute;s de la interfaz de l&iacute;nea de comandos (CLI) te permite registrar las respuestas en archivos y automatizar los flujos de trabajo mediante scripts.<\/p><p>Este tutorial te guiar&aacute; a trav&eacute;s del uso de Ollama a trav&eacute;s de la CLI, desde el aprendizaje de los comandos b&aacute;sicos y la interacci&oacute;n con los modelos hasta la automatizaci&oacute;n de tareas y la implementaci&oacute;n de tus propios modelos. <\/p><p>Al final, podr&aacute;s adaptar Ollama a tus proyectos basados en IA.<\/p><h2 class=\"wp-block-heading\" id=\"h-configuracion-de-ollama-en-la-cli\">Configuraci&oacute;n de Ollama en la CLI<\/h2><p>Antes de utilizar Ollama en la CLI, aseg&uacute;rate de que <a href=\"\/co\/tutoriales\/como-instalar-ollama\">lo has instalado en tu sistema<\/a> correctamente. Para verificarlo, abre tu terminal y ejecuta el siguiente comando:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama --version<\/pre><p>Deber&iacute;as ver un resultado similar a este:<\/p><figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/www.hostinger.com\/es\/tutoriales\/wp-content\/uploads\/sites\/32\/2025\/08\/terminal-ollama-version.png\" alt=\"Salida del terminal que muestra la versi&oacute;n instalada de Ollama.\" class=\"wp-image-47715\"><\/figure><p>A continuaci&oacute;n, familiar&iacute;zate con estos comandos esenciales de Ollama:<\/p><figure tabindex=\"0\" class=\"wp-block-table\"><table class=\"has-fixed-layout\"><tbody><tr><td><strong>Comando<\/strong><\/td><td><strong>Descripci&oacute;n<\/strong><\/td><\/tr><tr><td>ollama serve<\/td><td>Inicia Ollama en tu sistema local.<\/td><\/tr><tr><td>ollama create&lt; new_model&gt;<\/td><td>Crea un nuevo modelo a partir de uno existente para personalizarlo o entrenarlo.<\/td><\/tr><tr><td>ollama show&lt; model&gt;<\/td><td>Muestra detalles sobre un modelo espec&iacute;fico, como su configuraci&oacute;n y fecha de lanzamiento.<\/td><\/tr><tr><td>ollama run&lt; model&gt;<\/td><td>Ejecuta el modelo especificado, dej&aacute;ndolo listo para la interacci&oacute;n.<\/td><\/tr><tr><td>ollama pull&lt; model&gt;<\/td><td>Descarga el modelo especificado en tu sistema.<\/td><\/tr><tr><td>ollama list<\/td><td>Enumera todos los modelos descargados.<\/td><\/tr><tr><td>ollama ps<\/td><td>Muestra los modelos que se est&aacute;n ejecutando actualmente.<\/td><\/tr><tr><td>ollama stop&lt; model&gt;<\/td><td>Detiene el modelo en ejecuci&oacute;n especificado.<\/td><\/tr><tr><td>ollama rm&lt; model&gt;<\/td><td>Elimina el modelo especificado de tu sistema.<\/td><\/tr><\/tbody><\/table><\/figure><h2 class=\"wp-block-heading\" id=\"h-uso-esencial-de-ollama-en-la-cli\">Uso esencial de Ollama en la CLI<\/h2><p>En esta secci&oacute;n se describe el uso principal de la CLI de Ollama, desde la interacci&oacute;n con los modelos hasta el almacenamiento de los resultados de los modelos en archivos.<\/p><h3 class=\"wp-block-heading\" id=\"h-ejecucion-de-modelos\">Ejecuci&oacute;n de modelos<\/h3><p>Para empezar a utilizar modelos en Ollama, primero debes descargar el modelo deseado con el comando <strong>pull<\/strong>. Por ejemplo, para descargar Llama<strong> 3.2<\/strong>, ejecuta lo siguiente:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama pull llama3.2<\/pre><p>Espera a que se complete la descarga; el tiempo puede variar en funci&oacute;n del tama&ntilde;o del archivo del modelo.<\/p><p><div class=\"protip\">\n                    <h4 class=\"title\">Consejo profesional<\/h4>\n                    <p>Si no est&aacute;s seguro de qu&eacute; modelo descargar, consulta la <a href=\"https:\/\/ollama.com\/library\" target=\"_blank\" rel=\"noreferrer noopener\">biblioteca oficial de modelos de Ollama<\/a>. Proporciona detalles importantes sobre cada modelo, incluidas las opciones de personalizaci&oacute;n, los idiomas compatibles y los casos de uso recomendados.<\/p>\n                <\/div><\/p><p>Despu&eacute;s de extraer el modelo, puedes ejecutarlo con un comando predefinido como este:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Explain the basics of machine learning.\"<\/pre><p>Este es el resultado esperado:<\/p><figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/www.hostinger.com\/es\/tutoriales\/wp-content\/uploads\/sites\/32\/2025\/08\/terminal-llama-3-2-output-machine-learning-1536x878-1.png\" alt=\"Terminal que muestra la respuesta de un modelo Ollama sobre el aprendizaje autom&aacute;tico.\" class=\"wp-image-47716\"><\/figure><p>Como alternativa, ejecuta el modelo sin una solicitud para iniciar una sesi&oacute;n interactiva:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2<\/pre><p>En este modo, puedes introducir tus consultas o instrucciones y el modelo generar&aacute; respuestas. Tambi&eacute;n puedes hacer preguntas de seguimiento para obtener informaci&oacute;n m&aacute;s detallada o aclarar una respuesta anterior, como por ejemplo:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">&iquest;Podr&iacute;a explicar con m&aacute;s detalle c&oacute;mo se utiliza el aprendizaje autom&aacute;tico en el sector sanitario?<\/pre><p>Cuando hayas terminado de interactuar con el modelo, escribe:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">\/bye<\/pre><p>Esto cerrar&aacute; la sesi&oacute;n y te devolver&aacute; a la interfaz normal del terminal.<\/p><p><div class=\"protip\">\n                    <h4 class=\"title\">Consejo profesional<\/h4>\n                    <p>Aprende a <a href=\"\/co\/tutoriales\/prompt-engineering\">crear indicaciones de IA efectivas<\/a> para mejorar tus resultados y tus interacciones con los modelos de Ollama.<\/p>\n                <\/div><\/p><h3 class=\"wp-block-heading\" id=\"h-entrenamiento-de-modelos\">Entrenamiento de modelos<\/h3><p>Aunque los modelos de c&oacute;digo abierto preentrenados, como Llama<strong> 3.2<\/strong>, funcionan bien para tareas generales como la generaci&oacute;n de contenido, es posible que no siempre satisfagan las necesidades de casos de uso espec&iacute;ficos. Para mejorar la precisi&oacute;n de un modelo en un tema concreto, es necesario entrenarlo con datos relevantes.<\/p><p>Sin embargo, ten en cuenta que estos modelos tienen <strong>limitaciones de memoria a corto plazo<\/strong>, lo que significa que los datos de entrenamiento solo se conservan durante la conversaci&oacute;n activa.&nbsp;<\/p><p>Cuando salgas de la sesi&oacute;n y comiences una nueva, el modelo no recordar&aacute; la informaci&oacute;n con la que lo entrenaste anteriormente.<\/p><p>Para entrenar el modelo, inicia una sesi&oacute;n interactiva. A continuaci&oacute;n, inicia el entrenamiento escribiendo un mensaje como:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">Hola, quiero que aprendas sobre [tema]. &iquest;Puedo ense&ntilde;arte?<\/pre><p>El modelo responder&aacute; con algo como:<\/p><figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/www.hostinger.com\/es\/tutoriales\/wp-content\/uploads\/sites\/32\/2025\/08\/terminal-llama-3-2-output-training-1536x117-1.png\" alt=\"Terminal que muestra la respuesta de un modelo Ollama a una indicaci&oacute;n de entrenamiento.\" class=\"wp-image-47717\"><\/figure><p>A continuaci&oacute;n, puedes proporcionar informaci&oacute;n b&aacute;sica sobre el tema para ayudar al modelo a comprenderlo:<\/p><figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/www.hostinger.com\/es\/tutoriales\/wp-content\/uploads\/sites\/32\/2025\/08\/terminal-llama-3-2-prompt-training-1536x831-1.png\" alt=\"Terminal que muestra un mensaje para fines de formaci&oacute;n.\" class=\"wp-image-47718\"><\/figure><p>Para continuar con el entrenamiento y proporcionar m&aacute;s informaci&oacute;n, pide al modelo que te haga preguntas sobre el tema. Por ejemplo:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">&iquest;Puedes hacerme algunas preguntas sobre [tema] para ayudarte a entenderlo mejor?<\/pre><p>Una vez que el modelo tenga suficiente contexto sobre el tema, puedes finalizar la formaci&oacute;n y comprobar si el modelo ha retenido estos conocimientos.<\/p><figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/www.hostinger.com\/es\/tutoriales\/wp-content\/uploads\/sites\/32\/2025\/08\/terminal-llama-3-2-response-fast-beauty-phenomenon-1536x827-1.png\" alt=\"Terminal que muestra la respuesta de un modelo Ollama tras el entrenamiento.\" class=\"wp-image-47719\"><\/figure><h3 class=\"wp-block-heading\" id=\"h-solicitar-y-registrar-respuestas-en-archivos\">Solicitar y registrar respuestas en archivos<\/h3><p>En Ollama, puedes pedir al modelo que realice tareas utilizando el contenido de un archivo, como resumir texto o analizar informaci&oacute;n. Esto es especialmente &uacute;til para documentos largos, ya que elimina la necesidad de copiar y pegar texto al dar instrucciones al modelo.<\/p><p>Por ejemplo, si tienes un archivo llamado <strong>input.txt <\/strong>que contiene la informaci&oacute;n que deseas resumir, puedes ejecutar lo siguiente:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Resuma el contenido de este archivo en 50 palabras.\" &lt; input.txt<\/pre><p>El modelo leer&aacute; el contenido del archivo y generar&aacute; un resumen:<\/p><figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/www.hostinger.com\/es\/tutoriales\/wp-content\/uploads\/sites\/32\/2025\/08\/terminal-llama-3-2-response-summary-1536x227-1.png\" alt=\"Terminal que muestra la respuesta de un modelo Ollama al resumir un archivo TXT.\" class=\"wp-image-47720\"><\/figure><p>Ollama tambi&eacute;n te permite registrar las respuestas del modelo en un archivo, lo que facilita su revisi&oacute;n o perfeccionamiento posterior. A continuaci&oacute;n se muestra un ejemplo de c&oacute;mo hacer una pregunta al modelo y guardar el resultado en un archivo:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"H&aacute;blame de las energ&iacute;as renovables.\"&gt; output.txt<\/pre><p>Esto guardar&aacute; la respuesta del modelo en <strong>output.txt<\/strong>:<\/p><figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/www.hostinger.com\/es\/tutoriales\/wp-content\/uploads\/sites\/32\/2025\/08\/terminal-cat-output-1536x511-1.png\" alt=\"Terminal que muestra el contenido del archivo output.txt utilizando el comando cat de Linux.\" class=\"wp-image-47721\"><\/figure><h2 class=\"wp-block-heading\" id=\"h-uso-avanzado-de-ollama-en-la-cli\">Uso avanzado de Ollama en la CLI<\/h2><p>Ahora que ya conoces los conceptos b&aacute;sicos, exploremos usos m&aacute;s avanzados de Ollama a trav&eacute;s de la CLI.<\/p><h3 class=\"wp-block-heading\" id=\"h-creacion-de-modelos-personalizados\">Creaci&oacute;n de modelos personalizados<\/h3><p>Al ejecutar Ollama a trav&eacute;s de la CLI, puedes crear un modelo personalizado basado en tus necesidades espec&iacute;ficas.<\/p><p>Para ello, crea un archivo Modelfile, que es el plano de tu modelo personalizado. El archivo define ajustes clave como el modelo base, los par&aacute;metros que se deben ajustar y c&oacute;mo responder&aacute; el modelo a las indicaciones.<\/p><p>Sigue estos pasos para crear un modelo personalizado en Ollama:<\/p><p><strong>1. Crear un nuevo archivo Modelfile<\/strong><\/p><p>Utiliza un editor de texto como <a href=\"\/co\/tutoriales\/instalar-nano-text-editor\">nano<\/a> para crear un nuevo archivo Modelfile. En este ejemplo, llamaremos al archivo <strong>custom-modelfile<\/strong>:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">nano custom-modelfile<\/pre><p>A continuaci&oacute;n, copia y pega esta plantilla b&aacute;sica de archivo Modelfile, que personalizar&aacute;s en el siguiente paso:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\"># Use Llama 3.2 as the base model\n\nFROM llama3.2\n\n# Adjust model parameters\n\nPARAMETER temperature 0.7\n\nPARAMETER num_ctx 3072\n\nPARAMETER stop \"assistant:\"\n\n# Define model behavior\n\nSYSTEM \"Eres un experto en cyber seguridad.\"\n\n# Customize the conversation template\n\nTEMPLATE \"\"\"{{ if .System }}Advisor: {{ .System }}{{ end }}\n\nClient: {{ .Prompt }}\n\nAdvisor: {{ .Response }}\"\"\"<\/pre><p><strong>2. Personalizar el archivo Modelfile<\/strong><\/p><p>Estos son los elementos clave que puedes personalizar en el archivo Modelfile:<\/p><ul class=\"wp-block-list\">\n<li><strong>Modelo base (FROM):<\/strong> establece el modelo base para tu instancia personalizada. Puedes elegir entre los modelos disponibles, como Llama<strong> 3.2<\/strong>:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">FROM llama3.2<\/pre><ul class=\"wp-block-list\">\n<li><strong>Par&aacute;metros (PARAMETER):<\/strong> controla el comportamiento del modelo, como por ejemplo:\n<ul class=\"wp-block-list\">\n<li><strong>Temperatura:<\/strong> ajusta la creatividad del modelo. Los valores m&aacute;s altos, como<strong> 1,0, <\/strong>lo hacen m&aacute;s creativo, mientras que los m&aacute;s bajos, como<strong> 0,5, <\/strong>lo hacen m&aacute;s espec&iacute;fico.<\/li>\n<\/ul>\n<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">PARAMETER temperature 0.9<\/pre><ul class=\"wp-block-list\">\n<li><strong>Ventana de contexto (num_ctx):<\/strong> define la cantidad de texto anterior que el modelo utiliza como contexto.<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">PAR&Aacute;METRO num_ctx 4096<\/pre><ul class=\"wp-block-list\">\n<li><strong>Mensaje del sistema (SYSTEM):<\/strong> define c&oacute;mo debe comportarse el modelo. Por ejemplo, puedes indicarle que act&uacute;e como un personaje espec&iacute;fico o que evite responder a preguntas irrelevantes:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">SYSTEM &ldquo;Eres un experto en ciberseguridad. Responde solo a preguntas relacionadas con la ciberseguridad. Si te preguntan algo que no est&eacute; relacionado, responde con: &laquo;Solo respondo preguntas relacionadas con la ciberseguridad&raquo;.&rsquo;\"<\/pre><ul class=\"wp-block-list\">\n<li><strong>Plantilla (TEMPLATE):<\/strong> personaliza c&oacute;mo estructurar la interacci&oacute;n entre el usuario y el modelo. Por ejemplo:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">TEMPLATE \"\"\"{{ if .System }}&lt;|start|&gt;system\n\n{{ .System }}&lt;|end|&gt;{{ end }}\n\n&lt;|start|&gt;user\n\n{{ .Prompt }}&lt;|end|&gt;\n\n&lt;|start|&gt;assistant\n\n\"\"\"<\/pre><p>Despu&eacute;s de realizar los ajustes necesarios, guarda el archivo y sal de <strong>nano <\/strong>pulsando <strong>Ctrl + X &rarr; Y &rarr; Intro<\/strong>.<\/p><p><strong>3. Crear y ejecutar el modelo personalizado<\/strong><\/p><p>Una vez que tu archivo Modelfile est&eacute; listo, utiliza el siguiente comando para crear un modelo basado en el archivo:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama create custom-model-name -f .\/custom-modelfile<\/pre><p>Deber&iacute;as ver un resultado que indica que el modelo se ha creado correctamente:<\/p><figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/www.hostinger.com\/es\/tutoriales\/wp-content\/uploads\/sites\/32\/2025\/08\/terminal-ollama-create-custom-model-name-success-1536x353-1.png\" alt=\"Salida del terminal que muestra la creaci&oacute;n correcta de un modelo personalizado.\" class=\"wp-image-47723\"><\/figure><p>A continuaci&oacute;n, ejec&uacute;talo como cualquier otro modelo:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run custom-model-name<\/pre><p>Esto iniciar&aacute; el modelo con las personalizaciones que hayas aplicado y podr&aacute;s interactuar con &eacute;l:<\/p><figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/www.hostinger.com\/es\/tutoriales\/wp-content\/uploads\/sites\/32\/2025\/08\/terminal-custom-model-name-response.png\" alt=\"Terminal que muestra la respuesta de un modelo personalizado a un tema no relacionado.\" class=\"wp-image-47724\"><\/figure><p>Puedes modificar y perfeccionar continuamente el archivo Modelfile ajustando los par&aacute;metros, editando los mensajes del sistema, a&ntilde;adiendo plantillas m&aacute;s avanzadas o incluso incluyendo tus propios conjuntos de datos. Guarda los cambios y vuelve a ejecutar el modelo para ver los efectos.<\/p><h3 class=\"wp-block-heading\" id=\"h-automatizacion-de-tareas-con-scripts\">Automatizaci&oacute;n de tareas con scripts<\/h3><p>La automatizaci&oacute;n de tareas repetitivas en Ollama puede ahorrar tiempo y garantizar la coherencia del flujo de trabajo.&nbsp;<\/p><p>Mediante el uso de scripts bash, puedes ejecutar comandos autom&aacute;ticamente. Por otra parte, con las tareas cron, puedes programar tareas para que se ejecuten en momentos espec&iacute;ficos.&nbsp;<\/p><p>A continuaci&oacute;n te explicamos c&oacute;mo empezar:<\/p><p><strong>Crear y ejecutar scripts bash<\/strong><\/p><p>Puedes <a href=\"\/co\/tutoriales\/bash-script-linux\">crear un script bash<\/a> que ejecute los comandos de Ollama. A continuaci&oacute;n te explicamos c&oacute;mo:<\/p><ol class=\"wp-block-list\">\n<li>Abre un editor de texto y crea un nuevo archivo llamado <strong>ollama-script.sh<\/strong>:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">nano ollama-script.sh<\/pre><ol start=\"2\" class=\"wp-block-list\">\n<li>A&ntilde;ade los comandos de Ollama necesarios dentro del script. Por ejemplo, para ejecutar un modelo y guardar el resultado en un archivo:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">#!\/bin\/bash\n\n# Run the model and save the output to a file\n\nollama run llama3.2 \"&iquest;Cu&aacute;les son las &uacute;ltimas tendencias en IA?\" &gt; ai-output.txt<\/pre><ol start=\"3\" class=\"wp-block-list\">\n<li>Haz que el script sea ejecutable otorg&aacute;ndole los permisos correctos:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">chmod +x ollama-script.sh<\/pre><ol start=\"4\" class=\"wp-block-list\">\n<li>Ejecuta el script directamente desde el terminal:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">.\/ollama-script.sh<\/pre><p><strong>Configurar tareas cron para automatizar tareas<\/strong><\/p><p>Puedes combinar tu script con una <a href=\"\/co\/tutoriales\/cron-job\">tarea cron<\/a> para automatizar tareas como la ejecuci&oacute;n peri&oacute;dica de modelos.&nbsp;<\/p><p>A continuaci&oacute;n se explica c&oacute;mo configurar una tarea cron para ejecutar scripts de Ollama autom&aacute;ticamente:<\/p><ol class=\"wp-block-list\">\n<li>Abre el editor crontab escribiendo:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">crontab -e<\/pre><ol start=\"2\" class=\"wp-block-list\">\n<li>A&ntilde;ade una l&iacute;nea especificando la programaci&oacute;n y el script que deseas ejecutar. Por ejemplo, para ejecutar el script todos los domingos a medianoche:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">0 0 * * 0 \/path\/to\/ollama-script.sh<\/pre><ol start=\"3\" class=\"wp-block-list\">\n<li>Guarda y sal del editor despu&eacute;s de a&ntilde;adir la tarea cron.<\/li>\n<\/ol><h2 class=\"wp-block-heading\" id=\"h-casos-de-uso-habituales-de-la-cli\">Casos de uso habituales de la CLI<\/h2><p>A continuaci&oacute;n se muestran algunos ejemplos reales del uso de la CLI de Ollama.<\/p><p><strong>Generaci&oacute;n de texto<\/strong><\/p><p>Puedes utilizar modelos preentrenados para crear res&uacute;menes, generar contenido o responder preguntas espec&iacute;ficas.<\/p><ul class=\"wp-block-list\">\n<li>Resumir un archivo de texto grande:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Resume el siguiente texto:\" &lt; long-document.txt<\/pre><ul class=\"wp-block-list\">\n<li>Generar contenido como entradas de blog o descripciones de productos:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Escribe un art&iacute;culo breve sobre las ventajas de utilizar la IA en el &aacute;mbito sanitario.\"&gt; article.txt<\/pre><ul class=\"wp-block-list\">\n<li>Responder preguntas espec&iacute;ficas para ayudar en la investigaci&oacute;n:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"&iquest;Cu&aacute;les son las &uacute;ltimas tendencias en IA y c&oacute;mo afectar&aacute;n a la asistencia sanitaria?\"<\/pre><p><strong>Procesamiento, an&aacute;lisis y predicci&oacute;n de datos<\/strong><\/p><p>Ollama tambi&eacute;n te permite realizar tareas de procesamiento de datos, como la clasificaci&oacute;n de textos, el an&aacute;lisis de opiniones y la predicci&oacute;n.<\/p><ul class=\"wp-block-list\">\n<li>Clasificar texto en sentimiento positivo, negativo o neutro:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Analiza el sentimiento de esta rese&ntilde;a de un cliente: &laquo;El producto es fant&aacute;stico, pero la entrega fue lenta&raquo;.'\"<\/pre><ul class=\"wp-block-list\">\n<li>Categorizar texto en categor&iacute;as predefinidas:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Clasifica este texto en las siguientes categor&iacute;as: Noticias, Opini&oacute;n o Rese&ntilde;a.\" &lt; textfile.txt<\/pre><ul class=\"wp-block-list\">\n<li>Predicci&oacute;n de un resultado basado en los datos proporcionados:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Predice la tendencia del precio de las acciones para el pr&oacute;ximo mes bas&aacute;ndote en los siguientes datos:\" &lt; stock-data.txt<\/pre><p><strong>Integraci&oacute;n con herramientas externas<\/strong><\/p><p>Otro uso habitual de la CLI de Ollama es combinarla con herramientas externas para automatizar el procesamiento de datos y ampliar las capacidades de otros programas.<\/p><ul class=\"wp-block-list\">\n<li>Integraci&oacute;n de Ollama con una API de terceros para recuperar datos, procesarlos y generar resultados:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Predice la tendencia del precio de las acciones para el pr&oacute;ximo mes bas&aacute;ndote en los siguientes datos:\" &lt; stock-data.txt<\/pre><ul class=\"wp-block-list\">\n<li>Uso de c&oacute;digo Python para ejecutar un subproceso con Ollama:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">import subprocess\n\nresult = subprocess.run(['ollama', 'run', 'llama3.2', 'Dame las &uacute;ltimas tendencias del mercado burs&aacute;til.'], capture_output=True)\n\nprint(result.stdout.decode())<\/pre><figure class=\"wp-block-image size-large\"><a href=\"\/co\/servidor-vps\" target=\"_blank\" rel=\"noreferrer noopener\"><img decoding=\"async\" width=\"1024\" height=\"300\" src=\"https:\/\/blog.hostinger.io\/co-tutoriales\/wp-content\/uploads\/sites\/40\/2023\/02\/ES-VPS-hosting_in-text-banner-1024x300.png\" alt=\"\" class=\"wp-image-29287\" srcset=\"https:\/\/www.hostinger.com\/co\/tutoriales\/wp-content\/uploads\/sites\/40\/2023\/02\/ES-VPS-hosting_in-text-banner.png 1024w, https:\/\/www.hostinger.com\/co\/tutoriales\/wp-content\/uploads\/sites\/40\/2023\/02\/ES-VPS-hosting_in-text-banner-300x88.png 300w, https:\/\/www.hostinger.com\/co\/tutoriales\/wp-content\/uploads\/sites\/40\/2023\/02\/ES-VPS-hosting_in-text-banner-150x44.png 150w, https:\/\/www.hostinger.com\/co\/tutoriales\/wp-content\/uploads\/sites\/40\/2023\/02\/ES-VPS-hosting_in-text-banner-768x225.png 768w, https:\/\/www.hostinger.com\/co\/tutoriales\/wp-content\/uploads\/sites\/40\/2023\/02\/ES-VPS-hosting_in-text-banner-1536x450.png 1536w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/a><\/figure><h2 class=\"wp-block-heading\" id=\"h-conclusion\">Conclusi&oacute;n<\/h2><p>En este art&iacute;culo, has aprendido los conceptos b&aacute;sicos del uso de Ollama a trav&eacute;s de la CLI, incluyendo la ejecuci&oacute;n de comandos, la interacci&oacute;n con modelos y el registro de las respuestas de los modelos en archivos.<\/p><p>Mediante la interfaz de l&iacute;nea de comandos, tambi&eacute;n puedes realizar tareas m&aacute;s avanzadas, como crear nuevos modelos basados en los existentes, automatizar flujos de trabajo complejos con scripts y tareas cron, e integrar Ollama con herramientas externas.<\/p><p>Te animamos a explorar las funciones de personalizaci&oacute;n de Ollama para aprovechar todo su potencial y mejorar tus proyectos de IA.&nbsp;<\/p><p>Si tienes alguna pregunta o deseas compartir tu experiencia con Ollama en la CLI, no dudes en utilizar el cuadro de comentarios que aparece a continuaci&oacute;n.<\/p><h2 class=\"wp-block-heading\" id=\"h-tutorial-de-ollama-cli-preguntas-frecuentes\">Tutorial de Ollama CLI &ndash; Preguntas frecuentes<\/h2><p>Esta secci&oacute;n cubre algunas de las preguntas m&aacute;s comunes sobre el uso de Ollama CLI.&nbsp;<\/p><div id=\"rank-math-faq\" class=\"rank-math-block\">\n<div class=\"rank-math-list \">\n<div id=\"faq-question-694427fec2a3f\" class=\"rank-math-list-item\">\n<h3 class=\"rank-math-question \">&iquest;Qu&eacute; puedo hacer con la versi&oacute;n CLI de Ollama?<\/h3>\n<div class=\"rank-math-answer \">\n\n<p>Con la versi&oacute;n CLI de Ollama, puedes ejecutar modelos, generar texto, realizar tareas de procesamiento de datos como el an&aacute;lisis de sentimientos, automatizar flujos de trabajo con scripts, crear modelos personalizados e integrar Ollama con herramientas externas o API para aplicaciones avanzadas.<\/p>\n\n<\/div>\n<\/div>\n<div id=\"faq-question-694427fec2a46\" class=\"rank-math-list-item\">\n<h3 class=\"rank-math-question \">&iquest;C&oacute;mo instalo modelos para Ollama en la CLI?<\/h3>\n<div class=\"rank-math-answer \">\n\n<p>Para instalar modelos a trav&eacute;s de la CLI, primero aseg&uacute;rate de haber descargado Ollama en tu sistema.&nbsp;u003cbr \/u003eu003cbr \/u003eA continuaci&oacute;n, utiliza el comando u003cstrongu003eollama pull u003c\/strongu003eseguido del nombre del modelo. Por ejemplo, para instalar Llamau003cstrongu003e 3.2u003c\/strongu003e, ejecuta u003cstrongu003eollama pull llama3.2u003c\/strongu003e.<\/p>\n\n<\/div>\n<\/div>\n<div id=\"faq-question-694427fec2a47\" class=\"rank-math-list-item\">\n<h3 class=\"rank-math-question \">&iquest;Puedo utilizar modelos multimodales en la versi&oacute;n CLI?<\/h3>\n<div class=\"rank-math-answer \">\n\n<p>Aunque t&eacute;cnicamente es posible utilizar modelos multimodales como LlaVa en la CLI de Ollama, no es conveniente porque la CLI est&aacute; optimizada para tareas basadas en texto.&nbsp;u003cbr \/u003eu003cbr \/u003eTe recomendamos u003ca href=u0022\/es\/tutoriales\/como-configurar-ollama-guiu0022u003eutilizar Ollama con herramientas GUIu003c\/au003e para realizar tareas relacionadas con im&aacute;genes.<\/p>\n\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Al ser una herramienta potente para ejecutar modelos de lenguaje grandes (LLM) de forma local, Ollama ofrece a desarrolladores, cient&iacute;ficos de datos y usuarios t&eacute;cnicos un mayor control y flexibilidad a la hora de personalizar modelos. Aunque puedes utilizar Ollama con interfaces gr&aacute;ficas de terceros, como Open WebUI, para interacciones m&aacute;s sencillas, ejecutarlo a trav&eacute;s [&#8230;]<\/p>\n<p><a class=\"btn btn-secondary understrap-read-more-link\" href=\"\/co\/tutoriales\/tutorial-de-ollama-cli\">Read More&#8230;<\/a><\/p>\n","protected":false},"author":353,"featured_media":45863,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"rank_math_title":"Tutorial de Ollama CLI ejecutado a trav\u00e9s del Terminal","rank_math_description":"Aprende a usar Ollama CLI desde el terminal. Gu\u00eda completa para ejecutar, personalizar y automatizar modelos de lenguaje grandes (LLM).","rank_math_focus_keyword":"tutorial de ollama cli","footnotes":""},"categories":[5700],"tags":[],"class_list":["post-45628","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-vps"],"hreflangs":[{"locale":"en-US","link":"https:\/\/www.hostinger.com\/tutorials\/ollama-cli-tutorial","default":0},{"locale":"fr-FR","link":"https:\/\/www.hostinger.com\/fr\/tutoriels\/tutoriel-ollama-cli","default":0},{"locale":"es-ES","link":"https:\/\/www.hostinger.com\/es\/tutoriales\/que-es-nslookup-3","default":0},{"locale":"id-ID","link":"https:\/\/www.hostinger.com\/id\/tutorial\/panduan-ollama-cli","default":0},{"locale":"en-UK","link":"https:\/\/www.hostinger.com\/uk\/tutorials\/ollama-cli-tutorial","default":0},{"locale":"en-MY","link":"https:\/\/www.hostinger.com\/my\/tutorials\/candle-business-name-ideas-9","default":0},{"locale":"en-PH","link":"https:\/\/www.hostinger.com\/ph\/tutorials\/ollama-cli-tutorial","default":0},{"locale":"en-IN","link":"https:\/\/www.hostinger.com\/in\/tutorials\/ollama-cli-tutorial","default":0},{"locale":"en-CA","link":"https:\/\/www.hostinger.com\/ca\/tutorials\/ollama-cli-tutorial","default":0},{"locale":"es-AR","link":"https:\/\/www.hostinger.com\/ar\/tutoriales\/que-es-nslookup-3","default":0},{"locale":"es-MX","link":"https:\/\/www.hostinger.com\/mx\/tutoriales\/que-es-nslookup-3","default":0},{"locale":"es-CO","link":"https:\/\/www.hostinger.com\/co\/tutoriales\/que-es-nslookup-3","default":0},{"locale":"en-AU","link":"https:\/\/www.hostinger.com\/au\/tutorials\/ollama-cli-tutorial","default":0},{"locale":"en-NG","link":"https:\/\/www.hostinger.com\/ng\/tutorials\/ollama-cli-tutorial","default":0}],"acf":[],"_links":{"self":[{"href":"https:\/\/www.hostinger.com\/co\/tutoriales\/wp-json\/wp\/v2\/posts\/45628","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.hostinger.com\/co\/tutoriales\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.hostinger.com\/co\/tutoriales\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.hostinger.com\/co\/tutoriales\/wp-json\/wp\/v2\/users\/353"}],"replies":[{"embeddable":true,"href":"https:\/\/www.hostinger.com\/co\/tutoriales\/wp-json\/wp\/v2\/comments?post=45628"}],"version-history":[{"count":1,"href":"https:\/\/www.hostinger.com\/co\/tutoriales\/wp-json\/wp\/v2\/posts\/45628\/revisions"}],"predecessor-version":[{"id":45862,"href":"https:\/\/www.hostinger.com\/co\/tutoriales\/wp-json\/wp\/v2\/posts\/45628\/revisions\/45862"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.hostinger.com\/co\/tutoriales\/wp-json\/wp\/v2\/media\/45863"}],"wp:attachment":[{"href":"https:\/\/www.hostinger.com\/co\/tutoriales\/wp-json\/wp\/v2\/media?parent=45628"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.hostinger.com\/co\/tutoriales\/wp-json\/wp\/v2\/categories?post=45628"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.hostinger.com\/co\/tutoriales\/wp-json\/wp\/v2\/tags?post=45628"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}