{"id":53233,"date":"2026-02-04T18:24:15","date_gmt":"2026-02-04T21:24:15","guid":{"rendered":"\/br\/tutoriais\/?p=53233"},"modified":"2026-02-04T18:24:18","modified_gmt":"2026-02-04T21:24:18","slug":"tutorial-ollama-cli","status":"publish","type":"post","link":"\/br\/tutoriais\/tutorial-ollama-cli","title":{"rendered":"Tutorial Ollama CLI: como usar o Ollama pelo terminal"},"content":{"rendered":"<p>Como uma ferramenta poderosa para executar grandes modelos de linguagem (LLMs) localmente, o Ollama d&aacute; a desenvolvedores, cientistas de dados e usu&aacute;rios t&eacute;cnicos mais controle e flexibilidade para personalizar modelos.<\/p><p>Embora voc&ecirc; possa usar o Ollama com interfaces gr&aacute;ficas de terceiros, como o Open WebUI, para intera&ccedil;&otilde;es mais simples, rodar a ferramenta pela interface de linha de comando (CLI) permite registrar respostas em arquivos e automatizar fluxos de trabalho com scripts.<\/p><p>Este guia vai mostrar como usar o Ollama via CLI &ndash; desde os comandos b&aacute;sicos e a intera&ccedil;&atilde;o com modelos at&eacute; a automa&ccedil;&atilde;o de tarefas e a cria&ccedil;&atilde;o dos seus pr&oacute;prios modelos. Ao final, voc&ecirc; vai conseguir adaptar o Ollama aos seus projetos com IA.<\/p><p>\n\n\n\n\n\n\n<\/p><h2 class=\"wp-block-heading\" id=\"h-setting-up-ollama-in-the-cli\">Configurando o Ollama na CLI<\/h2><p>Antes de usar o <a href=\"\/br\/tutoriais\/o-que-e-ollama\">Ollama<\/a> na CLI, confirme que ele <a href=\"\/br\/tutoriais\/como-instalar-ollama\">foi instalado corretamente no seu sistema<\/a>. Para isso, abra o terminal e execute o comando abaixo:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama --version<\/pre><p>Voc&ecirc; deve ver uma sa&iacute;da parecida com esta:<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69fc612467528\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-large wp-lightbox-container\"><img decoding=\"async\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"\/tutorials\/wp-content\/uploads\/sites\/2\/2024\/10\/terminal-ollama-version-1024x177.png\" alt=\"Sa&iacute;da do terminal exibindo a vers&atilde;o instalada do Ollama\" class=\"wp-image-118187\"><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Enlarge\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Em seguida, vale conhecer os comandos essenciais do Ollama:<\/p><figure tabindex=\"0\" class=\"wp-block-table\"><table><thead><tr><th>Comando<\/th><th>Descri&ccedil;&atilde;o<\/th><\/tr><\/thead><tbody><tr><td><code>ollama serve<\/code><\/td><td>Inicia o Ollama no seu sistema local.<\/td><\/tr><tr><td><code>ollama create &lt;novo_modelo&gt;<\/code><\/td><td>Cria um novo modelo a partir de um existente, para personaliza&ccedil;&atilde;o ou treinamento.<\/td><\/tr><tr><td><code>ollama show &lt;modelo&gt;<\/code><\/td><td>Exibe detalhes de um modelo espec&iacute;fico, como configura&ccedil;&atilde;o e data de lan&ccedil;amento.<\/td><\/tr><tr><td><code>ollama run &lt;modelo&gt;<\/code><\/td><td>Executa o modelo escolhido e o deixa pronto para uso.<\/td><\/tr><tr><td><code>ollama pull &lt;modelo&gt;<\/code><\/td><td>Baixa o modelo especificado para o seu sistema.<\/td><\/tr><tr><td><code>ollama list<\/code><\/td><td>Lista todos os modelos baixados.<\/td><\/tr><tr><td><code>ollama ps<\/code><\/td><td>Mostra os modelos que est&atilde;o rodando no momento.<\/td><\/tr><tr><td><code>ollama stop &lt;modelo&gt;<\/code><\/td><td>Para a execu&ccedil;&atilde;o do modelo indicado.<\/td><\/tr><tr><td><code>ollama rm &lt;modelo&gt;<\/code><\/td><td>Remove o modelo indicado do seu sistema.<\/td><\/tr><\/tbody><\/table><\/figure><h2 class=\"wp-block-heading\" id=\"h-essential-usage-of-ollama-in-the-cli\">Usos principais do Ollama CLI<\/h2><p>Esta se&ccedil;&atilde;o mostra os principais usos do Ollama na CLI, desde interagir com modelos at&eacute; salvar respostas em arquivos.<\/p><h3 class=\"wp-block-heading\" id=\"h-running-models\">Executando modelos<\/h3><p>Para come&ccedil;ar a usar modelos no Ollama, primeiro voc&ecirc; precisa baixar o modelo desejado com o comando pull. Por exemplo, para baixar o Llama <strong>3.2<\/strong>, execute:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama pull llama3.2<\/pre><p>Aguarde o download terminar &ndash; o tempo pode variar conforme o tamanho do arquivo do modelo.<\/p><p>\n\n\n<div class=\"protip\">\n                    <h4 class=\"title\">Dica<\/h4>\n                    <p>Se voc&ecirc; n&atilde;o tiver certeza de qual modelo baixar, confira a <a href=\"https:\/\/ollama.com\/library\" target=\"_blank\" rel=\"noopener\">biblioteca oficial de modelos do Ollama<\/a>. Ela mostra detalhes importantes, como op&ccedil;&otilde;es de personaliza&ccedil;&atilde;o, suporte a idiomas e casos de uso recomendados.<\/p>\n                <\/div>\n\n\n\n<\/p><p>Depois de baixar o modelo, voc&ecirc; pode execut&aacute;-lo com um prompt j&aacute; definido, como neste exemplo:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Explique os conceitos b&aacute;sicos de machine learning.\"<\/pre><p>Aqui est&aacute; o tipo de sa&iacute;da que voc&ecirc; deve ver:<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69fc612468fba\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-large wp-lightbox-container\"><img decoding=\"async\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"\/tutorials\/wp-content\/uploads\/sites\/2\/2024\/10\/terminal-llama-3-2-output-machine-learning-1024x585.png\" alt=\"Terminal exibindo a resposta de um modelo do Ollama sobre machine learning\" class=\"wp-image-118191\"><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Enlarge\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Como alternativa, voc&ecirc; pode iniciar o modelo sem um prompt para abrir uma sess&atilde;o interativa:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2<\/pre><p>Nesse modo, voc&ecirc; pode digitar suas perguntas ou instru&ccedil;&otilde;es, e o modelo vai gerar as respostas. Tamb&eacute;m d&aacute; para fazer perguntas de acompanhamento para aprofundar o assunto ou esclarecer algo que ele respondeu antes, como:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">Voc&ecirc; pode explicar melhor como o machine learning &eacute; usado na &aacute;rea da sa&uacute;de?<\/pre><p>Quando terminar a sess&atilde;o, digite:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">\/bye<\/pre><p>Isso encerra a intera&ccedil;&atilde;o e te leva de volta ao terminal normal.<\/p><p>\n\n\n<div class=\"protip\">\n                    <h4 class=\"title\">Dica de leitura<\/h4>\n                    <p>Aprenda a criar <a href=\"\/br\/tutoriais\/engenharia-de-prompt-dicas\">prompts de IA mais eficientes<\/a> para melhorar seus resultados e suas intera&ccedil;&otilde;es com modelos do Ollama.<\/p>\n                <\/div>\n\n\n\n<\/p><h3 class=\"wp-block-heading\" id=\"h-training-models\">Treinando modelos<\/h3><p>Embora modelos open source pr&eacute;-treinados como o Llama <strong>3.2<\/strong> funcionem bem para tarefas gerais, como gera&ccedil;&atilde;o de conte&uacute;do, eles nem sempre atendem &agrave;s necessidades de casos de uso mais espec&iacute;ficos. Para melhorar a precis&atilde;o do modelo em um assunto espec&iacute;fico, voc&ecirc; precisa trein&aacute;-lo com dados relevantes.<\/p><p>No entanto, vale lembrar que esses modelos t&ecirc;m l<strong>imita&ccedil;&otilde;es de mem&oacute;ria de curto prazo<\/strong>. Isso significa que os dados de treinamento s&oacute; ficam dispon&iacute;veis durante a conversa ativa. Quando voc&ecirc; encerra a sess&atilde;o e inicia outra, o modelo n&atilde;o vai se lembrar das informa&ccedil;&otilde;es que voc&ecirc; ensinou anteriormente.<\/p><p>Para treinar o modelo, inicie uma sess&atilde;o interativa. Em seguida, comece o treinamento digitando um prompt como:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">Oi, eu quero que voc&ecirc; aprenda sobre [t&oacute;pico]. Posso te treinar sobre isso?<\/pre><p>O modelo vai responder com algo parecido com:<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69fc61246ac12\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-large is-resized wp-lightbox-container\"><img decoding=\"async\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"\/tutorials\/wp-content\/uploads\/sites\/2\/2024\/10\/terminal-llama-3-2-output-training-1024x78.png\" alt=\"Terminal exibindo a resposta de um modelo do Ollama a um prompt de treinamento\" class=\"wp-image-118192\" style=\"width:840px;height:auto\"><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Enlarge\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Depois, voc&ecirc; pode fornecer informa&ccedil;&otilde;es b&aacute;sicas sobre o t&oacute;pico para ajudar o modelo a entender melhor:<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69fc61246c9f0\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-large wp-lightbox-container\"><img decoding=\"async\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"\/tutorials\/wp-content\/uploads\/sites\/2\/2024\/10\/terminal-llama-3-2-prompt-training-1024x554.png\" alt=\"Terminal exibindo um prompt usado para treinamento\" class=\"wp-image-118193\"><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Enlarge\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Para continuar o treinamento e passar mais informa&ccedil;&otilde;es, pe&ccedil;a para o modelo te fazer perguntas sobre o assunto. Por exemplo:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">Voc&ecirc; pode me fazer algumas perguntas sobre [t&oacute;pico] para entender melhor?<\/pre><p>Quando o modelo j&aacute; tiver contexto suficiente, voc&ecirc; pode encerrar o treinamento e testar se ele consegue usar esse conhecimento.<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69fc61246e350\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-large wp-lightbox-container\"><img decoding=\"async\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"\/tutorials\/wp-content\/uploads\/sites\/2\/2024\/10\/terminal-llama-3-2-response-fast-beauty-phenomenon-1024x551.png\" alt=\"Terminal exibindo a resposta do modelo do Ollama ap&oacute;s o treinamento\" class=\"wp-image-118194\"><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Enlarge\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><h3 class=\"wp-block-heading\" id=\"h-prompting-and-logging-responses-to-files\">Enviando prompts e salvando respostas em arquivos (logging)<\/h3><p>No Ollama, voc&ecirc; pode pedir para o modelo executar tarefas usando o conte&uacute;do de um arquivo, como resumir um texto ou analisar informa&ccedil;&otilde;es. Isso &eacute; especialmente &uacute;til para documentos longos, pois elimina a necessidade de copiar e colar o texto sempre que voc&ecirc; quiser dar uma instru&ccedil;&atilde;o ao modelo.<\/p><p>Por exemplo, se voc&ecirc; tiver um arquivo chamado <strong>input.txt<\/strong> com as informa&ccedil;&otilde;es que deseja resumir, execute o comando abaixo:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Resuma o conte&uacute;do deste arquivo em 50 palavras.\" &lt; input.txt<\/pre><p>O modelo vai ler o conte&uacute;do do arquivo e gerar um resumo:<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69fc61246fdab\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-large wp-lightbox-container\"><img decoding=\"async\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"\/tutorials\/wp-content\/uploads\/sites\/2\/2024\/10\/terminal-llama-3-2-response-summary-1024x151.png\" alt=\"Terminal exibindo a resposta de um modelo do Ollama ao resumir um arquivo TXT\" class=\"wp-image-118195\"><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Enlarge\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>O Ollama tamb&eacute;m permite salvar as respostas do modelo em um arquivo, o que facilita revisar ou ajustar o conte&uacute;do depois. Veja um exemplo em que voc&ecirc; faz uma pergunta e salva a sa&iacute;da em um arquivo:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Me conte sobre energia renov&aacute;vel.\" &gt; output.txt<\/pre><p>Isso vai salvar a resposta do modelo em <strong>output.txt<\/strong>:<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69fc61247198a\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-large wp-lightbox-container\"><img decoding=\"async\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"\/tutorials\/wp-content\/uploads\/sites\/2\/2024\/10\/terminal-cat-output-1024x341.png\" alt=\"Terminal exibindo o conte&uacute;do de output.txt usando o comando cat no Linux\" class=\"wp-image-118196\"><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Enlarge\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><h2 class=\"wp-block-heading\" id=\"h-advanced-usage-of-ollama-in-the-cli\">Uso avan&ccedil;ado do Ollama CLI<\/h2><p>Agora que voc&ecirc; j&aacute; entendeu o b&aacute;sico, vamos explorar usos mais avan&ccedil;ados do Ollama pelo terminal.<\/p><h3 class=\"wp-block-heading\" id=\"h-creating-custom-models\">Criando modelos personalizados<\/h3><p>Ao rodar o Ollama via CLI, voc&ecirc; pode criar um modelo personalizado de acordo com as suas necessidades.<\/p><p>Para isso, voc&ecirc; vai criar um Modelfile, que funciona como o &ldquo;molde&rdquo; do seu modelo. Esse arquivo define configura&ccedil;&otilde;es como o modelo base, par&acirc;metros de ajuste e como o modelo deve responder aos prompts.<\/p><p>Veja o passo a passo para criar um modelo personalizado no Ollama:<\/p><p><strong>1. Crie um novo Modelfile<\/strong><\/p><p>Use um editor de texto como o <a href=\"\/br\/tutoriais\/como-instalar-editor-de-texto-nano\/\">nano<\/a> para criar um novo Modelfile. Neste exemplo, vamos chamar o arquivo de <strong>custom-modelfile<\/strong>:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">nano custom-modelfile<\/pre><p>Depois, copie e cole este template b&aacute;sico de Modelfile (voc&ecirc; vai personalizar no pr&oacute;ximo passo):<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\"># Use o Llama 3.2 como modelo base\nFROM llama3.2\n\n# Ajuste os par&acirc;metros do modelo\nPARAMETER temperature 0.7\nPARAMETER num_ctx 3072\nPARAMETER stop \"assistant:\"\n\n# Defina o comportamento do modelo\nSYSTEM \"Voc&ecirc; &eacute; um especialista em ciberseguran&ccedil;a.\"\n\n# Personalize o template da conversa\nTEMPLATE \"\"\"{{ if .System }}Consultor: {{ .System }}{{ end }}\nCliente: {{ .Prompt }}\nConsultor: {{ .Response }}\"\"\"<\/pre><p><strong>2. Personalize o Modelfile<\/strong><\/p><p>Aqui est&atilde;o os principais elementos que voc&ecirc; pode ajustar no Modelfile:<\/p><ul class=\"wp-block-list\">\n<li><strong>Modelo base (FROM).<\/strong> Define o modelo base da sua inst&acirc;ncia personalizada. Voc&ecirc; pode escolher entre modelos dispon&iacute;veis, como o <strong>Llama 3.2<\/strong>:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">FROM llama3.2<\/pre><ul class=\"wp-block-list\">\n<li><strong>Par&acirc;metros (PARAMETER).<\/strong> Controlam o comportamento do modelo, como:\n<ul class=\"wp-block-list\">\n<li><strong>Temperature.<\/strong> Ajusta o n&iacute;vel de criatividade do modelo. Valores mais altos (como <strong>1.0<\/strong>) deixam o modelo mais criativo, enquanto valores mais baixos (como <strong>0.5<\/strong>) deixam as respostas mais focadas.<\/li>\n<\/ul>\n<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">PARAMETER temperature 0.9<\/pre><ul class=\"wp-block-list\">\n<li><strong>Janela de contexto (num_ctx).<\/strong> Define quanto texto anterior o modelo usa como contexto.<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">PARAMETER num_ctx 4096<\/pre><ul class=\"wp-block-list\">\n<li><strong>Mensagem do sistema (SYSTEM).<\/strong> Define como o modelo deve se comportar. Por exemplo, voc&ecirc; pode instru&iacute;-lo a agir como um personagem espec&iacute;fico ou evitar responder perguntas fora do tema:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">SYSTEM \"Voc&ecirc; &eacute; um especialista em ciberseguran&ccedil;a. Responda apenas perguntas relacionadas a ciberseguran&ccedil;a. Se perguntarem algo fora desse tema, responda: 'Eu s&oacute; respondo perguntas relacionadas a ciberseguran&ccedil;a.'\"<\/pre><ul class=\"wp-block-list\">\n<li><strong>Template (TEMPLATE).<\/strong> Permite personalizar como a intera&ccedil;&atilde;o entre usu&aacute;rio e modelo ser&aacute; estruturada. Por exemplo:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">TEMPLATE \"\"\"{{ if .System }}&lt;|start|&gt;system\n{{ .System }}&lt;|end|&gt;{{ end }}\n&lt;|start|&gt;user\n{{ .Prompt }}&lt;|end|&gt;\n&lt;|start|&gt;assistant\n\"\"\"<\/pre><p>Depois de fazer os ajustes necess&aacute;rios, salve o arquivo e saia do <strong>nano<\/strong> pressionando <strong>Ctrl + X &rarr; Y &rarr; Enter<\/strong>.<\/p><p><strong>3. Crie e execute o modelo personalizado<\/strong><\/p><p>Com o Modelfile pronto, use o comando abaixo para criar um modelo baseado nesse arquivo:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama create custom-model-name -f .\/custom-modelfile<\/pre><p>Voc&ecirc; ver&aacute; uma sa&iacute;da indicando que o modelo foi criado com sucesso:<\/p><figure data-wp-context='{\"imageId\":\"69fc612473917\"}' data-wp-interactive=\"core\/image\" class=\"wp-block-image aligncenter size-large wp-lightbox-container\"><img decoding=\"async\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"\/tutorials\/wp-content\/uploads\/sites\/2\/2024\/10\/terminal-ollama-create-custom-model-name-success-1024x235.png\" alt=\"Sa&iacute;da do terminal exibindo a cria&ccedil;&atilde;o bem-sucedida de um modelo personalizado\" class=\"wp-image-118197\"><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Enlarge\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><p>Depois disso, execute o modelo como qualquer outro:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run custom-model-name<\/pre><p>Isso inicia o modelo com as personaliza&ccedil;&otilde;es aplicadas e voc&ecirc; pode interagir normalmente:<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69fc612475356\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-large wp-lightbox-container\"><img decoding=\"async\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"\/tutorials\/wp-content\/uploads\/sites\/2\/2024\/10\/terminal-custom-model-name-response-1024x135.png\" alt=\"Terminal exibindo a resposta de um modelo personalizado para um assunto n&atilde;o relacionado\" class=\"wp-image-118198\"><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Enlarge\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Voc&ecirc; pode ajustar e refinar o Modelfile sempre que quiser, alterando par&acirc;metros, editando mensagens do sistema, adicionando templates mais avan&ccedil;ados ou at&eacute; incluindo seus pr&oacute;prios datasets. Depois, salve as mudan&ccedil;as e rode o modelo novamente para ver o resultado.<\/p><h3 class=\"wp-block-heading\" id=\"h-automating-tasks-with-scripts\">Automatizando tarefas com scripts<\/h3><p>Automatizar tarefas repetitivas no Ollama pode economizar tempo e manter a consist&ecirc;ncia do seu fluxo de trabalho. Com scripts em bash, voc&ecirc; consegue executar comandos automaticamente. J&aacute; com cron jobs, d&aacute; para agendar tarefas para rodarem em hor&aacute;rios espec&iacute;ficos. Veja como come&ccedil;ar:<\/p><p><strong>Criar e executar scripts em bash<\/strong><\/p><p>Voc&ecirc; pode criar um script em bash que executa comandos do Ollama. Veja como:<\/p><ol class=\"wp-block-list\">\n<li>Abra um editor de texto e crie um novo arquivo chamado <strong>ollama-script.sh<\/strong>:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">nano ollama-script.sh<\/pre><ol start=\"2\" class=\"wp-block-list\">\n<li>Adicione os comandos necess&aacute;rios do Ollama dentro do script. Por exemplo, para executar um modelo e salvar a sa&iacute;da em um arquivo:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">#!\/bin\/bash\n# Execute o modelo e salve a sa&iacute;da em um arquivo\nollama run llama3.2 \"Quais s&atilde;o as tend&ecirc;ncias mais recentes em IA?\" &gt; ai-output.txt<\/pre><ol start=\"3\" class=\"wp-block-list\">\n<li>Torne o script execut&aacute;vel <a href=\"\/br\/tutoriais\/como-alterar-permissoes-e-proprietarios-via-linha-de-comando\">dando as permiss&otilde;es corretas<\/a>:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">chmod +x ollama-script.sh<\/pre><ol start=\"4\" class=\"wp-block-list\">\n<li>Execute o script diretamente pelo terminal:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">.\/ollama-script.sh<\/pre><p><strong>Configurar cron jobs para automatizar tarefas<\/strong><\/p><p>Voc&ecirc; pode combinar seu script com um <a href=\"\/br\/tutoriais\/cron-job-guia\">cron job<\/a> para automatizar tarefas como executar modelos regularmente. Veja como configurar um cron job para rodar scripts do Ollama automaticamente:<\/p><ol class=\"wp-block-list\">\n<li>Abra o editor do crontab digitando:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">crontab -e<\/pre><ol start=\"2\" class=\"wp-block-list\">\n<li>Adicione uma linha especificando o agendamento e o script que voc&ecirc; quer executar. Por exemplo, para rodar o script todo domingo &agrave; meia-noite:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">0 0 * * 0 \/path\/to\/ollama-script.sh<\/pre><ol start=\"3\" class=\"wp-block-list\">\n<li>Salve e saia do editor ap&oacute;s adicionar o cron job.<\/li>\n<\/ol><h2 class=\"wp-block-heading\" id=\"h-common-use-cases-for-the-cli\">Casos de uso comuns para a CLI<\/h2><p>Aqui v&atilde;o alguns exemplos reais de como usar a CLI do Ollama.<\/p><p><strong>Gera&ccedil;&atilde;o de texto<\/strong><\/p><p>Voc&ecirc; pode usar modelos pr&eacute;-treinados para criar resumos, gerar conte&uacute;do ou responder perguntas espec&iacute;ficas.<\/p><ul class=\"wp-block-list\">\n<li>Resumindo um arquivo de texto grande:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Resuma o texto a seguir:\" &lt; documento-longo.txt\n<\/pre><ul class=\"wp-block-list\">\n<li>Gerando conte&uacute;do, como posts de blog ou descri&ccedil;&otilde;es de produtos:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Escreva um artigo curto sobre os benef&iacute;cios de usar IA na &aacute;rea da sa&uacute;de.\" &gt; artigo.txt<\/pre><ul class=\"wp-block-list\">\n<li>Respondendo perguntas espec&iacute;ficas para ajudar em pesquisas:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Quais s&atilde;o as tend&ecirc;ncias mais recentes em IA e como elas v&atilde;o impactar a &aacute;rea da sa&uacute;de?\"<\/pre><p><strong>Processamento, an&aacute;lise e previs&atilde;o de dados<\/strong><\/p><p>O Ollama tamb&eacute;m permite lidar com tarefas de processamento de dados, como classifica&ccedil;&atilde;o de texto, an&aacute;lise de sentimento e previs&otilde;es.<\/p><ul class=\"wp-block-list\">\n<li>Classificando um texto como positivo, negativo ou neutro:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Analise o sentimento desta avalia&ccedil;&atilde;o de cliente: 'O produto &eacute; fant&aacute;stico, mas a entrega foi lenta.'\"<\/pre><ul class=\"wp-block-list\">\n<li>Categorizando texto em categorias predefinidas:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Classifique este texto nas seguintes categorias: Not&iacute;cia, Opini&atilde;o ou Review.\" &lt; arquivo-de-texto.txt<\/pre><ul class=\"wp-block-list\">\n<li>Prevendo um resultado com base nos dados fornecidos:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Preveja a tend&ecirc;ncia do pre&ccedil;o da a&ccedil;&atilde;o para o pr&oacute;ximo m&ecirc;s com base nos seguintes dados:\" &lt; dados-de-acao.txt<\/pre><p><strong>Integra&ccedil;&atilde;o com ferramentas externas<\/strong><\/p><p>Outro uso comum da CLI do Ollama &eacute; combin&aacute;-la com ferramentas externas para automatizar o processamento de dados e ampliar as capacidades de outros programas.<\/p><ul class=\"wp-block-list\">\n<li>Integrando o Ollama com uma API de terceiros para buscar dados, process&aacute;-los e gerar resultados:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">curl -X GET \"https:\/\/api.example.com\/data\" | ollama run llama3.2 \"Analise os dados da API a seguir e resuma os principais insights.\"<\/pre><ul class=\"wp-block-list\">\n<li>Usando Python para rodar um subprocesso com Ollama:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">import subprocess\n\nresult = subprocess.run(\n    ['ollama', 'run', 'llama3.2', 'Me diga as tend&ecirc;ncias mais recentes do mercado de a&ccedil;&otilde;es'],\n    capture_output=True\n)\n\nprint(result.stdout.decode())<\/pre><figure class=\"wp-block-image size-large\"><a href=\"\/br\/servidor-vps\" target=\"_blank\" rel=\"noreferrer noopener\"><img decoding=\"async\" width=\"1024\" height=\"300\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2023\/02\/BR-VPS-hosting_in-text-banner-1.png\/public\" alt=\"\" class=\"wp-image-32923\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2023\/02\/BR-VPS-hosting_in-text-banner-1.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2023\/02\/BR-VPS-hosting_in-text-banner-1.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2023\/02\/BR-VPS-hosting_in-text-banner-1.png\/w=150,fit=scale-down 150w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2023\/02\/BR-VPS-hosting_in-text-banner-1.png\/w=768,fit=scale-down 768w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/53\/2023\/02\/BR-VPS-hosting_in-text-banner-1.png\/w=1536,fit=scale-down 1536w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/a><\/figure><h2 class=\"wp-block-heading\" id=\"h-conclusion\">Pr&oacute;ximos passos<\/h2><p>Neste artigo, voc&ecirc; aprendeu o essencial para usar o Ollama via CLI, incluindo executar comandos, interagir com modelos e salvar respostas em arquivos.<\/p><p>Ao trabalhar pelo terminal, voc&ecirc; tamb&eacute;m consegue fazer tarefas mais avan&ccedil;adas, como criar novos modelos a partir de modelos existentes, automatizar fluxos de trabalho com scripts e cron jobs e integrar o Ollama com ferramentas externas.<\/p><p>Agora, vale explorar as op&ccedil;&otilde;es de personaliza&ccedil;&atilde;o do Ollama para aproveitar todo o potencial da ferramenta e evoluir seus projetos com IA. Se voc&ecirc; tiver d&uacute;vidas ou quiser compartilhar sua experi&ecirc;ncia usando o Ollama na CLI, deixe um coment&aacute;rio abaixo.<\/p><h2 class=\"wp-block-heading\" id=\"h-ollama-cli-tutorial-faq\">Tutorial Ollama CLI: perguntas frequentes<\/h2><div id=\"rank-math-faq\" class=\"rank-math-block\">\n<div class=\"rank-math-list \">\n<div id=\"faq-question-1770240123739\" class=\"rank-math-list-item\">\n<h3 class=\"rank-math-question \">O que posso fazer com a vers&atilde;o CLI do Ollama?<\/h3>\n<div class=\"rank-math-answer \">\n\n<p>Com a vers&atilde;o CLI do Ollama, voc&ecirc; pode executar modelos, gerar texto, fazer tarefas de processamento de dados (como an&aacute;lise de sentimento), automatizar fluxos com scripts, criar modelos personalizados e integrar o Ollama com ferramentas externas ou APIs para usos mais avan&ccedil;ados.<\/p>\n\n<\/div>\n<\/div>\n<div id=\"faq-question-1770240124758\" class=\"rank-math-list-item\">\n<h3 class=\"rank-math-question \">Como instalo modelos no Ollama pela CLI?<\/h3>\n<div class=\"rank-math-answer \">\n\n<p>Para instalar modelos via CLI, primeiro confirme que o Ollama est&aacute; instalado no seu sistema. Depois, use o comando <strong>ollama pull <\/strong>seguido do nome do modelo. Por exemplo, para instalar o Llama <strong>3.2<\/strong>, execute: <strong>ollama pull llama3.2<\/strong><\/p>\n\n<\/div>\n<\/div>\n<div id=\"faq-question-1770240125331\" class=\"rank-math-list-item\">\n<h3 class=\"rank-math-question \">Posso usar modelos multimodais na vers&atilde;o CLI?<\/h3>\n<div class=\"rank-math-answer \">\n\n<p>Embora seja tecnicamente poss&iacute;vel usar modelos multimodais como o LLaVA na CLI do Ollama, isso n&atilde;o &eacute; t&atilde;o pr&aacute;tico, j&aacute; que o terminal &eacute; otimizado para tarefas em texto. Para trabalhos com imagens, o mais indicado &eacute; <a href=\"\/br\/tutoriais\/tutorial-ollama-gui\">usar o Ollama com uma interface gr&aacute;fica (GUI)<\/a>.<\/p>\n\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Como uma ferramenta poderosa para executar grandes modelos de linguagem (LLMs) localmente, o Ollama d&aacute; a desenvolvedores, cientistas de dados e usu&aacute;rios t&eacute;cnicos mais controle e flexibilidade para personalizar modelos. Embora voc&ecirc; possa usar o Ollama com interfaces gr&aacute;ficas de terceiros, como o Open WebUI, para intera&ccedil;&otilde;es mais simples, rodar a ferramenta pela interface de [&#8230;]<\/p>\n<p><a class=\"btn btn-secondary understrap-read-more-link\" href=\"\/br\/tutoriais\/tutorial-ollama-cli\">Read More&#8230;<\/a><\/p>\n","protected":false},"author":356,"featured_media":53231,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"rank_math_title":"","rank_math_description":"Use o Ollama via terminal, automatize tarefas com scripts e crie modelos personalizados. Veja os comandos essenciais e exemplos pr\u00e1ticos na CLI.","rank_math_focus_keyword":"tutorial ollama cli","footnotes":""},"categories":[4915],"tags":[7974],"class_list":["post-53233","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-vps","tag-tutorial-ollama-cli"],"hreflangs":[{"locale":"pt-BR","link":"https:\/\/www.hostinger.com\/br\/tutoriais\/tutorial-ollama-cli","default":1},{"locale":"pt-PT","link":"https:\/\/www.hostinger.com\/pt\/tutoriais\/tutorial-ollama-cli","default":0}],"acf":[],"_links":{"self":[{"href":"https:\/\/www.hostinger.com\/br\/tutoriais\/wp-json\/wp\/v2\/posts\/53233","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.hostinger.com\/br\/tutoriais\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.hostinger.com\/br\/tutoriais\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.hostinger.com\/br\/tutoriais\/wp-json\/wp\/v2\/users\/356"}],"replies":[{"embeddable":true,"href":"https:\/\/www.hostinger.com\/br\/tutoriais\/wp-json\/wp\/v2\/comments?post=53233"}],"version-history":[{"count":1,"href":"https:\/\/www.hostinger.com\/br\/tutoriais\/wp-json\/wp\/v2\/posts\/53233\/revisions"}],"predecessor-version":[{"id":53234,"href":"https:\/\/www.hostinger.com\/br\/tutoriais\/wp-json\/wp\/v2\/posts\/53233\/revisions\/53234"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.hostinger.com\/br\/tutoriais\/wp-json\/wp\/v2\/media\/53231"}],"wp:attachment":[{"href":"https:\/\/www.hostinger.com\/br\/tutoriais\/wp-json\/wp\/v2\/media?parent=53233"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.hostinger.com\/br\/tutoriais\/wp-json\/wp\/v2\/categories?post=53233"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.hostinger.com\/br\/tutoriais\/wp-json\/wp\/v2\/tags?post=53233"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}