{"id":7943,"date":"2026-02-13T06:26:48","date_gmt":"2026-02-13T06:26:48","guid":{"rendered":"\/it\/tutorial\/?p=7943"},"modified":"2026-02-13T06:26:50","modified_gmt":"2026-02-13T06:26:50","slug":"guida-cli-ollama","status":"publish","type":"post","link":"\/it\/tutorial\/guida-cli-ollama","title":{"rendered":"Tutorial sulla CLI di Ollama: come usare Ollama dal terminale"},"content":{"rendered":"<p>Ollama &egrave; uno strumento potente per eseguire modelli linguistici di grandi dimensioni (LLM) in locale e offre a sviluppatori, data scientist e utenti tecnici maggiore controllo e flessibilit&agrave; nella personalizzazione dei modelli.<\/p><p>Anche se puoi usare Ollama con interfacce grafiche di terze parti come Open WebUI per interazioni pi&ugrave; semplici, eseguirlo tramite l&rsquo;interfaccia a riga di comando (CLI) ti consente di registrare le risposte nei file e automatizzare i flussi di lavoro tramite script.<\/p><p>Questa guida ti accompagner&agrave; nell&rsquo;utilizzo di Ollama tramite la CLI, illustrando i comandi di base, come interagire con i modelli, automatizzare attivit&agrave; e creare modelli personalizzati. Alla fine, sarai in grado di personalizzare Ollama per i tuoi progetti basati sull&rsquo;intelligenza artificiale.<\/p><h2 class=\"wp-block-heading\" id=\"h-configurazione-di-ollama-tramite-cli\">Configurazione di Ollama tramite CLI<\/h2><p>Prima di usare Ollama tramite la CLI, assicurati di averlo installato correttamente sul tuo sistema. Per verificarlo, apri il terminale ed esegui il seguente comando:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama --version<\/pre><p>Dovresti vedere un output simile a questo:<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69d1273152081\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"177\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminale-ollama-versione.png\/public\" alt=\"L'output del terminale che mostra la versione di Ollama installata\" class=\"wp-image-7689\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminale-ollama-versione.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminale-ollama-versione.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminale-ollama-versione.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Ingrandisci\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Successivamente, familiarizza con i seguenti comandi essenziali di Ollama:<\/p><figure tabindex=\"0\" class=\"wp-block-table\"><table><tbody><tr><td><strong>Comando<\/strong><\/td><td><strong>Descrizione<\/strong><\/td><\/tr><tr><td>ollama serve<\/td><td>Avvia Ollama sul tuo sistema locale.<\/td><\/tr><tr><td>ollama create &lt;new_model&gt;<\/td><td>Crea un nuovo modello a partire da uno esistente per personalizzarlo o addestrarlo.<\/td><\/tr><tr><td>ollama show &lt;model&gt;<\/td><td>Mostra i dettagli di un modello specifico, come la configurazione e la data di rilascio.<\/td><\/tr><tr><td>ollama run &lt;model&gt;<\/td><td>Esegue il modello specificato, rendendolo pronto per l&rsquo;interazione.<\/td><\/tr><tr><td>ollama pull &lt;model&gt;<\/td><td>Scarica il modello specificato sul tuo sistema.<\/td><\/tr><tr><td>ollama list<\/td><td>Mostra tutti i modelli scaricati.<\/td><\/tr><tr><td>ollama ps<\/td><td>Mostra i modelli attualmente in esecuzione.<\/td><\/tr><tr><td>ollama stop &lt;model&gt;<\/td><td>Ferma il modello specificato in esecuzione.<\/td><\/tr><tr><td>ollama rm &lt;model&gt;<\/td><td>Rimuove il modello specificato dal tuo sistema.<\/td><\/tr><\/tbody><\/table><\/figure><h2 class=\"wp-block-heading\" id=\"h-uso-essenziale-di-ollama-nella-cli\">Uso essenziale di Ollama nella CLI<\/h2><p>Questa sezione spiega come usare Ollama tramite la CLI, dall&rsquo;interazione con i modelli al salvataggio dei risultati generati nei file.<\/p><h3 class=\"wp-block-heading\">Esecuzione dei modelli<\/h3><p>Per iniziare a utilizzare i modelli in Ollama, devi prima scaricare il modello di interesse utilizzando il comando <strong>pull<\/strong>. Ad esempio, per scaricare Llama <strong>3.2<\/strong>, esegui il seguente comando:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama pull llama3.2<\/pre><p>Aspetta che il download sia completato; il tempo di attesa pu&ograve; variare a seconda delle dimensioni del file del modello.<\/p><p>\n\n\n<div class=\"protip\">\n                    <h4 class=\"title\">Suggerimento<\/h4>\n                    <p>Se non sei sicuro di quale modello scaricare, consulta la <a href=\"https:\/\/ollama.com\/library\" target=\"_blank\" rel=\"noopener\">libreria ufficiale dei modelli di Ollama<\/a>. Troverai informazioni utili su ogni modello, come le opzioni di personalizzazione, il supporto linguistico e i casi d&rsquo;uso consigliati.<\/p>\n                <\/div>\n\n\n\n<\/p><p>Dopo aver scaricato il modello, puoi eseguirlo con un prompt predefinito come il seguente:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Spiega le basi del machine learning.\"<\/pre><p>Ecco il risultato che dovresti ottenere:<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69d1273152ac5\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"585\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminale-llama-3-2-uscita-macchina-apprendimento.png\/public\" alt=\"Terminale che visualizza la risposta di un modello Ollama sull'apprendimento automatico\" class=\"wp-image-7690\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminale-llama-3-2-uscita-macchina-apprendimento.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminale-llama-3-2-uscita-macchina-apprendimento.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminale-llama-3-2-uscita-macchina-apprendimento.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Ingrandisci\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>In alternativa, puoi eseguire il modello senza un prompt per avviare una sessione interattiva:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2<\/pre><p>In questa modalit&agrave;, puoi inserire le tue domande o istruzioni, e il modello generer&agrave; le risposte. Puoi anche fare domande di approfondimento per ottenere informazioni pi&ugrave; dettagliate o chiarire una risposta precedente, ad esempio:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">Puoi spiegarmi meglio come viene usato il machine learning nel settore sanitario?<\/pre><p>Quando hai finito di interagire con il modello, scrivi:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">\/bye<\/pre><p>Questo ti far&agrave; uscire dalla sessione e ti riporter&agrave; alla normale interfaccia del terminale.<\/p><p>\n\n\n<div class=\"protip\">\n                    <h4 class=\"title\">Lettura consigliata<\/h4>\n                    <p>Scopri <a href=\"\/it\/tutorial\/come-scrivere-un-prompt-ai\">come creare prompt AI<\/a> per migliorare i tuoi risultati e le interazioni con i modelli di Ollama.<\/p>\n                <\/div>\n\n\n\n<\/p><h3 class=\"wp-block-heading\">Addestrare i modelli<\/h3><p>Anche se i modelli open-source pre-addestrati come Llama <strong>3.2<\/strong> funzionano bene per compiti generici come la generazione di contenuti, potrebbero non soddisfare sempre le esigenze di casi d&rsquo;uso specifici. Per migliorare la precisione di un modello su un determinato argomento, &egrave; necessario addestrarlo utilizzando dati rilevanti.<\/p><p>Tieni presente che questi modelli hanno <strong>limitazioni di memoria a breve termine<\/strong>, quindi i dati di addestramento vengono conservati solo durante la conversazione attiva. Quando chiudi la sessione e ne avvii una nuova, il modello non ricorder&agrave; le informazioni con cui l&rsquo;hai addestrato in precedenza.<\/p><p>Per addestrare il modello, avvia una sessione interattiva. Poi, inizia l&rsquo;addestramento digitando un prompt del tipo:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">Ehi, voglio che impari qualcosa su [argomento]. Posso addestrarti su questo?<\/pre><p>Il modello risponder&agrave; con un messaggio simile al seguente:<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69d12731535e2\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"78\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminale-llama-3-2-uscita-formazione.png\/public\" alt=\"Terminale che visualizza la risposta di un modello Ollama a una richiesta di addestramento\" class=\"wp-image-7691\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminale-llama-3-2-uscita-formazione.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminale-llama-3-2-uscita-formazione.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminale-llama-3-2-uscita-formazione.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Ingrandisci\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Puoi quindi fornire informazioni di base sull&rsquo;argomento per aiutare il modello a comprendere meglio:<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69d1273153d66\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"554\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminale-llama-3-2-prompt-formazione.png\/public\" alt=\"Terminale che visualizza un prompt a scopo formativo\" class=\"wp-image-7692\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminale-llama-3-2-prompt-formazione.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminale-llama-3-2-prompt-formazione.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminale-llama-3-2-prompt-formazione.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Ingrandisci\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Per continuare l&rsquo;addestramento e fornire pi&ugrave; informazioni, chiedi al modello di farti delle domande sull&rsquo;argomento. Per esempio:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">Puoi farmi qualche domanda su [argomento] per aiutarti a capirlo meglio?<\/pre><p>Una volta che il modello ha acquisito abbastanza contesto sull&rsquo;argomento, puoi concludere l&rsquo;addestramento e verificare se il modello ha acquisito correttamente le informazioni.<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69d127315457c\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-large wp-lightbox-container\"><img decoding=\"async\" width=\"1366\" height=\"735\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/image-13.png\/public\" alt=\"\" class=\"wp-image-7959\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/image-13.png\/w=1366,fit=scale-down 1366w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/image-13.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/image-13.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/image-13.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1366px) 100vw, 1366px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Ingrandisci\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><h3 class=\"wp-block-heading\">Richiedere e registrare le risposte nei file<\/h3><p>In Ollama, puoi chiedere al modello di eseguire operazioni utilizzando il contenuto di un file, come riassumere un testo o analizzare delle informazioni. Questo &egrave; particolarmente utile per documenti lunghi, in quanto elimina la necessit&agrave; di copiare e incollare il testo quando dai istruzioni al modello.<\/p><p>Ad esempio, se hai un file chiamato <strong>input.txt<\/strong> con le informazioni che desideri riassumere, puoi eseguire il seguente comando:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Riassumi il contenuto di questo file in 50 parole.\" &lt; input.txt<\/pre><p>Il modello legger&agrave; il contenuto del file e generer&agrave; un riassunto:<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69d1273154ed4\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"151\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminale-llama-3-2-risposta-sommario.png\/public\" alt=\"Terminale che visualizza la risposta di un modello Ollama alla sintesi di un file TXT\" class=\"wp-image-7693\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminale-llama-3-2-risposta-sommario.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminale-llama-3-2-risposta-sommario.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminale-llama-3-2-risposta-sommario.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Ingrandisci\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Ollama ti permette anche di registrare le risposte del modello in un file, facilitando la revisione o il perfezionamento in un secondo momento. Ecco un esempio di come porre una domanda al modello e salvare l&rsquo;output in un file:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Parlami delle energie rinnovabili.\" &gt; output.txt<\/pre><p>Questo comando salver&agrave; la risposta del modello nel file <strong>output.txt<\/strong>:<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69d12731559f5\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"341\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminale-cat-uscita.png\/public\" alt=\"Terminale che visualizza il contenuto di output.txt utilizzando il comando Linux cat\" class=\"wp-image-7694\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminale-cat-uscita.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminale-cat-uscita.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminale-cat-uscita.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Ingrandisci\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><h2 class=\"wp-block-heading\" id=\"h-uso-avanzato-di-ollama-nella-cli\">Uso avanzato di Ollama nella CLI<\/h2><p>Ora che hai capito le basi, vediamo come usare Ollama in modo pi&ugrave; avanzato tramite la CLI.<\/p><h3 class=\"wp-block-heading\">Creazione di modelli personalizzati<\/h3><p>Usando Ollama tramite la CLI, puoi creare un modello personalizzato in base alle tue esigenze.<\/p><p>Per farlo, crea un Modelfile, che &egrave; il progetto del tuo modello personalizzato. Il file definisce impostazioni chiave come il modello di base, i parametri da regolare e il comportamento del modello rispetto ai prompt.<\/p><p>Segui questi passaggi per creare un modello personalizzato in Ollama:<\/p><p><strong>1. Crea un nuovo Modelfile<\/strong><\/p><p>Usa un editor di testo come <a href=\"https:\/\/www.hostinger.com\/tutorials\/how-to-install-and-use-nano-text-editor\">nano<\/a> per creare un nuovo Modelfile. In questo esempio, chiameremo il file <strong>custom-modelfile<\/strong>:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">nano custom-modelfile<\/pre><p>Poi, copia e incolla questo Modelfile di base, che personalizzerai nel passaggio successivo:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\"># Usa Llama 3.2 come modello base\n\nFROM llama3.2\n\n# Regola i parametri del modello\n\nPARAMETER temperature 0.7\n\nPARAMETER num_ctx 3072\n\nPARAMETER stop \"assistant:\"\n\n# Definisci il comportamento del modello\n\nSYSTEM \"Sei un esperto di sicurezza informatica.\"\n\n# Personalizza il modello di conversazione\n\nTEMPLATE \"\"\"{{ if .System }}Advisor: {{ .System }}{{ end }}\n\nClient: {{ .Prompt }}\n\nAdvisor: {{ .Response }}\"\"\"<\/pre><p><strong>2. Personalizza il Modelfile<\/strong><\/p><p>Ecco gli elementi chiave che puoi personalizzare nel Modelfile:<\/p><ul class=\"wp-block-list\">\n<li><strong>Modello di base (FROM)<\/strong>. Imposta il modello di base per la tua istanza personalizzata. Puoi scegliere tra i modelli disponibili come Llama<strong> 3.2<\/strong>:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">FROM llama3.2<\/pre><ul class=\"wp-block-list\">\n<li><strong>Parametri (PARAMETER)<\/strong>. Controlla il comportamento del modello, ad esempio:\n<ul class=\"wp-block-list\">\n<li><strong>Temperatura<\/strong>. Regola la creativit&agrave; del modello. Valori pi&ugrave; alti come<strong> 1.0 <\/strong>lo rendono pi&ugrave; creativo, mentre quelli pi&ugrave; bassi come<strong> 0.5 <\/strong>lo rendono pi&ugrave; mirato.<\/li>\n<\/ul>\n<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">PARAMETER temperature 0.9<\/pre><ul class=\"wp-block-list\">\n<li><strong>Finestra di contesto (num_ctx)<\/strong>. Definisce la quantit&agrave; di testo precedente che il modello usa come contesto.<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">PARAMETER num_ctx 4096<\/pre><ul class=\"wp-block-list\">\n<li><strong>Messaggio di sistema (SYSTEM)<\/strong>. Definisce come il modello dovrebbe comportarsi. Ad esempio, puoi dirgli di comportarsi come un personaggio specifico o di evitare di rispondere a domande che non c&rsquo;entrano:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">SYSTEM \"Sei un esperto di sicurezza informatica. Rispondi solo alle domande relative alla sicurezza informatica. Se ti viene chiesto qualcosa di non pertinente, rispondi con: 'Rispondo solo alle domande relative alla sicurezza informatica.&rsquo;\"<\/pre><ul class=\"wp-block-list\">\n<li><strong>Modello (TEMPLATE)<\/strong>. Personalizza come strutturare l&rsquo;interazione tra l&rsquo;utente e il modello. Per esempio:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">TEMPLATE \"\"\"{{ if .System }}&lt;|start|&gt;system\n\n{{ .System }}&lt;|end|&gt;{{ end }}\n\n&lt;|start|&gt;user\n\n{{ .Prompt }}&lt;|end|&gt;\n\n&lt;|start|&gt;assistant\n\n\"\"\"<\/pre><p>Dopo aver fatto le modifiche che servono, salva il file ed esci da <strong>nano<\/strong> premendo <strong>Ctrl + X &rarr; Y &rarr; Invio<\/strong>.<\/p><p><strong>3. Crea ed esegui il modello personalizzato<\/strong><\/p><p>Una volta che il tuo Modelfile &egrave; pronto, usa il comando qui sotto per creare un modello basato sul file:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama create custom-model-name -f .\/custom-modelfile<\/pre><p>Dovresti vedere un messaggio che dice che il modello &egrave; stato creato con successo:<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69d1273156829\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"235\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminal-ollama-creare-nome-modello-personalizzato-successo.png\/public\" alt=\"Terminale di output che mostra l'avvenuta creazione di un modello personalizzato\" class=\"wp-image-7695\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminal-ollama-creare-nome-modello-personalizzato-successo.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminal-ollama-creare-nome-modello-personalizzato-successo.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminal-ollama-creare-nome-modello-personalizzato-successo.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Ingrandisci\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Dopo, esegui il modello come faresti con qualsiasi altro:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run custom-model-name<\/pre><p>Questo avvier&agrave; il modello con le personalizzazioni che hai fatto e potrai interagire con esso:<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69d1273156fd1\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"135\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminale-nome-modello-risposta.png\/public\" alt=\"Terminale che visualizza la risposta di un modello personalizzato a un argomento non correlato\" class=\"wp-image-7696\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminale-nome-modello-risposta.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminale-nome-modello-risposta.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2026\/02\/terminale-nome-modello-risposta.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Ingrandisci\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Puoi continuare a modificare e perfezionare il Modelfile regolando i parametri, modificando i messaggi di sistema, aggiungendo template pi&ugrave; avanzati o persino includendo i tuoi set di dati. Salva le modifiche e riesegui il modello per vedere gli effetti.<\/p><h3 class=\"wp-block-heading\">Automatizzare le attivit&agrave; con gli script<\/h3><p>Automatizzare le attivit&agrave; ripetitive in Ollama pu&ograve; farti risparmiare tempo e garantire la coerenza del flusso di lavoro. Usando gli script bash, puoi eseguire i comandi automaticamente. Con i cron job, puoi programmare l&rsquo;esecuzione delle attivit&agrave; in orari specifici. Ecco come iniziare:<\/p><p><strong>Creare ed eseguire script bash<\/strong><\/p><p>Puoi creare uno script bash che esegue i comandi di Ollama. Ecco come:<\/p><ol class=\"wp-block-list\">\n<li>Apri un editor di testo e crea un nuovo file chiamato <strong>ollama-script.sh<\/strong>:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">nano ollama-script.sh<\/pre><ol start=\"2\" class=\"wp-block-list\">\n<li>Aggiungi i comandi Ollama necessari all&rsquo;interno dello script. Ad esempio, per eseguire un modello e salvare l&rsquo;output in un file:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">#!\/bin\/bash\n\n# Esegui il modello e salva il risultato in un file\n\nollama run llama3.2 \"Quali sono le ultime tendenze nell'IA?\" &gt; ai-output.txt<\/pre><ol start=\"3\" class=\"wp-block-list\">\n<li>Rendi lo script eseguibile <a href=\"https:\/\/www.hostinger.com\/tutorials\/vps\/change-linux-permissions-and-owners\">assegnandogli i permessi giusti<\/a>:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">chmod +x ollama-script.sh<\/pre><ol start=\"4\" class=\"wp-block-list\">\n<li>Esegui lo script direttamente dal terminale:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">.\/ollama-script.sh<\/pre><p><strong>Configura i cron job per automatizzare le attivit&agrave;<\/strong><\/p><p>Puoi combinare il tuo script con un <a href=\"https:\/\/www.hostinger.com\/tutorials\/cron-job\">cron job<\/a> per automatizzare attivit&agrave; come l&rsquo;esecuzione regolare dei modelli. Ecco come impostare un cron job per eseguire automaticamente gli script Ollama:<\/p><ol class=\"wp-block-list\">\n<li>Apri l&rsquo;editor crontab digitando:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">crontab -e<\/pre><ol start=\"2\" class=\"wp-block-list\">\n<li>Aggiungi una riga che specifichi quando e quale script deve essere eseguito. Per esempio, per far partire lo script ogni domenica a mezzanotte:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">0 0 * * 0 \/path\/to\/ollama-script.sh<\/pre><ol start=\"3\" class=\"wp-block-list\">\n<li>Salva e esci dall&rsquo;editor dopo aver aggiunto il cron job.<\/li>\n<\/ol><h2 class=\"wp-block-heading\" id=\"h-casi-duso-comuni-per-la-cli\">Casi d&rsquo;uso comuni per la CLI<\/h2><p>Ecco alcuni esempi reali di come usare la CLI di Ollama.<\/p><p><strong>Generazione di testo<\/strong><\/p><p>Puoi usare modelli pre-addestrati per creare riassunti, generare contenuti o rispondere a domande specifiche.<\/p><ul class=\"wp-block-list\">\n<li>Riassumere un file di testo grande:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Riassumi il seguente testo:\" &lt; long-document.txt<\/pre><ul class=\"wp-block-list\">\n<li>Creare contenuti come post di blog o descrizioni di prodotti:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Scrivi un breve articolo sui vantaggi dell'uso dell'IA nel settore sanitario.\"&gt; article.txt<\/pre><ul class=\"wp-block-list\">\n<li>Rispondere a domande specifiche per aiutare nella ricerca:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Quali sono le ultime tendenze nell'intelligenza artificiale e come influenzeranno la sanit&agrave;?\"<\/pre><p><strong>Elaborazione, analisi e previsione dei dati<\/strong><\/p><p>Ollama ti permette anche di gestire attivit&agrave; di elaborazione dei dati come la classificazione dei testi, l&rsquo;analisi del sentiment e la previsione.<\/p><ul class=\"wp-block-list\">\n<li>Classificazione del testo in sentiment positivo, negativo o neutro:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Analizza il sentiment di questa recensione del cliente: 'Il prodotto &egrave; fantastico, ma la consegna &egrave; stata lenta'.\"<\/pre><ul class=\"wp-block-list\">\n<li>Categorizzazione del testo in categorie predefinite:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Classifica questo testo nelle seguenti categorie: Notizie, Opinioni o Recensioni.\" &lt; textfile.txt<\/pre><ul class=\"wp-block-list\">\n<li>Previsione di un risultato in base ai dati forniti:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Prevedi l'andamento del prezzo delle azioni per il prossimo mese in base ai seguenti dati:\" &lt; stock-data.txt<\/pre><p><strong>Integrazione con strumenti esterni<\/strong><\/p><p>Un altro uso comune della CLI di Ollama &egrave; combinarla con strumenti esterni per automatizzare l&rsquo;elaborazione dei dati e ampliare le capacit&agrave; di altri programmi.<\/p><ul class=\"wp-block-list\">\n<li>Integrare Ollama con un&rsquo;API di terze parti per recuperare dati, elaborarli e generare risultati:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">curl -X GET \"https:\/\/api.example.com\/data\" | ollama run llama3.2 \"Analizza i seguenti dati API e riassumi le informazioni chiave.\"<\/pre><ul class=\"wp-block-list\">\n<li>Usare Python per eseguire un sottoprocesso con Ollama:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">import subprocess\n\nresult = subprocess.run(['ollama', 'run', 'llama3.2', 'Dammi le ultime tendenze del mercato azionario'], capture_output=True)\n\nprint(result.stdout.decode())<\/pre><figure class=\"wp-block-image size-large\"><a href=\"\/it\/vps\" target=\"_blank\" rel=\"noreferrer noopener\"><img decoding=\"async\" width=\"2048\" height=\"600\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2024\/02\/IT-VPS-hosting_in-text-banner.png\/public\" alt=\"\" class=\"wp-image-1333\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2024\/02\/IT-VPS-hosting_in-text-banner.png\/w=2048,fit=scale-down 2048w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2024\/02\/IT-VPS-hosting_in-text-banner.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2024\/02\/IT-VPS-hosting_in-text-banner.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2024\/02\/IT-VPS-hosting_in-text-banner.png\/w=768,fit=scale-down 768w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/27\/2024\/02\/IT-VPS-hosting_in-text-banner.png\/w=1536,fit=scale-down 1536w\" sizes=\"(max-width: 2048px) 100vw, 2048px\" \/><\/a><\/figure><h2 class=\"wp-block-heading\" id=\"h-conclusioni\">Conclusioni<\/h2><p>In questo articolo hai imparato le basi per usare Ollama tramite CLI, come eseguire comandi, interagire con i modelli e registrare le risposte dei modelli nei file.<\/p><p>Con l&rsquo;interfaccia a riga di comando, puoi anche eseguire operazioni pi&ugrave; avanzate, come creare nuovi modelli basati su quelli esistenti, automatizzare flussi di lavoro complessi con script e cron job e integrare Ollama con strumenti esterni.<\/p><p>Puoi esplorare le funzionalit&agrave; di personalizzazione di Ollama per sfruttarne appieno il potenziale nei tuoi progetti di AI. Se hai domande o desideri condividere la tua esperienza con Ollama nella CLI, non esitare a utilizzare la casella dei commenti qui sotto.<\/p><h2 class=\"wp-block-heading\" id=\"h-faq-sul-tutorial-della-cli-di-ollama\">FAQ sul tutorial della CLI di Ollama<\/h2><div id=\"rank-math-faq\" class=\"rank-math-block\">\n<div class=\"rank-math-list \">\n<div id=\"faq-question-1770892368660\" class=\"rank-math-list-item\">\n<h3 class=\"rank-math-question \">Cosa posso fare con la versione CLI di Ollama?<\/h3>\n<div class=\"rank-math-answer \">\n\n<p>Con la versione CLI di Ollama, puoi eseguire modelli, generare testo, eseguire attivit&agrave; come l&rsquo;analisi del sentiment, automatizzare i flussi di lavoro con gli script, creare modelli personalizzati e integrare Ollama con strumenti esterni o API per applicazioni avanzate.<\/p>\n\n<\/div>\n<\/div>\n<div id=\"faq-question-1770892370667\" class=\"rank-math-list-item\">\n<h3 class=\"rank-math-question \">Come si installano i modelli per Ollama nella CLI?<\/h3>\n<div class=\"rank-math-answer \">\n\n<p>Per installare i modelli tramite la CLI, prima assicurati di aver scaricato Ollama sul tuo sistema. Poi, usa il comando <strong>ollama pull <\/strong>seguito dal nome del modello. Per esempio, per installare Llama<strong> 3.2<\/strong>, esegui <strong>ollama pull llama3.2<\/strong>.<\/p>\n\n<\/div>\n<\/div>\n<div id=\"faq-question-1770892371232\" class=\"rank-math-list-item\">\n<h3 class=\"rank-math-question \">Posso usare modelli multimodali nella versione CLI?<\/h3>\n<div class=\"rank-math-answer \">\n\n<p>Anche se tecnicamente puoi usare modelli multimodali come LlaVa nella CLI di Ollama, non &egrave; molto pratico perch&eacute; la CLI &egrave; pensata per le attivit&agrave; basate sul testo. &Egrave; consigliabile usare Ollama con strumenti GUI per gestire il lavoro legato alle immagini.<\/p>\n\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Ollama &egrave; uno strumento potente per eseguire modelli linguistici di grandi dimensioni (LLM) in locale e offre a sviluppatori, data scientist e utenti tecnici maggiore controllo e flessibilit&agrave; nella personalizzazione dei modelli. Anche se puoi usare Ollama con interfacce grafiche di terze parti come Open WebUI per interazioni pi&ugrave; semplici, eseguirlo tramite l&rsquo;interfaccia a riga [&#8230;]<\/p>\n<p><a class=\"btn btn-secondary understrap-read-more-link\" href=\"\/it\/tutorial\/guida-cli-ollama\">Read More&#8230;<\/a><\/p>\n","protected":false},"author":190,"featured_media":7688,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"rank_math_title":"Guida Ollama CLI per usare Ollama da terminale","rank_math_description":"Usare Ollama CLI consente di gestire modelli AI da terminale. Questa guida spiega comandi e casi d\u2019uso principali.","rank_math_focus_keyword":"ollama cli","footnotes":""},"categories":[17],"tags":[],"class_list":["post-7943","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-vps"],"hreflangs":[],"_links":{"self":[{"href":"https:\/\/www.hostinger.com\/it\/tutorial\/wp-json\/wp\/v2\/posts\/7943","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.hostinger.com\/it\/tutorial\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.hostinger.com\/it\/tutorial\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.hostinger.com\/it\/tutorial\/wp-json\/wp\/v2\/users\/190"}],"replies":[{"embeddable":true,"href":"https:\/\/www.hostinger.com\/it\/tutorial\/wp-json\/wp\/v2\/comments?post=7943"}],"version-history":[{"count":10,"href":"https:\/\/www.hostinger.com\/it\/tutorial\/wp-json\/wp\/v2\/posts\/7943\/revisions"}],"predecessor-version":[{"id":7982,"href":"https:\/\/www.hostinger.com\/it\/tutorial\/wp-json\/wp\/v2\/posts\/7943\/revisions\/7982"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.hostinger.com\/it\/tutorial\/wp-json\/wp\/v2\/media\/7688"}],"wp:attachment":[{"href":"https:\/\/www.hostinger.com\/it\/tutorial\/wp-json\/wp\/v2\/media?parent=7943"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.hostinger.com\/it\/tutorial\/wp-json\/wp\/v2\/categories?post=7943"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.hostinger.com\/it\/tutorial\/wp-json\/wp\/v2\/tags?post=7943"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}