Non perdere le offerte a tempo limitato!

Tutorial sulla CLI di Ollama: come usare Ollama dal terminale

Tutorial sulla CLI di Ollama: come usare Ollama dal terminale

Ollama è uno strumento potente per eseguire modelli linguistici di grandi dimensioni (LLM) in locale e offre a sviluppatori, data scientist e utenti tecnici maggiore controllo e flessibilità nella personalizzazione dei modelli.

Anche se puoi usare Ollama con interfacce grafiche di terze parti come Open WebUI per interazioni più semplici, eseguirlo tramite l’interfaccia a riga di comando (CLI) ti consente di registrare le risposte nei file e automatizzare i flussi di lavoro tramite script.

Questa guida ti accompagnerà nell’utilizzo di Ollama tramite la CLI, illustrando i comandi di base, come interagire con i modelli, automatizzare attività e creare modelli personalizzati. Alla fine, sarai in grado di personalizzare Ollama per i tuoi progetti basati sull’intelligenza artificiale.

Configurazione di Ollama tramite CLI

Prima di usare Ollama tramite la CLI, assicurati di averlo installato correttamente sul tuo sistema. Per verificarlo, apri il terminale ed esegui il seguente comando:

ollama --version

Dovresti vedere un output simile a questo:

Successivamente, familiarizza con i seguenti comandi essenziali di Ollama:

ComandoDescrizione
ollama serveAvvia Ollama sul tuo sistema locale.
ollama create <new_model>Crea un nuovo modello a partire da uno esistente per personalizzarlo o addestrarlo.
ollama show <model>Mostra i dettagli di un modello specifico, come la configurazione e la data di rilascio.
ollama run <model>Esegue il modello specificato, rendendolo pronto per l’interazione.
ollama pull <model>Scarica il modello specificato sul tuo sistema.
ollama listMostra tutti i modelli scaricati.
ollama psMostra i modelli attualmente in esecuzione.
ollama stop <model>Ferma il modello specificato in esecuzione.
ollama rm <model>Rimuove il modello specificato dal tuo sistema.

Uso essenziale di Ollama nella CLI

Questa sezione spiega come usare Ollama tramite la CLI, dall’interazione con i modelli al salvataggio dei risultati generati nei file.

Esecuzione dei modelli

Per iniziare a utilizzare i modelli in Ollama, devi prima scaricare il modello di interesse utilizzando il comando pull. Ad esempio, per scaricare Llama 3.2, esegui il seguente comando:

ollama pull llama3.2

Aspetta che il download sia completato; il tempo di attesa può variare a seconda delle dimensioni del file del modello.

Suggerimento

Se non sei sicuro di quale modello scaricare, consulta la libreria ufficiale dei modelli di Ollama. Troverai informazioni utili su ogni modello, come le opzioni di personalizzazione, il supporto linguistico e i casi d’uso consigliati.

Dopo aver scaricato il modello, puoi eseguirlo con un prompt predefinito come il seguente:

ollama run llama3.2 "Spiega le basi del machine learning."

Ecco il risultato che dovresti ottenere:

In alternativa, puoi eseguire il modello senza un prompt per avviare una sessione interattiva:

ollama run llama3.2

In questa modalità, puoi inserire le tue domande o istruzioni, e il modello genererà le risposte. Puoi anche fare domande di approfondimento per ottenere informazioni più dettagliate o chiarire una risposta precedente, ad esempio:

Puoi spiegarmi meglio come viene usato il machine learning nel settore sanitario?

Quando hai finito di interagire con il modello, scrivi:

/bye

Questo ti farà uscire dalla sessione e ti riporterà alla normale interfaccia del terminale.

Lettura consigliata

Scopri come creare prompt AI per migliorare i tuoi risultati e le interazioni con i modelli di Ollama.

Addestrare i modelli

Anche se i modelli open-source pre-addestrati come Llama 3.2 funzionano bene per compiti generici come la generazione di contenuti, potrebbero non soddisfare sempre le esigenze di casi d’uso specifici. Per migliorare la precisione di un modello su un determinato argomento, è necessario addestrarlo utilizzando dati rilevanti.

Tieni presente che questi modelli hanno limitazioni di memoria a breve termine, quindi i dati di addestramento vengono conservati solo durante la conversazione attiva. Quando chiudi la sessione e ne avvii una nuova, il modello non ricorderà le informazioni con cui l’hai addestrato in precedenza.

Per addestrare il modello, avvia una sessione interattiva. Poi, inizia l’addestramento digitando un prompt del tipo:

Ehi, voglio che impari qualcosa su [argomento]. Posso addestrarti su questo?

Il modello risponderà con un messaggio simile al seguente:

Puoi quindi fornire informazioni di base sull’argomento per aiutare il modello a comprendere meglio:

Per continuare l’addestramento e fornire più informazioni, chiedi al modello di farti delle domande sull’argomento. Per esempio:

Puoi farmi qualche domanda su [argomento] per aiutarti a capirlo meglio?

Una volta che il modello ha acquisito abbastanza contesto sull’argomento, puoi concludere l’addestramento e verificare se il modello ha acquisito correttamente le informazioni.

Richiedere e registrare le risposte nei file

In Ollama, puoi chiedere al modello di eseguire operazioni utilizzando il contenuto di un file, come riassumere un testo o analizzare delle informazioni. Questo è particolarmente utile per documenti lunghi, in quanto elimina la necessità di copiare e incollare il testo quando dai istruzioni al modello.

Ad esempio, se hai un file chiamato input.txt con le informazioni che desideri riassumere, puoi eseguire il seguente comando:

ollama run llama3.2 "Riassumi il contenuto di questo file in 50 parole." < input.txt

Il modello leggerà il contenuto del file e genererà un riassunto:

Ollama ti permette anche di registrare le risposte del modello in un file, facilitando la revisione o il perfezionamento in un secondo momento. Ecco un esempio di come porre una domanda al modello e salvare l’output in un file:

ollama run llama3.2 "Parlami delle energie rinnovabili." > output.txt

Questo comando salverà la risposta del modello nel file output.txt:

Uso avanzato di Ollama nella CLI

Ora che hai capito le basi, vediamo come usare Ollama in modo più avanzato tramite la CLI.

Creazione di modelli personalizzati

Usando Ollama tramite la CLI, puoi creare un modello personalizzato in base alle tue esigenze.

Per farlo, crea un Modelfile, che è il progetto del tuo modello personalizzato. Il file definisce impostazioni chiave come il modello di base, i parametri da regolare e il comportamento del modello rispetto ai prompt.

Segui questi passaggi per creare un modello personalizzato in Ollama:

1. Crea un nuovo Modelfile

Usa un editor di testo come nano per creare un nuovo Modelfile. In questo esempio, chiameremo il file custom-modelfile:

nano custom-modelfile

Poi, copia e incolla questo Modelfile di base, che personalizzerai nel passaggio successivo:

# Usa Llama 3.2 come modello base

FROM llama3.2

# Regola i parametri del modello

PARAMETER temperature 0.7

PARAMETER num_ctx 3072

PARAMETER stop "assistant:"

# Definisci il comportamento del modello

SYSTEM "Sei un esperto di sicurezza informatica."

# Personalizza il modello di conversazione

TEMPLATE """{{ if .System }}Advisor: {{ .System }}{{ end }}

Client: {{ .Prompt }}

Advisor: {{ .Response }}"""

2. Personalizza il Modelfile

Ecco gli elementi chiave che puoi personalizzare nel Modelfile:

  • Modello di base (FROM). Imposta il modello di base per la tua istanza personalizzata. Puoi scegliere tra i modelli disponibili come Llama 3.2:
FROM llama3.2
  • Parametri (PARAMETER). Controlla il comportamento del modello, ad esempio:
    • Temperatura. Regola la creatività del modello. Valori più alti come 1.0 lo rendono più creativo, mentre quelli più bassi come 0.5 lo rendono più mirato.
PARAMETER temperature 0.9
  • Finestra di contesto (num_ctx). Definisce la quantità di testo precedente che il modello usa come contesto.
PARAMETER num_ctx 4096
  • Messaggio di sistema (SYSTEM). Definisce come il modello dovrebbe comportarsi. Ad esempio, puoi dirgli di comportarsi come un personaggio specifico o di evitare di rispondere a domande che non c’entrano:
SYSTEM "Sei un esperto di sicurezza informatica. Rispondi solo alle domande relative alla sicurezza informatica. Se ti viene chiesto qualcosa di non pertinente, rispondi con: 'Rispondo solo alle domande relative alla sicurezza informatica.’"
  • Modello (TEMPLATE). Personalizza come strutturare l’interazione tra l’utente e il modello. Per esempio:
TEMPLATE """{{ if .System }}<|start|>system

{{ .System }}<|end|>{{ end }}

<|start|>user

{{ .Prompt }}<|end|>

<|start|>assistant

"""

Dopo aver fatto le modifiche che servono, salva il file ed esci da nano premendo Ctrl + X → Y → Invio.

3. Crea ed esegui il modello personalizzato

Una volta che il tuo Modelfile è pronto, usa il comando qui sotto per creare un modello basato sul file:

ollama create custom-model-name -f ./custom-modelfile

Dovresti vedere un messaggio che dice che il modello è stato creato con successo:

Dopo, esegui il modello come faresti con qualsiasi altro:

ollama run custom-model-name

Questo avvierà il modello con le personalizzazioni che hai fatto e potrai interagire con esso:

Puoi continuare a modificare e perfezionare il Modelfile regolando i parametri, modificando i messaggi di sistema, aggiungendo template più avanzati o persino includendo i tuoi set di dati. Salva le modifiche e riesegui il modello per vedere gli effetti.

Automatizzare le attività con gli script

Automatizzare le attività ripetitive in Ollama può farti risparmiare tempo e garantire la coerenza del flusso di lavoro. Usando gli script bash, puoi eseguire i comandi automaticamente. Con i cron job, puoi programmare l’esecuzione delle attività in orari specifici. Ecco come iniziare:

Creare ed eseguire script bash

Puoi creare uno script bash che esegue i comandi di Ollama. Ecco come:

  1. Apri un editor di testo e crea un nuovo file chiamato ollama-script.sh:
nano ollama-script.sh
  1. Aggiungi i comandi Ollama necessari all’interno dello script. Ad esempio, per eseguire un modello e salvare l’output in un file:
#!/bin/bash

# Esegui il modello e salva il risultato in un file

ollama run llama3.2 "Quali sono le ultime tendenze nell'IA?" > ai-output.txt
  1. Rendi lo script eseguibile assegnandogli i permessi giusti:
chmod +x ollama-script.sh
  1. Esegui lo script direttamente dal terminale:
./ollama-script.sh

Configura i cron job per automatizzare le attività

Puoi combinare il tuo script con un cron job per automatizzare attività come l’esecuzione regolare dei modelli. Ecco come impostare un cron job per eseguire automaticamente gli script Ollama:

  1. Apri l’editor crontab digitando:
crontab -e
  1. Aggiungi una riga che specifichi quando e quale script deve essere eseguito. Per esempio, per far partire lo script ogni domenica a mezzanotte:
0 0 * * 0 /path/to/ollama-script.sh
  1. Salva e esci dall’editor dopo aver aggiunto il cron job.

Casi d’uso comuni per la CLI

Ecco alcuni esempi reali di come usare la CLI di Ollama.

Generazione di testo

Puoi usare modelli pre-addestrati per creare riassunti, generare contenuti o rispondere a domande specifiche.

  • Riassumere un file di testo grande:
ollama run llama3.2 "Riassumi il seguente testo:" < long-document.txt
  • Creare contenuti come post di blog o descrizioni di prodotti:
ollama run llama3.2 "Scrivi un breve articolo sui vantaggi dell'uso dell'IA nel settore sanitario."> article.txt
  • Rispondere a domande specifiche per aiutare nella ricerca:
ollama run llama3.2 "Quali sono le ultime tendenze nell'intelligenza artificiale e come influenzeranno la sanità?"

Elaborazione, analisi e previsione dei dati

Ollama ti permette anche di gestire attività di elaborazione dei dati come la classificazione dei testi, l’analisi del sentiment e la previsione.

  • Classificazione del testo in sentiment positivo, negativo o neutro:
ollama run llama3.2 "Analizza il sentiment di questa recensione del cliente: 'Il prodotto è fantastico, ma la consegna è stata lenta'."
  • Categorizzazione del testo in categorie predefinite:
ollama run llama3.2 "Classifica questo testo nelle seguenti categorie: Notizie, Opinioni o Recensioni." < textfile.txt
  • Previsione di un risultato in base ai dati forniti:
ollama run llama3.2 "Prevedi l'andamento del prezzo delle azioni per il prossimo mese in base ai seguenti dati:" < stock-data.txt

Integrazione con strumenti esterni

Un altro uso comune della CLI di Ollama è combinarla con strumenti esterni per automatizzare l’elaborazione dei dati e ampliare le capacità di altri programmi.

  • Integrare Ollama con un’API di terze parti per recuperare dati, elaborarli e generare risultati:
curl -X GET "https://api.example.com/data" | ollama run llama3.2 "Analizza i seguenti dati API e riassumi le informazioni chiave."
  • Usare Python per eseguire un sottoprocesso con Ollama:
import subprocess

result = subprocess.run(['ollama', 'run', 'llama3.2', 'Dammi le ultime tendenze del mercato azionario'], capture_output=True)

print(result.stdout.decode())

Conclusioni

In questo articolo hai imparato le basi per usare Ollama tramite CLI, come eseguire comandi, interagire con i modelli e registrare le risposte dei modelli nei file.

Con l’interfaccia a riga di comando, puoi anche eseguire operazioni più avanzate, come creare nuovi modelli basati su quelli esistenti, automatizzare flussi di lavoro complessi con script e cron job e integrare Ollama con strumenti esterni.

Puoi esplorare le funzionalità di personalizzazione di Ollama per sfruttarne appieno il potenziale nei tuoi progetti di AI. Se hai domande o desideri condividere la tua esperienza con Ollama nella CLI, non esitare a utilizzare la casella dei commenti qui sotto.

FAQ sul tutorial della CLI di Ollama

Cosa posso fare con la versione CLI di Ollama?

Con la versione CLI di Ollama, puoi eseguire modelli, generare testo, eseguire attività come l’analisi del sentiment, automatizzare i flussi di lavoro con gli script, creare modelli personalizzati e integrare Ollama con strumenti esterni o API per applicazioni avanzate.

Come si installano i modelli per Ollama nella CLI?

Per installare i modelli tramite la CLI, prima assicurati di aver scaricato Ollama sul tuo sistema. Poi, usa il comando ollama pull seguito dal nome del modello. Per esempio, per installare Llama 3.2, esegui ollama pull llama3.2.

Posso usare modelli multimodali nella versione CLI?

Anche se tecnicamente puoi usare modelli multimodali come LlaVa nella CLI di Ollama, non è molto pratico perché la CLI è pensata per le attività basate sul testo. È consigliabile usare Ollama con strumenti GUI per gestire il lavoro legato alle immagini.

Tutti i contenuti dei tutorial presenti su questo sito web sono soggetti ai rigorosi standard editoriali e ai valori di Hostinger.

Author
L'autore

Faradilla Ayunindya

Faradilla, conosciuta anche come Ninda, è Content Marketing Specialist in Hostinger, con oltre 5 anni di esperienza nel settore e un background di 10 anni come linguista. Si dedica a rendere la tecnologia più accessibile, adattando guide complesse in tutorial chiari e facili da seguire. Nel tempo libero, quando non è impegnata a seguire le ultime tendenze del mondo tech e del digital marketing, ama approfondire temi legati alle scienze della vita o guardare video divertenti di animali. Puoi connetterti con lei su LinkedIn.

Cosa dicono i nostri clienti

Lascia un commento

Please fill the required fields.Please accept the privacy checkbox.Please fill the required fields and accept the privacy checkbox.

Thank you! Your comment has been successfully submitted. It will be approved within the next 24 hours.