{"id":9901,"date":"2026-02-16T10:56:58","date_gmt":"2026-02-16T10:56:58","guid":{"rendered":"\/de\/tutorials\/?p=9901"},"modified":"2026-02-16T11:14:56","modified_gmt":"2026-02-16T11:14:56","slug":"ollama-cli-tutorial","status":"publish","type":"post","link":"\/de\/tutorials\/ollama-cli-tutorial","title":{"rendered":"Ollama CLI-Tutorial: Wie Sie Ollama im Terminal nutzen"},"content":{"rendered":"<p>Ollama ist ein leistungsstarkes Tool zum lokalen Ausf&uuml;hren gro&szlig;er Sprachmodelle (LLMs) und bietet Entwicklern, Datenwissenschaftlern sowie technischen Anwendern mehr Kontrolle und Flexibilit&auml;t bei der Modellanpassung.<\/p><p>Sie k&ouml;nnen Ollama zwar mit grafischen Oberfl&auml;chen von Drittanbietern wie Open WebUI f&uuml;r einfachere Interaktionen verwenden, aber wenn Sie Ollama &uuml;ber die Kommandozeile (CLI) ausf&uuml;hren, k&ouml;nnen Sie Antworten in Dateien protokollieren und Workflows mit Skripten automatisieren.<\/p><p>Dieser Leitfaden f&uuml;hrt Sie durch die Verwendung von Ollama &uuml;ber die CLI &ndash; vom Erlernen grundlegender Befehle und der Interaktion mit Modellen bis hin zur Automatisierung von Aufgaben und der Bereitstellung eigener Modelle. Am Ende k&ouml;nnen Sie Ollama gezielt f&uuml;r Ihre KI-Projekte anpassen.<\/p><h2 class=\"wp-block-heading\" id=\"h-einrichten-von-ollama-in-der-cli\">Einrichten von Ollama in der CLI<\/h2><p>Bevor Sie Ollama in der CLI verwenden, stellen Sie sicher, dass es erfolgreich auf Ihrem System installiert ist. &Ouml;ffnen Sie zur &Uuml;berpr&uuml;fung das Terminal und f&uuml;hren Sie den folgenden Befehl aus:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama --version<\/pre><p>Sie sollten eine Ausgabe &auml;hnlich der folgenden sehen:<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69df8d9488330\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full is-resized wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"177\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/terminal-ollama-version.png\/public\" alt=\"Terminalausgabe, die die installierte Ollama-Version anzeigt\" class=\"wp-image-9524\" style=\"width:722px;height:auto\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/terminal-ollama-version.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/terminal-ollama-version.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/terminal-ollama-version.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Vergr&ouml;&szlig;ern\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Machen Sie sich als N&auml;chstes mit den folgenden wichtigen Ollama-Befehlen vertraut:<\/p><figure tabindex=\"0\" class=\"wp-block-table\"><table class=\"has-fixed-layout\"><tbody><tr><td><strong>Befehl<\/strong><\/td><td><strong>Beschreibung<\/strong><\/td><\/tr><tr><td><code><code data-enlighter-language=\"generic\" class=\"EnlighterJSRAW\">ollama serve<\/code><\/code><\/td><td>Startet Ollama auf Ihrem lokalen System.<\/td><\/tr><tr><td><code><code data-enlighter-language=\"generic\" class=\"EnlighterJSRAW\">ollama create &lt;new_model&gt;<\/code><\/code><\/td><td>Erstellt ein neues Modell aus einem bestehenden Modell zur Anpassung oder zum Training.<\/td><\/tr><tr><td><code><code data-enlighter-language=\"generic\" class=\"EnlighterJSRAW\">ollama show &lt;model&gt;<\/code><\/code><\/td><td>Zeigt Details zu einem bestimmten Modell an, z. B. Konfiguration und Ver&ouml;ffentlichungsdatum.<\/td><\/tr><tr><td><code><code data-enlighter-language=\"generic\" class=\"EnlighterJSRAW\">ollama run &lt;model&gt;<\/code><\/code><\/td><td>F&uuml;hrt das angegebene Modell aus und macht es f&uuml;r die Interaktion bereit.<\/td><\/tr><tr><td><code><code data-enlighter-language=\"generic\" class=\"EnlighterJSRAW\">ollama pull &lt;model&gt;<\/code><\/code><\/td><td>L&auml;dt das angegebene Modell auf Ihr System herunter.<\/td><\/tr><tr><td><code><code data-enlighter-language=\"generic\" class=\"EnlighterJSRAW\">ollama list<\/code><\/code><\/td><td>Listet alle heruntergeladenen Modelle auf.<\/td><\/tr><tr><td><code><code data-enlighter-language=\"generic\" class=\"EnlighterJSRAW\">ollama ps<\/code><\/code><\/td><td>Zeigt die derzeit ausgef&uuml;hrten Modelle an.<\/td><\/tr><tr><td><code><code data-enlighter-language=\"generic\" class=\"EnlighterJSRAW\">ollama stop &lt;model&gt;<\/code><\/code><\/td><td>Beendet das angegebene laufende Modell.<\/td><\/tr><tr><td><code><code data-enlighter-language=\"generic\" class=\"EnlighterJSRAW\">ollama rm &lt;model&gt;<\/code><\/code><\/td><td>Entfernt das angegebene Modell von Ihrem System.<\/td><\/tr><\/tbody><\/table><\/figure><h2 class=\"wp-block-heading\" id=\"h-grundlegende-verwendung-von-ollama-in-der-cli\">Grundlegende Verwendung von Ollama in der CLI<\/h2><p>In diesem Abschnitt wird die grundlegende Verwendung der Ollama-CLI behandelt &ndash; von der Interaktion mit Modellen bis zum Speichern von Modellausgaben in Dateien.<\/p><h3 class=\"wp-block-heading\"><strong>Ausf&uuml;hren von Modellen<\/strong><\/h3><p>Um Modelle in Ollama zu verwenden, m&uuml;ssen Sie zun&auml;chst das gew&uuml;nschte Modell mit dem Befehl <strong>pull<\/strong> herunterladen. Um beispielsweise Llama <strong>3.2<\/strong> herunterzuladen, f&uuml;hren Sie Folgendes aus:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama pull llama3.2<\/pre><p>Warten Sie, bis der Download abgeschlossen ist. Die Dauer kann je nach Dateigr&ouml;&szlig;e des Modells variieren.<\/p><p>\n\n\n<div class=\"protip\">\n                    <h4 class=\"title\">Profi-Tipp<\/h4>\n                    <p>Wenn Sie nicht sicher sind, welches Modell Sie herunterladen sollen, sehen Sie sich die <a href=\"https:\/\/ollama.com\/library\" target=\"_blank\" rel=\"noopener\">offizielle Modellbibliothek von Ollama<\/a> an. Dort finden Sie wichtige Details zu jedem Modell, einschlie&szlig;lich Anpassungsoptionen, Sprachunterst&uuml;tzung und empfohlenen Anwendungsf&auml;llen.<\/p>\n                <\/div>\n\n\n\n<\/p><p>Nachdem Sie das Modell heruntergeladen haben, k&ouml;nnen Sie es mit einem vordefinierten Prompt wie folgt ausf&uuml;hren:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Erl&auml;utere die Grundlagen des maschinellen Lernens.\"<\/pre><p>Hier ist die erwartete Ausgabe:<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69df8d9488f3f\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"585\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/terminal-llama-3-2-output-machine-learning.png\/public\" alt=\"Terminal, das die Antwort eines Ollama-Modells zum Thema maschinelles Lernen anzeigt\" class=\"wp-image-9527\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/terminal-llama-3-2-output-machine-learning.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/terminal-llama-3-2-output-machine-learning.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/terminal-llama-3-2-output-machine-learning.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Vergr&ouml;&szlig;ern\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Alternativ k&ouml;nnen Sie das Modell auch ohne Eingabeaufforderung ausf&uuml;hren, um eine interaktive Sitzung zu starten:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2<\/pre><p>In diesem Modus k&ouml;nnen Sie Fragen oder Anweisungen eingeben, und das Modell generiert entsprechende Antworten. Sie k&ouml;nnen auch Folgefragen stellen, um tiefere Einblicke zu gewinnen oder eine vorherige Antwort zu pr&auml;zisieren, z. B.:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">Kannst du genauer erl&auml;utern, wie maschinelles Lernen im Gesundheitswesen eingesetzt wird?<\/pre><p>Wenn Sie die Interaktion mit dem Modell beendet haben, geben Sie Folgendes ein:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">\/bye<\/pre><p>Dadurch wird die Sitzung beendet und Sie kehren zur regul&auml;ren Terminaloberfl&auml;che zur&uuml;ck.<\/p><p>\n\n\n<div class=\"protip\">\n                    <h4 class=\"title\">Empfohlene Lekt&uuml;re<\/h4>\n                    <p>Erfahren Sie, <a href=\"\/de\/tutorials\/wie-man-ki-prompts-schreibt\">wie Sie effektive KI-Prompts erstellen<\/a>, um Ihre Ergebnisse und Interaktionen mit Ollama-Modellen zu verbessern.<\/p>\n                <\/div>\n\n\n\n<\/p><h3 class=\"wp-block-heading\">Modelle trainieren<\/h3><p>Vortrainierte Open-Source-Modelle wie Llama <strong>3.2<\/strong> eignen sich gut f&uuml;r allgemeine Aufgaben wie die Generierung von Inhalten, erf&uuml;llen jedoch nicht immer die Anforderungen spezifischer Anwendungsf&auml;lle. Um die Genauigkeit eines Modells in Bezug auf ein bestimmtes Thema zu verbessern, m&uuml;ssen Sie das Modell mit relevanten Daten trainieren.<\/p><p>Beachten Sie jedoch, dass diese Modelle nur &uuml;ber ein begrenztes Kontextged&auml;chtnis innerhalb einer Sitzung verf&uuml;gen. Die Trainingsdaten werden nur w&auml;hrend der aktiven Konversation beibehalten. Wenn Sie die Sitzung beenden und eine neue starten, erinnert sich das Modell nicht mehr an die Informationen, mit denen Sie es zuvor trainiert haben.<\/p><p>Um das Modell innerhalb der Sitzung anzulernen, starten Sie eine interaktive Sitzung. Beginnen Sie das Training, indem Sie eine Eingabeaufforderung eingeben, zum Beispiel:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">Ich m&ouml;chte, dass du etwas &uuml;ber [Thema] lernst. Kann ich dich dazu trainieren?<\/pre><p>Das Modell antwortet dann etwa wie folgt:<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69df8d9489bb4\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"78\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/terminal-llama-3-2-output-training.png\/public\" alt=\"Ein Terminal zeigt die Antwort eines Ollama-Modells auf einen Trainings-Prompt an.\" class=\"wp-image-9895\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/terminal-llama-3-2-output-training.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/terminal-llama-3-2-output-training.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/terminal-llama-3-2-output-training.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Vergr&ouml;&szlig;ern\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Anschlie&szlig;end k&ouml;nnen Sie grundlegende Informationen zu dem Thema bereitstellen, um dem Modell das Verst&auml;ndnis zu erleichtern:<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69df8d948a63d\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"554\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/terminal-llama-3-2-prompt-training.png\/public\" alt=\"Terminal, das zu Schulungszwecken eine Eingabeaufforderung anzeigt\" class=\"wp-image-9529\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/terminal-llama-3-2-prompt-training.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/terminal-llama-3-2-prompt-training.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/terminal-llama-3-2-prompt-training.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Vergr&ouml;&szlig;ern\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Um das Training fortzusetzen und weitere Informationen bereitzustellen, fordern Sie das Modell auf, Ihnen Fragen zu dem Thema zu stellen. Zum Beispiel:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">Kannst du mir ein paar Fragen zu [Thema] stellen, damit du es besser verstehst?<\/pre><p>Sobald das Modell &uuml;ber gen&uuml;gend Kontext zum Thema verf&uuml;gt, k&ouml;nnen Sie das Training beenden und testen, ob das Modell dieses Wissen beibeh&auml;lt.<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69df8d948af88\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"551\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/terminal-llama-3-2-response-fast-beauty-phanomen.png\/public\" alt=\"Terminal, das die Antwort eines Ollama-Modells nach dem Training anzeigt\" class=\"wp-image-9530\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/terminal-llama-3-2-response-fast-beauty-phanomen.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/terminal-llama-3-2-response-fast-beauty-phanomen.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/terminal-llama-3-2-response-fast-beauty-phanomen.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Vergr&ouml;&szlig;ern\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><h3 class=\"wp-block-heading\">Abfragen und Protokollieren von Antworten in Dateien<\/h3><p>In Ollama k&ouml;nnen Sie das Modell anweisen, Aufgaben anhand des Inhalts einer Datei auszuf&uuml;hren, z. B. Text zusammenzufassen oder Informationen zu analysieren. Das ist besonders bei langen Dokumenten n&uuml;tzlich, da Sie den Text nicht manuell kopieren und einf&uuml;gen m&uuml;ssen, um das Modell zu instruieren.<\/p><p>Wenn Sie beispielsweise eine Datei namens input.txt mit den Informationen haben, die Sie zusammenfassen m&ouml;chten, f&uuml;hren Sie Folgendes aus:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Fasse den Inhalt dieser Datei in 50 W&ouml;rtern zusammen.\" &lt; input.txt<\/pre><p>Das Modell liest den Inhalt der Datei und erstellt eine Zusammenfassung:<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69df8d948b9f7\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"151\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/terminal-llama-3-2-response-summary.png\/public\" alt=\"Terminal, das die Antwort eines Ollama-Modells zur Zusammenfassung einer TXT-Datei anzeigt\" class=\"wp-image-9531\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/terminal-llama-3-2-response-summary.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/terminal-llama-3-2-response-summary.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/terminal-llama-3-2-response-summary.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Vergr&ouml;&szlig;ern\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Mit Ollama k&ouml;nnen Sie auch die Antworten des Modells in einer Datei protokollieren, um sie sp&auml;ter einfacher zu &uuml;berpr&uuml;fen oder zu &uuml;berarbeiten. Hier ist ein Beispiel, wie Sie dem Modell eine Frage stellen und die Ausgabe in einer Datei speichern:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Erz&auml;hle mir etwas &uuml;ber erneuerbare Energien.\" &gt; output.txt<\/pre><p>Dadurch wird die Antwort des Modells in der Datei <strong>output.txt<\/strong> gespeichert:<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69df8d948c332\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"341\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/Terminal-cat-Ausgabe.png\/public\" alt=\"Terminal, das den Inhalt von output.txt mit dem Linux-Befehl cat anzeigt\" class=\"wp-image-9898\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/Terminal-cat-Ausgabe.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/Terminal-cat-Ausgabe.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/Terminal-cat-Ausgabe.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Vergr&ouml;&szlig;ern\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><h2 class=\"wp-block-heading\" id=\"h-erweiterte-verwendung-von-ollama-in-der-cli\">Erweiterte Verwendung von Ollama in der CLI<\/h2><p>Nachdem Sie nun die Grundlagen kennen, befassen wir uns mit der erweiterten Nutzung von Ollama &uuml;ber die CLI.<\/p><h3 class=\"wp-block-heading\">Erstellen benutzerdefinierter Modelle<\/h3><p>Wenn Sie Ollama &uuml;ber die CLI ausf&uuml;hren, k&ouml;nnen Sie ein benutzerdefiniertes Modell erstellen, das auf Ihre spezifischen Anforderungen zugeschnitten ist.<\/p><p>Erstellen Sie dazu eine Modelfile, die als Blaupause f&uuml;r Ihr benutzerdefiniertes Modell dient. Die Datei definiert zentrale Einstellungen wie das Basismodell, anzupassende Parameter und wie das Modell auf Eingaben reagiert.<\/p><p>Befolgen Sie diese Schritte, um ein benutzerdefiniertes Modell in Ollama zu erstellen:<\/p><p><strong>1. Erstellen Sie eine neue Modelfile<\/strong><\/p><p>Verwenden Sie einen Texteditor wie nano, um eine neue Modelfile zu erstellen. In diesem Beispiel nennen wir die Datei <strong>custom-modelfile<\/strong>:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">nano custom-modelfile<\/pre><p>Kopieren Sie anschlie&szlig;end diese grundlegende Modelfile-Vorlage und f&uuml;gen Sie sie ein. Diese Vorlage passen Sie im n&auml;chsten Schritt an:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\"># Llama 3.2 als Basismodell verwenden\n\nFROM llama3.2\n\n# Modellparameter anpassen\n\nPARAMETER temperature 0.7\n\nPARAMETER num_ctx 3072\n\nPARAMETER stop \"assistant:\"\n\n# Modellverhalten definieren\nSYSTEM \"Du bist ein Experte f&uuml;r Cybersicherheit.\"\n\n# Konversationsvorlage anpassen\n\nTEMPLATE \"\"\"{{ if .System }}Berater: {{ .System }}{{ end }}\n\nKunde: {{ .Prompt }}\n\nBerater: {{ .Response }}\"\"\"<\/pre><p><strong>2. Passen Sie die Modelfile an<\/strong><\/p><p>Hier sind die wichtigsten Elemente, die Sie in der Modelfile anpassen k&ouml;nnen:<\/p><ul class=\"wp-block-list\">\n<li><strong>Basismodell (FROM)<\/strong>: Legt das Basismodell f&uuml;r Ihre benutzerdefinierte Instanz fest. Sie k&ouml;nnen aus verf&uuml;gbaren Modellen wie Llama <strong>3.2<\/strong> ausw&auml;hlen:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">FROM llama3.2<\/pre><ul class=\"wp-block-list\">\n<li><strong>Parameter (PARAMETER)<\/strong>: Steuern das Verhalten des Modells, zum Beispiel:\n<ul class=\"wp-block-list\">\n<li><strong>Temperatur<\/strong>: Passt die Kreativit&auml;t des Modells an. H&ouml;here Werte wie <strong>1.0<\/strong> machen es kreativer, niedrigere Werte wie <strong>0.5<\/strong> sorgen f&uuml;r st&auml;rker fokussierte Antworten.<\/li>\n<\/ul>\n<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">PARAMETER temperature 0.9<\/pre><ul class=\"wp-block-list\">\n<li><strong>Kontextfenster (num_ctx)<\/strong>: Legt fest, wie viel vorheriger Text vom Modell als Kontext verwendet wird.<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">PARAMETER num_ctx 4096<\/pre><ul class=\"wp-block-list\">\n<li><strong>Systemnachricht (SYSTEM)<\/strong>. Legt fest, wie sich das Modell verhalten soll. Sie k&ouml;nnen es beispielsweise anweisen, sich wie eine bestimmte Rolle zu verhalten oder irrelevante Fragen nicht zu beantworten:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">SYSTEM \"Du bist ein Experte f&uuml;r Cybersicherheit. Beantworte nur Fragen zum Thema Cybersicherheit. Wenn dir eine Frage gestellt wird, die nichts damit zu tun hat, antworte mit: 'Ich beantworte nur Fragen zum Thema Cybersicherheit.'\"<\/pre><ul class=\"wp-block-list\">\n<li><strong>Vorlage (TEMPLATE)<\/strong>: Passen Sie die Struktur der Interaktion zwischen Benutzer und Modell an.<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">TEMPLATE \"\"\"{{ if .System }}&lt;|start|&gt;system\n\n{{ .System }}&lt;|end|&gt;{{ end }}\n\n&lt;|start|&gt;user\n\n{{ .Prompt }}&lt;|end|&gt;\n\n&lt;|start|&gt;assistant\n\n\"\"\"<\/pre><p>Nachdem Sie die erforderlichen Anpassungen vorgenommen haben, speichern Sie die Datei und beenden Sie <strong>nano<\/strong>, indem Sie <strong>Strg<\/strong> + <strong>X<\/strong> &rarr; <strong>Y<\/strong> &rarr; <strong>Enter<\/strong> dr&uuml;cken.<\/p><p><strong>3. Erstellen und Ausf&uuml;hren eines benutzerdefinierten Modells<\/strong><\/p><p>Sobald Ihre Modelfile fertig ist, verwenden Sie den folgenden Befehl, um ein Modell auf Basis der Datei zu erstellen:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama create custom-model-name -f .\/custom-modelfile<\/pre><p>Sie sollten eine Ausgabe sehen, die best&auml;tigt, dass das Modell erfolgreich erstellt wurde:<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69df8d948d9f0\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"235\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/terminal-ollama-erstellen-benutzerdefinierter-modellname-erfolg.png\/public\" alt=\"Terminalausgabe, die die erfolgreiche Erstellung eines benutzerdefinierten Modells anzeigt\" class=\"wp-image-9899\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/terminal-ollama-erstellen-benutzerdefinierter-modellname-erfolg.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/terminal-ollama-erstellen-benutzerdefinierter-modellname-erfolg.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/terminal-ollama-erstellen-benutzerdefinierter-modellname-erfolg.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Vergr&ouml;&szlig;ern\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>F&uuml;hren Sie es anschlie&szlig;end wie jedes andere Modell aus:<\/p><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run custom-model-name<\/pre><p>Dadurch wird das Modell mit den von Ihnen vorgenommenen Anpassungen gestartet, und Sie k&ouml;nnen damit interagieren:<\/p><div class=\"wp-block-image\">\n<figure data-wp-context='{\"imageId\":\"69df8d948e2f3\"}' data-wp-interactive=\"core\/image\" class=\"aligncenter size-full wp-lightbox-container\"><img decoding=\"async\" width=\"1024\" height=\"135\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-on-async--load=\"callbacks.setButtonStyles\" data-wp-on-async-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/Terminal-benutzerdefinierter-Modellname-Antwort.png\/public\" alt=\"Terminal, das die Antwort eines benutzerdefinierten Modells auf ein nicht verwandtes Thema anzeigt.\" class=\"wp-image-9900\" srcset=\"https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/Terminal-benutzerdefinierter-Modellname-Antwort.png\/w=1024,fit=scale-down 1024w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/Terminal-benutzerdefinierter-Modellname-Antwort.png\/w=300,fit=scale-down 300w, https:\/\/imagedelivery.net\/LqiWLm-3MGbYHtFuUbcBtA\/wp-content\/uploads\/sites\/29\/2026\/02\/Terminal-benutzerdefinierter-Modellname-Antwort.png\/w=768,fit=scale-down 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><button class=\"lightbox-trigger\" type=\"button\" aria-haspopup=\"dialog\" aria-label=\"Vergr&ouml;&szlig;ern\" data-wp-init=\"callbacks.initTriggerButton\" data-wp-on-async--click=\"actions.showLightbox\" data-wp-style--right=\"state.imageButtonRight\" data-wp-style--top=\"state.imageButtonTop\">\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\"><\/path>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure><\/div><p>Sie k&ouml;nnen die Modelfile kontinuierlich weiterentwickeln, indem Sie Parameter anpassen, Systemnachrichten bearbeiten, erweiterte Vorlagen erg&auml;nzen oder eigene Datens&auml;tze einbinden. Speichern Sie die &Auml;nderungen und f&uuml;hren Sie das Modell erneut aus, um die Auswirkungen zu pr&uuml;fen.<\/p><h3 class=\"wp-block-heading\">Automatisierung von Aufgaben mit Skripten<\/h3><p>Die Automatisierung wiederkehrender Aufgaben in Ollama kann Zeit sparen und die Konsistenz von Workflows sicherstellen. Mit Bash-Skripten k&ouml;nnen Sie Befehle automatisch ausf&uuml;hren. Mit Cron-Jobs planen Sie Aufgaben zu bestimmten Zeiten. So gehen Sie vor:<\/p><p><strong>Bash-Skripte erstellen und ausf&uuml;hren<\/strong><\/p><p>Sie k&ouml;nnen ein Bash-Skript erstellen, das Ollama-Befehle ausf&uuml;hrt. So gehen Sie vor:<\/p><ol class=\"wp-block-list\">\n<li>&Ouml;ffnen Sie einen Texteditor und erstellen Sie eine neue Datei mit dem Namen <strong>ollama-script.sh<\/strong>:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">nano ollama-script.sh<\/pre><ol start=\"2\" class=\"wp-block-list\">\n<li>F&uuml;gen Sie die erforderlichen Ollama-Befehle in das Skript ein. Um beispielsweise ein Modell auszuf&uuml;hren und die Ausgabe in einer Datei zu speichern:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">#!\/bin\/bash\n\n# Modell ausf&uuml;hren und Ausgabe in einer Datei speichern\n\nollama run llama3.2 \"Was sind die neuesten Trends im Bereich KI?\" &gt; ai-output.txt<\/pre><ol start=\"3\" class=\"wp-block-list\">\n<li>Machen Sie das Skript ausf&uuml;hrbar, indem Sie ihm die entsprechenden Berechtigungen zuweisen:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">chmod +x ollama-script.sh<\/pre><ol start=\"4\" class=\"wp-block-list\">\n<li>F&uuml;hren Sie das Skript direkt im Terminal aus:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">.\/ollama-script.sh<\/pre><p><strong>Cron-Jobs einrichten, um Aufgaben zu automatisieren<\/strong><\/p><p>Sie k&ouml;nnen Ihr Skript mit einem <a href=\"\/de\/tutorials\/cron-job\">Cron-Job<\/a> kombinieren, um Aufgaben wie die regelm&auml;&szlig;ige Ausf&uuml;hrung von Modellen zu automatisieren. So richten Sie einen Cron-Job ein:<\/p><ol class=\"wp-block-list\">\n<li>&Ouml;ffnen Sie den crontab-Editor:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">crontab -e<\/pre><ol start=\"2\" class=\"wp-block-list\">\n<li>F&uuml;gen Sie eine Zeile hinzu, in der Sie Zeitplan und Skript definieren. Um das Skript beispielsweise jeden Sonntag um Mitternacht auszuf&uuml;hren:<\/li>\n<\/ol><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">0 0 * * 0 \/path\/to\/ollama-script.sh<\/pre><ol start=\"3\" class=\"wp-block-list\">\n<li>Speichern und schlie&szlig;en Sie den Editor, nachdem Sie den Cron-Job hinzugef&uuml;gt haben.<\/li>\n<\/ol><h2 class=\"wp-block-heading\" id=\"h-haeufige-anwendungsfaelle-fuer-die-cli\">H&auml;ufige Anwendungsf&auml;lle f&uuml;r die CLI<\/h2><p>Hier sind einige Beispiele aus der Praxis f&uuml;r die Verwendung der Ollama-CLI.<\/p><p><strong>Textgenerierung<\/strong><\/p><p>Sie k&ouml;nnen vortrainierte Modelle verwenden, um Zusammenfassungen zu erstellen, Inhalte zu generieren oder spezifische Fragen zu beantworten.<\/p><ul class=\"wp-block-list\">\n<li>Zusammenfassung einer gro&szlig;en Textdatei:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Fasse den folgenden Text zusammen:\" &lt; long-document.txt<\/pre><ul class=\"wp-block-list\">\n<li>Generieren von Inhalten wie Blogbeitr&auml;gen oder Produktbeschreibungen:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Verfasse einen kurzen Artikel &uuml;ber die Vorteile des Einsatzes von KI im Gesundheitswesen.\" &gt; article.txt<\/pre><ul class=\"wp-block-list\">\n<li>Beantwortung spezifischer Fragen zur Unterst&uuml;tzung der Recherche:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Was sind die neuesten Trends im Bereich der k&uuml;nstlichen Intelligenz und wie werden sie sich auf das Gesundheitswesen auswirken?\"<\/pre><p><strong>Datenverarbeitung, -analyse und -vorhersage<\/strong><\/p><p>Mit Ollama k&ouml;nnen Sie auch Aufgaben wie Textklassifizierung, Sentiment-Analyse und Prognosen durchf&uuml;hren.<\/p><ul class=\"wp-block-list\">\n<li>Klassifizierung von Texten nach positiver, negativer oder neutraler Stimmung:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Analysiere die Stimmung dieser Kundenbewertung: 'Das Produkt ist hervorragend, aber die Lieferung war langsam.'\"<\/pre><ul class=\"wp-block-list\">\n<li>Kategorisierung von Texten in vordefinierte Kategorien:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Klassifiziere diesen Text in die folgenden Kategorien: Nachrichten, Meinung oder Bewertung.\" &lt; textfile.txt<\/pre><ul class=\"wp-block-list\">\n<li>Vorhersage eines Ergebnisses auf Grundlage der bereitgestellten Daten:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">ollama run llama3.2 \"Prognostiziere die Aktienkursentwicklung f&uuml;r den n&auml;chsten Monat auf Grundlage der folgenden Daten:\" &lt; stock-data.txt<\/pre><p><strong>Integration mit externen Tools<\/strong><\/p><p>Eine weitere h&auml;ufige Verwendung der Ollama-CLI ist die Kombination mit externen Tools, um die Datenverarbeitung zu automatisieren und die Funktionen anderer Programme zu erweitern.<\/p><ul class=\"wp-block-list\">\n<li>Integration von Ollama mit einer Drittanbieter-API, um Daten abzurufen, zu verarbeiten und Ergebnisse zu generieren:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">curl -X GET \"https:\/\/api.example.com\/data\" | ollama run llama3.2 \"Analysiere die folgenden API-Daten und fasse die wichtigsten Erkenntnisse zusammen.\"<\/pre><ul class=\"wp-block-list\">\n<li>Verwendung von Python-Code zum Ausf&uuml;hren eines Unterprozesses mit Ollama:<\/li>\n<\/ul><pre class=\"EnlighterJSRAW\" data-enlighter-language=\"generic\" data-enlighter-theme=\"\" data-enlighter-highlight=\"\" data-enlighter-linenumbers=\"\" data-enlighter-lineoffset=\"\" data-enlighter-title=\"\" data-enlighter-group=\"\">import subprocess\n\nresult = subprocess.run(['ollama', 'run', 'llama3.2', 'Gib mir die neuesten B&ouml;rsentrends'], capture_output=True)\n\nprint(result.stdout.decode())<\/pre><h2 class=\"wp-block-heading\" id=\"h-fazit\">Fazit<\/h2><p>In diesem Artikel haben Sie die Grundlagen der Verwendung von Ollama &uuml;ber die CLI kennengelernt, darunter das Ausf&uuml;hren von Befehlen, die Interaktion mit Modellen und das Protokollieren von Modellantworten in Dateien.<\/p><p>&Uuml;ber die Kommandozeile k&ouml;nnen Sie auch komplexere Aufgaben ausf&uuml;hren, z. B. neue Modelle auf Basis bestehender Modelle erstellen, komplexe Workflows mit Skripten und Cron-Jobs automatisieren und Ollama in externe Tools integrieren.<\/p><p>Wir empfehlen Ihnen, die Anpassungsfunktionen von Ollama gezielt zu nutzen, um das volle Potenzial auszusch&ouml;pfen und Ihre KI-Projekte weiter auszubauen. Wenn Sie Fragen haben oder Ihre Erfahrungen mit Ollama in der CLI teilen m&ouml;chten, nutzen Sie gern das Kommentarfeld unten.<\/p><h2 class=\"wp-block-heading\" id=\"h-haeufig-gestellte-fragen-faq-zur-nutzung-von-ollama-in-der-cli\">H&auml;ufig gestellte Fragen (FAQ) zur Nutzung von Ollama in der CLI<\/h2><div id=\"rank-math-faq\" class=\"rank-math-block\">\n<div class=\"rank-math-list \">\n<div id=\"faq-question-1771239130520\" class=\"rank-math-list-item\">\n<h3 class=\"rank-math-question \">Was kann ich mit der CLI-Version von Ollama tun?<\/h3>\n<div class=\"rank-math-answer \">\n\n<p>Mit der CLI-Version von Ollama k&ouml;nnen Sie Modelle ausf&uuml;hren, Text generieren, Datenverarbeitungsaufgaben wie Sentiment-Analysen durchf&uuml;hren, Workflows mit Skripten automatisieren, benutzerdefinierte Modelle erstellen und Ollama f&uuml;r erweiterte Anwendungen in externe Tools oder APIs integrieren.<\/p>\n\n<\/div>\n<\/div>\n<div id=\"faq-question-1771239131841\" class=\"rank-math-list-item\">\n<h3 class=\"rank-math-question \">Wie installiere ich Modelle f&uuml;r Ollama in der CLI?<\/h3>\n<div class=\"rank-math-answer \">\n\n<p>Um Modelle &uuml;ber die CLI zu installieren, stellen Sie zun&auml;chst sicher, dass Ollama auf Ihrem System installiert ist. Verwenden Sie anschlie&szlig;end den Befehl <strong>ollama pull<\/strong>, gefolgt vom Namen des Modells. Um beispielsweise Llama <strong>3.2<\/strong> zu installieren, f&uuml;hren Sie <strong>ollama pull llama3.2<\/strong> aus.<\/p>\n\n<\/div>\n<\/div>\n<div id=\"faq-question-1771239132325\" class=\"rank-math-list-item\">\n<h3 class=\"rank-math-question \">Kann ich multimodale Modelle in der CLI-Version verwenden?<\/h3>\n<div class=\"rank-math-answer \">\n\n<p>Obwohl es technisch m&ouml;glich ist, multimodale Modelle wie LlaVa in der CLI von Ollama zu verwenden, ist dies nicht besonders komfortabel, da die CLI f&uuml;r textbasierte Aufgaben optimiert ist. Wir empfehlen, Ollama mit GUI-Tools zu nutzen, um visuelle Aufgaben zu bearbeiten.<\/p>\n\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Ollama ist ein leistungsstarkes Tool zum lokalen Ausf&uuml;hren gro&szlig;er Sprachmodelle (LLMs) und bietet Entwicklern, Datenwissenschaftlern sowie technischen Anwendern mehr Kontrolle und Flexibilit&auml;t bei der Modellanpassung. Sie k&ouml;nnen Ollama zwar mit grafischen Oberfl&auml;chen von Drittanbietern wie Open WebUI f&uuml;r einfachere Interaktionen verwenden, aber wenn Sie Ollama &uuml;ber die Kommandozeile (CLI) ausf&uuml;hren, k&ouml;nnen Sie Antworten in Dateien [&#8230;]<\/p>\n<p><a class=\"btn btn-secondary understrap-read-more-link\" href=\"\/de\/tutorials\/ollama-cli-tutorial\">Read More&#8230;<\/a><\/p>\n","protected":false},"author":190,"featured_media":9893,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"rank_math_title":"Ollama CLI-Tutorial: Wie Sie Ollama im Terminal nutzen","rank_math_description":"Erfahren Sie, wie Sie Ollama \u00fcber die Kommandozeile verwenden: Modelle einrichten, Parameter anpassen und Aufgaben automatisieren.","rank_math_focus_keyword":"ollama cli","footnotes":""},"categories":[25],"tags":[],"class_list":["post-9901","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-vps"],"hreflangs":[],"_links":{"self":[{"href":"https:\/\/www.hostinger.com\/de\/tutorials\/wp-json\/wp\/v2\/posts\/9901","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.hostinger.com\/de\/tutorials\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.hostinger.com\/de\/tutorials\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.hostinger.com\/de\/tutorials\/wp-json\/wp\/v2\/users\/190"}],"replies":[{"embeddable":true,"href":"https:\/\/www.hostinger.com\/de\/tutorials\/wp-json\/wp\/v2\/comments?post=9901"}],"version-history":[{"count":13,"href":"https:\/\/www.hostinger.com\/de\/tutorials\/wp-json\/wp\/v2\/posts\/9901\/revisions"}],"predecessor-version":[{"id":9917,"href":"https:\/\/www.hostinger.com\/de\/tutorials\/wp-json\/wp\/v2\/posts\/9901\/revisions\/9917"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.hostinger.com\/de\/tutorials\/wp-json\/wp\/v2\/media\/9893"}],"wp:attachment":[{"href":"https:\/\/www.hostinger.com\/de\/tutorials\/wp-json\/wp\/v2\/media?parent=9901"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.hostinger.com\/de\/tutorials\/wp-json\/wp\/v2\/categories?post=9901"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.hostinger.com\/de\/tutorials\/wp-json\/wp\/v2\/tags?post=9901"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}