{"id":27248,"date":"2025-12-16T10:59:00","date_gmt":"2025-12-16T09:59:00","guid":{"rendered":"https:\/\/contabo.com\/blog\/was-ist-ollama-und-wie-nutzt-du-es-mit-n8n\/"},"modified":"2026-01-15T11:38:55","modified_gmt":"2026-01-15T10:38:55","slug":"was-ist-ollama-und-wie-nutzt-du-es-mit-n8n","status":"publish","type":"post","link":"https:\/\/contabo.com\/blog\/de\/was-ist-ollama-und-wie-nutzt-du-es-mit-n8n\/","title":{"rendered":"Was ist Ollama und wie nutzt du es mit n8n?"},"content":{"rendered":"\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"1200\" height=\"630\" src=\"https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/blog-head_-what-is-ollama.webp\" alt=\"Was ist Ollama und wie nutzt du es mit n8n? (Titelbild)\" class=\"wp-image-26377\" srcset=\"https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/blog-head_-what-is-ollama.webp 1200w, https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/blog-head_-what-is-ollama-600x315.webp 600w, https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/blog-head_-what-is-ollama-768x403.webp 768w\" sizes=\"auto, (max-width: 1200px) 100vw, 1200px\" \/><\/figure>\n\n\n\n<p>Das Ausf\u00fchren von LLMs bedeutete fr\u00fcher: Cloud-APIs, Token-Abrechnung und das Vertrauen auf Drittanbieter. Heute gibt es bessere M\u00f6glichkeiten wie Ollama: Ollama ist ein Open-Source-Tool, das LLM-Hosting auf eigener Hardware so einfach macht wie jede andere Installation.<\/p>\n\n\n\n<p>Die n8n-Ollama-Integration bietet dir KI-Workflows auf einer Infrastruktur, die du allein kontrollierst. Deine Prompts bleiben lokal. Antworten werden direkt auf deinem VPS generiert. Es gibt keine Nutzungslimits, die dein Budget langsam auffressen. F\u00fcr Projekte, die KI und Automatisierung ernsthaft angehen, hebt diese Kombination alles auf ein neues Level. <\/p>\n\n\n\n<p>Dieser Guide zeigt dir, was Ollama eigentlich macht und wie die Technik unter der Haube funktioniert inklusive praktischer Schritte, um es in n8n-Workflows einzubinden.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-was-ist-ollama-die-kernkonzepte\">Was ist Ollama: Die Kernkonzepte <\/h2>\n\n\n\n<p>Ollama ist eine Open-Source-Plattform, die das lokale Ausf\u00fchren von Large Language Models (LLMs) vereinfacht. Statt APIs von OpenAI oder Anthropic aufzurufen, l\u00e4dst du die Modelle auf deinen Server und f\u00fchrst die Inferenz direkt dort aus. Modell-Management, Serving und Optimierung sind bereits integriert, sodass du nicht Wochen damit verbringen musst, diese Infrastruktur selbst aufzubauen. <\/p>\n\n\n\n<p>Die Hauptfeatures von Ollama konzentrieren sich auf die simple Zug\u00e4nglichkeit. Das Modell-Management funktioniert \u00fcber einfache Befehle: <code>ollama pull llama3.2<\/code> l\u00e4dt ein Modell herunter, <code>ollama run llama3.2<\/code> startet direkt einen Chat. Hinter diesen Befehlen steckt ein API-Server, den andere Anwendungen aufrufen k\u00f6nnen. Genau das ist dein Integrationspunkt f\u00fcr n8n.<\/p>\n\n\n\n<p>Die Performance von Ollama h\u00e4ngt von deiner Hardware ab, aber das Tool optimiert die Inferenz automatisch. Es jongliert mit dem Laden von Modellen, dem Speichermanagement und der GPU-Nutzung &#8211; ganz ohne manuelles Tuning. Ein Modell mit 7B-Parametern l\u00e4uft bereits auf herk\u00f6mmlichen Consumer-CPUs recht ordentlich. Gr\u00f6\u00dfere Modelle profitieren von GPUs, setzen diese aber nicht zwingend voraus.<\/p>\n\n\n\n<p>Hier wird es in Sachen Sicherheit spannend: Die Inferenz findet direkt auf deiner Infrastruktur statt. Deine Prompts landen nie bei externen APIs und die Model-Files liegen sicher auf deiner eigenen Platte. Antworten werden lokal generiert und erreichen niemals fremde Server. F\u00fcr Teams, die mit sensiblen Daten arbeiten oder strenge Compliance-Vorgaben erf\u00fcllen m\u00fcssen, ver\u00e4ndert das das Risikoprofil im Vergleich zu Cloud-LLMs grundlegend. Wir glauben, dass das schwerer wiegt als die meisten Benchmark-Vergleiche.<\/p>\n\n\n\n<p>Die Plattform unterst\u00fctzt dutzende Modelle wie Llama, Mistral, Gemma und DeepSeek. Sie k\u00f6nnen mehrere Modelle gleichzeitig ausf\u00fchren und zwischen ihnen pro Anfrage wechseln, indem Sie die richtige Modellgr\u00f6\u00dfe und -f\u00e4higkeit f\u00fcr jede Aufgabe ausw\u00e4hlen, anstatt alles \u00fcber einen Endpunkt zu zwingen. <\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-wie-funktioniert-ollama\">Wie funktioniert Ollama?<\/h2>\n\n\n\n<p>Ollama legt los, sobald du ein Modell mit &#8222;pull&#8220; abrufst. Es l\u00e4dt die Modell-Dateien herunter, speichert sie lokal und stellt sie dem API-Server zur Verf\u00fcgung. Sobald eine Anfrage eingeht, l\u00e4dt Ollama das Modell in den Arbeitsspeicher (oder h\u00e4lt es f\u00fcr weitere Anfragen geladen), f\u00fchrt die Inferenz aus und liefert das Ergebnis zur\u00fcck.<\/p>\n\n\n\n<p>Wo speichert Ollama die Modelle? Diese liegen in einer ganz bestimmten Verzeichnisstruktur. Unter Linux ist das normalerweise <code>~\/.ollama\/models\/<\/code>. Jedes Modell besteht aus den Weight-Dateien, der Konfiguration und Metadaten. Gro\u00dfe Modelle k\u00f6nnen dabei mehrere Gigabyte an Speicherplatz belegen. Speicherplatz ist wichtig, wenn du mehrere Modelle gleichzeitig nutzt.<\/p>\n\n\n\n<p>Der API-Server stellt einen REST-Endpunkt bereit, der deine Prompts annimmt und Antworten liefert. Dieser Endpunkt ist das Bindeglied f\u00fcr Tools wie n8n. Wenn du JSON-Daten mit deinem Prompt und den Parametern sendest, verarbeitet Ollama es durch das Modell und erh\u00e4ltst du Text zur\u00fcck. Streaming wird ebenfalls unterst\u00fctzt, sodass Antworten Token f\u00fcr Token eintreffen k\u00f6nnen, statt dich bis zum Abschluss der gesamten Antwort warten zu lassen.<\/p>\n\n\n\n<p>Das Speichermanagement l\u00e4uft vollautomatisch. Ollama l\u00e4dt Modelle bei Bedarf und gibt den Arbeitsspeicher wieder frei, wenn es eng wird. Selbst 8 GB RAM reichen aus, um 7B-Modelle problemlos zu nutzen. Gr\u00f6\u00dfere Modelle brauchen meist mehr RAM oder quantisierte Versionen. <\/p>\n\n\n\n<p>GPU-Beschleunigung ist optional, aber ein echter Vorteil. Wenn du eine GPU hast, erkennt Ollama diese und lagert die Berechnungen dorthin aus, was die Inferenz bei gr\u00f6\u00dferen Modellen massiv beschleunigt. Reine CPU-Inferenz funktioniert f\u00fcr viele Zwecke trotzdem gut, besonders bei kleineren Modellen. <\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-warum-du-ollama-auf-einem-vps-statt-in-der-cloud-nutzen-solltest\">Warum du Ollama auf einem VPS statt in der Cloud nutzen solltest <\/h2>\n\n\n\n<p>Cloud-Preismodelle f\u00fcr Ollama basieren meist auf Token- oder Stundenabrechnung, die mit der Nutzung skalieren. Ein Prompt mit 1.000 W\u00f6rtern und eine Antwort mit 500 W\u00f6rtern kosten vielleicht nur ein paar Cent. Das klingt fair bis du 10.000 Anfragen im Monat hast und pl\u00f6tzlich hunderte Euro zahlst. Selbstgehostetes Ollama auf einem VPS \u00e4ndert dieses Kostenmodell komplett.<\/p>\n\n\n\n<p>Bei einem Ollama VPS sind deine monatlichen Kosten auf den Server fixiert. Das war&#8217;s. Egal ob du 100 oder 100.000 Anfragen stellst: Die Rechnung bleibt gleich. Keine nutzungsbasierten Geb\u00fchren, die sich heimlich auf deiner Rechnung einschleichen. Keine Schock-Rechnungen bei Traffic-Spitzen, nur weil jemand deine App auf Reddit geteilt hat. <\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"879\" height=\"652\" src=\"https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/cost-comparison_ollama-vs-api_EN.webp\" alt=\"Kostenvergleich Ollama VPS vs Cloud API\" class=\"wp-image-26383\" srcset=\"https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/cost-comparison_ollama-vs-api_EN.webp 879w, https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/cost-comparison_ollama-vs-api_EN-600x445.webp 600w, https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/cost-comparison_ollama-vs-api_EN-768x570.webp 768w\" sizes=\"auto, (max-width: 879px) 100vw, 879px\" \/><\/figure>\n\n\n\n<p>Der Datenschutz ist der andere gro\u00dfe Faktor. Es gibt zwar Cloud-Optionen f\u00fcr Ollama, aber die bringen genau das Vertrauensproblem zur\u00fcck, dem du entkommen wolltest. Wenn du Ollama selbst hostest, verlassen deine Daten niemals deine eigene Infrastruktur. Kundensupport-Tickets, interne Dokumente, propriet\u00e4rer Code &#8211; all das bleibt w\u00e4hrend der Inferenz auf deinem VPS.<\/p>\n\n\n\n<p>Auch die Compliance wird dadurch deutlich einfacher. Die DSGVO verlangt von dir, dass du wei\u00dft, wo genau deine Daten verarbeitet werden. HIPAA schr\u00e4nkt ein, wie gesch\u00fctzte Gesundheitsdaten bewegt werden d\u00fcrfen. Ollama lokal zu betreiben h\u00e4lt dich innerhalb dieser Grenzen ohne komplexe Datenverarbeitungsvertr\u00e4ge mit Cloud-Anbietern auszuhandeln, die diese am Ende vielleicht gar nicht einhalten.<\/p>\n\n\n\n<p>Du kontrollierst auch die Upgrades. Neue Modelle erscheinen am laufenden Band. Bei einem selbstgehosteten Setup l\u00e4dst du das neue Modell einfach herunter und kannst es sofort testen. Kein Warten darauf, dass Cloud-Anbieter es endlich ins Sortiment aufnehmen. Kein Vendor-Lock-in, der bestimmt, auf welche Modelle du wann Zugriff hast. <\/p>\n\n\n\n<p>Hardware ist entscheidend f\u00fcr KI-Workloads &#8211; du brauchst genug CPU-Kerne, RAM und idealerweise GPU-Zugriff. Contabo bietet eine Reihe von <a href=\"https:\/\/contabo.com\/de\/ai-and-machine-learning\/\" target=\"_blank\" rel=\"noreferrer noopener\">Server-Pl\u00e4nen, die f\u00fcr KI und Machine Learning optimiert sind<\/a> mit Konfigurationen, die ideal f\u00fcr den Betrieb mehrerer Modelle und parallele Inferenz-Anfragen sind. Du kannst Ollama nat\u00fcrlich auf jedem VPS, VDS oder Dedicated Server deiner Wahl laufen lassen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-die-wahl-des-richtigen-ollama-vps-anbieters\">Die Wahl des richtigen Ollama-VPS-Anbieters <\/h2>\n\n\n\n<p>Um Ollama erfolgreich auf einem VPS zu betreiben, muss die Hardware zu deinem Workload passen. Das absolute Minimum ist ein Setup wie unser Cloud VPS 10 mit 4 vCPUs, 8 GB RAM und 75 GB Speicher. Das reicht aus, um 7B-Parameter-Modelle vern\u00fcnftig zu betreiben. F\u00fcr ein fl\u00fcssigeres Erlebnis, empfiehlt sich ein Upgrade auf den Cloud VPS 30 der auch gr\u00f6\u00dfere Modelle packt und mehrere Anfragen gleichzeitig ohne Engp\u00e4sse verarbeitet. <\/p>\n\n\n\n<p>Speicherplatz ist wichtig, da die Modelle riesig sind. Llama3 7B braucht etwa 4 GB. Mixtral 8x7B geht schon Richtung 50 GB. Du nutzt mehrere Modelle? Dann summiert sich der Speicherbedarf schnell. NVMe-Laufwerke helfen enorm mit dem Laden der Modelle, was wiederum die Latenz verringert, wenn ein inaktives Modell erst &#8222;hochfahren&#8220; muss.<\/p>\n\n\n\n<p>Eine GPU ist kein Muss, aber sie hebt die Leistung sp\u00fcrbar an. Eine Mittelklasse-GPU wie die A4000 verk\u00fcrzt die Inferenzzeit bei gro\u00dfen Modellen massiv. In produktiven Workflows mit vielen Nutzern rechtfertigen GPUs definitiv ihren Preis. F\u00fcr interne Tools mit weniger Traffic reicht CPU-Inferenz v\u00f6llig aus. Schau dir die <a href=\"https:\/\/contabo.com\/de\/gpu-cloud\/\" target=\"_blank\" rel=\"noreferrer noopener\">Contabo GPU-Cloud <\/a>an, um zu sehen, wie du deinen Server aufr\u00fcsten kannst.<\/p>\n\n\n\n<p>Die Netzwerkbandbreite ist vor allem f\u00fcr das initiale Setup wichtig. Das Abrufen gro\u00dfer Modelle bedeutet, dass etliche Gigabytes \u00fcber die Leitung geladen werden m\u00fcssen. Danach ben\u00f6tigt die lokale Inferenz keine Internetverbindung mehr &#8211; au\u00dfer du verbindest dich \u00fcber n8n mit externen Diensten. Trotzdem profitierst du beim ersten Download von schnellen Leitungen, die nicht mittendrin drosseln.<\/p>\n\n\n\n<p>Es ergibt Sinn, Ollama parallel zu anderen selbstgehosteten Tools zu betreiben. Kombiniere deine <a href=\"https:\/\/contabo.com\/de\/nextcloud-hosting\/\" target=\"_blank\" rel=\"noreferrer noopener\">selbstgehostete Nextcloud<\/a> als Speicher mit Ollama f\u00fcr die Dokumentenanalyse. Pack noch <a href=\"https:\/\/contabo.com\/de\/n8n-hosting\/\" target=\"_blank\" rel=\"noreferrer noopener\">n8n<\/a> f\u00fcr die Workflow-Automatisierung oben drauf. Installiere alles auf einer Nextcloud-VPS-Instanz, falls die Ressourcen reichen, oder verteile es auf mehrere Server, je nach Last und gew\u00fcnschter Isolierung. Beide Apps sind auf jedem Contabo VPS oder VDS per kostenloser 1-Klick-Installation verf\u00fcgbar.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-schritt-fur-schritt-ollama-auf-einem-vps-bereitstellen\">Schritt-f\u00fcr-Schritt: Ollama auf einem VPS bereitstellen <\/h2>\n\n\n\n<p>Die Installation von Ollama auf Linux ist denkbar einfach. Logge dich per SSH auf deinem VPS ein und starte das Installationsskript: <\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>curl -fsSL <a href=\"https:\/\/ollama.com\/install.sh\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">https:\/\/ollama.com\/install.sh<\/a> | sh&nbsp;<\/code><\/pre>\n\n\n\n<p>Das l\u00e4dt Ollama herunter, installiert es und startet den Dienst. Auf Ubuntu, Debian und den meisten modernen Linux-Distros l\u00e4uft das ohne weitere Abh\u00e4ngigkeiten. <\/p>\n\n\n\n<p>Pr\u00fcfe nach der Installation, ob Ollama l\u00e4uft: <\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>ollama --version&nbsp;<\/code><\/pre>\n\n\n\n<p>Du solltest jetzt die Versionsnummer sehen. Jetzt rufst du dein erstes Modell ab: <\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>ollama pull llama3.2&nbsp;<\/code><\/pre>\n\n\n\n<p>Das l\u00e4dt Llama 3.2 (7B Parameter) herunter und speichert es lokal. Die Downloadzeit h\u00e4ngt von deiner Internetgeschwindigkeit und der Modellgr\u00f6\u00dfe ab. Llama 3.2 ist etwa 4 GB gro\u00df &#8211; stell dich also auf ein paar Minuten Wartezeit ein.<\/p>\n\n\n\n<p>Wie du Ollama nach dem Abrufen eines Modells ausf\u00fchrst: <\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>ollama run llama3.2&nbsp;<\/code><\/pre>\n\n\n\n<p>Dies startet eine interaktive Sitzung, in der du Prompts testen kannst. Tippe eine Frage ein, dr\u00fccke Enter und schau zu, wie die Antwort per Stream eintrifft. Beende die Sitzung mit <code>\/bye<\/code>.<\/p>\n\n\n\n<p>Um DeepSeek mit Ollama auf einem VPS auszuf\u00fchren, ist der Vorgang identisch: <\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>ollama pull deepseek-coder&nbsp;\nollama run deepseek-coder&nbsp;<\/code><\/pre>\n\n\n\n<p>DeepSeek-Modelle sind auf Code-Generierung und -Analyse spezialisiert. Lokales Hosting bedeutet, dass dein eigener Quellcode w\u00e4hrend der Analyse niemals deine Infrastruktur verl\u00e4sst. Das ist ein riesiger Vorteil, wenn du mit Daten arbeitest, bei denen deine Rechtsabteilung sonst nerv\u00f6s w\u00fcrde. <\/p>\n\n\n\n<p>Wo speichert Ollama die Modelle auf deinem System? Pr\u00fcfe den Standardpfad: <\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>ls ~\/.ollama\/models&nbsp;<\/code><\/pre>\n\n\n\n<p>Jedes Modell liegt in einem eigenen Unterverzeichnis inklusive Weights, Konfiguration und Metadaten. Musst du den Speicherplatz verwalten? Genau hier sammeln sich die Modelle an. <\/p>\n\n\n\n<p>Der API-Server startet automatisch und lauscht standardm\u00e4\u00dfig auf <code>localhost:11434<\/code>. Teste es mit curl:<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>curl <a href=\"http:\/\/localhost:11434\/api\/generate\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">http:\/\/localhost:11434\/api\/generate<\/a> -d '{&nbsp;\n&nbsp; \"model\": \"llama3.2\",&nbsp;\n&nbsp; \"prompt\": \"Why is the sky blue?\"&nbsp;\n}'<\/code><\/pre>\n\n\n\n<p>Du solltest eine JSON-Antwort erhalten, in der der generierte Text zur\u00fcckgestreamt wird. Diesen Endpunkt nutzt n8n sp\u00e4ter f\u00fcr die Integration. <\/p>\n\n\n\n<p>F\u00fcr den Produktiveinsatz solltest du Ollama hinter einem Reverse-Proxy betreiben, falls du externen Zugriff ben\u00f6tigst. Aber F\u00fcr die n8n-Integration auf demselben VPS ist der lokale Zugriff v\u00f6llig ausreichend und sicherer, da du so keine Ports unn\u00f6tig nach au\u00dfen freigeben musst.<\/p>\n\n\n\n<p>Wenn du dich speziell f\u00fcr DeepSeek-Modelle im Unternehmenseinsatz interessierst, bietet Contabo auch <a href=\"https:\/\/contabo.com\/de\/hosted-deepseek-ai-enterprise-cloud\/\" target=\"_blank\" rel=\"noreferrer noopener\">selbstgehostete DeepSeek-KI-L\u00f6sungen<\/a> an, die f\u00fcr optimale Leistung ma\u00dfgeschneidert sind.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-voraussetzungen-fur-die-n8n-ollama-integration-auf-einem-vps\">Voraussetzungen f\u00fcr die n8n-Ollama-Integration auf einem VPS <\/h2>\n\n\n\n<p>Bevor du die n8n-Ollama-Integration einrichtest, m\u00fcssen beide Tools installiert und erreichbar sein. Ollama l\u00e4uft bereits, wenn du den vorherigen Abschnitt befolgt hast. Installiere jetzt n8n. <\/p>\n\n\n\n<p>Der schnellste Weg f\u00fchrt \u00fcber Docker: <\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>docker run -d --name n8n \\&nbsp;\n&nbsp; -p 5678:5678 \\&nbsp;\n&nbsp; -v ~\/.n8n:\/home\/node\/.n8n \\&nbsp;\n&nbsp; n8nio\/n8n&nbsp;&nbsp;<\/code><\/pre>\n\n\n\n<p>Oder installiere es alternativ \u00fcber npm: <\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>npm install n8n -g&nbsp;\nn8n start&nbsp;&nbsp;<\/code><\/pre>\n\n\n\n<p>Sobald n8n l\u00e4uft, kannst du darauf zugreifen unter: <a href=\"http:\/\/your-vps-ip:5678\" target=\"_blank\" rel=\"noreferrer noopener nofollow\"><code>http:\/\/your-vps-ip:5678<\/code><\/a>. Erstelle ein Konto. Schon bist du bereit, Workflows zu erstellen. <\/p>\n\n\n\n<p>Du kannst n8n auch \u00fcber unsere kostenlose 1-Klick-Option installieren, beachte aber, dass dies zuerst auf einem neuen Server eingerichtet werden muss (oder \u00fcber eine Neuinstallation, die bestehende Daten l\u00f6scht), gefolgt von der manuellen Ollama-Installation wie oben beschrieben. Erfahre auf der Contabo Webseite mehr \u00fcber <a href=\"https:\/\/contabo.com\/de\/n8n-hosting\/\" target=\"_blank\" rel=\"noreferrer noopener\">das Self-Hosting von n8n auf einem Contabo VPS<\/a>.<\/p>\n\n\n\n<p>F\u00fcr die Integration von Ollama in n8n musst du den Netzwerkzugriff sicherstellen. Laufen beide Dienste auf demselben VPS, ist die Ollama-API unter bereits erreichbar. Teste das aus n8n-Sicht, indem du einen einfachen HTTP-Request-Workflow erstellst: <\/p>\n\n\n\n<ol start=\"1\" class=\"wp-block-list\">\n<li>F\u00fcge einen &#8222;Manual Trigger&#8220;-Knoten hinzu. <\/li>\n\n\n\n<li>F\u00fcge einen &#8222;HTTP Request&#8220;-Knoten hinzu.<\/li>\n\n\n\n<li>Setze die Methode auf POST. <\/li>\n\n\n\n<li>URL: <a href=\"http:\/\/localhost:11434\/api\/generate\" target=\"_blank\" rel=\"noreferrer noopener nofollow\"><code>http:\/\/localhost:11434\/api\/generate<\/code><\/a> <\/li>\n\n\n\n<li>Body: JSON mit Modellname und Prompt. <\/li>\n\n\n\n<li>F\u00fchre den Workflow aus. <\/li>\n<\/ol>\n\n\n\n<p>Wenn die Antwort generierten Text enth\u00e4lt, steht die Verbindung. Falls es fehlschl\u00e4gt, pr\u00fcfe, ob der Ollama-Dienst l\u00e4uft (<code>systemctl status ollama<\/code>) und auf dem richtigen Port lauscht.<\/p>\n\n\n\n<p>Die Verbindung wird mit den speziellen Ollama-Knoten von n8n sogar noch einfacher. Statt HTTP-Requests manuell zu bauen, kannst du den &#8222;Ollama-Chat Model&#8220;-Knoten nutzen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-beispiel-workflow-aufgaben-mit-n8n-und-ollama-automatisieren\">Beispiel-Workflow: Aufgaben mit n8n und Ollama automatisieren <\/h2>\n\n\n\n<p>Ein n8n-Ollama-Workflow wird erst dann richtig n\u00fctzlich, wenn beide Dienste miteinander kommunizieren. Hier ist ein Praxisbeispiel: automatisierte E-Mail-Analyse und Antwortgenerierung f\u00fcr den Kundensupport. <\/p>\n\n\n\n<p>Die Workflow-Struktur: <\/p>\n\n\n\n<ol start=\"1\" class=\"wp-block-list\">\n<li>Ein E-Mail-Trigger-Knoten \u00fcberwacht ein Postfach<\/li>\n\n\n\n<li>Extrahiert Inhalte aus neuen E-Mails<\/li>\n\n\n\n<li>Sendet E-Mail-Inhalte mit einer Aufforderung (Prompt) an Ollama<\/li>\n\n\n\n<li>Analysiert Antwort von Ollama<\/li>\n\n\n\n<li>Leitet an die entsprechende Aktion weiter<\/li>\n<\/ol>\n\n\n\n<p>In n8n sieht das so aus: <\/p>\n\n\n\n<p><strong>Triggerknoten:<\/strong> E-Mail-Trigger (IMAP) <\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Konfiguriere ihn zur \u00dcberwachung von <a href=\"mailto:support@yourcompany.com\" target=\"_blank\" rel=\"noreferrer noopener\">support@yourcompany.com<\/a>.<\/li>\n\n\n\n<li>Ausl\u00f6sen bei neuen ungelesenen Nachrichten. <\/li>\n<\/ul>\n\n\n\n<p><strong>Ollama-Chatmodell-Knoten:<\/strong> <\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Modell: llama3.2 <\/li>\n\n\n\n<li>Aufforderung: &#8222;Analysiere diese Kundensupport-E-Mail und generiere eine Antwort. E-Mail: {{$json.body}}&#8220; <\/li>\n\n\n\n<li>Temperatur: 0,7 f\u00fcr ausgewogene Kreativit\u00e4t. <\/li>\n<\/ul>\n\n\n\n<p><strong>IF-Knoten:<\/strong> \u00dcberpr\u00fcfe die Antwort.<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Komplexes Problem? Leite an einen Menschen weiter.<\/li>\n\n\n\n<li>Ist der Fall eindeutig? Bereite eine automatisierte Antwort vor. <\/li>\n<\/ul>\n\n\n\n<p><strong>&#8222;Send Email&#8220;-Knoten:<\/strong> Sende die generierte Antwort.<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Wird nur bei eindeutigen F\u00e4llen ausgef\u00fchrt. <\/li>\n\n\n\n<li>Enth\u00e4lt den Hinweis, dass die Antwort KI-generiert wurde. <\/li>\n<\/ul>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"1871\" height=\"851\" src=\"https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/workflow-ollama-n8n_EN.webp\" alt=\"\" class=\"wp-image-26380\" srcset=\"https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/workflow-ollama-n8n_EN.webp 1871w, https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/workflow-ollama-n8n_EN-600x273.webp 600w, https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/workflow-ollama-n8n_EN-768x349.webp 768w, https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/workflow-ollama-n8n_EN-1536x699.webp 1536w\" sizes=\"auto, (max-width: 1871px) 100vw, 1871px\" \/><\/figure>\n\n\n\n<p>Dieser n8n-Ollama-Workflow l\u00e4uft vollst\u00e4ndig auf deinem VPS. Kunden-E-Mails gelangen niemals auf externe APIs. Generierte Antworten bleiben lokal, bis du sie ausdr\u00fccklich verschickst. Dein Support-Postfach wird nicht zu Trainingsdaten f\u00fcr die Modelle anderer Anbieter. <\/p>\n\n\n\n<p>Ollama mit n8n f\u00fcr diese Workflows zu nutzen bedeutet, gezielt \u00fcber Aufforderungen und Parameter nachzudenken. Die Temperatur steuert die Kreativit\u00e4t. H\u00f6here Werte erzeugen variablere Ergebnisse, w\u00e4hrend niedrigere Werte zu deterministischeren (eindeutigeren) Resultaten f\u00fchren. Die Kontextl\u00e4nge begrenzt, wie viel Text du pro Anfrage senden kannst. Die Wahl des Modells beeinflusst sowohl die F\u00e4higkeiten als auch die Geschwindigkeit.<\/p>\n\n\n\n<p>Workflows zur Content-Moderation funktionieren ebenfalls hervorragend. \u00dcberwache Chat-Anwendungen, filtere Nachrichten durch Ollama, um problematische Inhalte zu erkennen und sie zur \u00dcberpr\u00fcfung zu markieren. Das alles geschieht lokal. Sensible Kommunikation verl\u00e4sst w\u00e4hrend der Moderation nicht deine Infrastruktur \u2013 das ist besonders wichtig bei Mitarbeitergespr\u00e4chen oder Kundenbeschwerden. <\/p>\n\n\n\n<p>Die Erstellung von Social-Media-Inhalten ist eine weitere praktische Anwendung. Plane Trigger, sende Aufforderungen basierend auf deinem Redaktionsplan an Ollama, generiere verschiedene Beitrags-Varianten und speichere sie zur Pr\u00fcfung ab. Marketing-Teams k\u00f6nnen Content-Varianten in Serie generieren, ohne dass Token-Geb\u00fchren ihr Budget auffressen. <\/p>\n\n\n\n<p>Selbstgehostetes Ollama in n8n-Workflows nimmt die nutzungsbasierte Abrechnung komplett aus der Gleichung. Experimentiere nach Belieben. \u00dcberarbeite deine Aufforderungen dutzende Male. Verarbeite hohe Volumina auch in Spitzenzeiten. Deine Kosten bleiben fix bei der VPS-Hosting-Geb\u00fchr. <\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-ollama-faq\">Ollama FAQ <\/h2>\n\n\n\n<p><strong>Wie installiert man Ollama auf Linux?<\/strong> <br>F\u00fchre das Installationsskript aus: <code>curl -fsSL <a href=\"https:\/\/ollama.com\/install.sh\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">https:\/\/ollama.com\/install.sh<\/a> | sh<\/code>.. Dies installiert Ollama und startet den Dienst auf den meisten Linux-Distributionen automatisch. \u00dcberpr\u00fcfe die Installation nach Abschluss mit <code>ollama --version<\/code>.<\/p>\n\n\n\n<p><strong>Wie f\u00fchrt man Ollama aus?<\/strong> <br>Nachdem du ein Modell mit <code>ollama pull model-name<\/code> abgerufen hast, starte es mit <code>ollama run model-name<\/code> f\u00fcr interaktives Testen oder rufe die API auf unter <a href=\"http:\/\/localhost:11434\/api\/generate\" target=\"_blank\" rel=\"noreferrer noopener nofollow\"><code>http:\/\/localhost:11434\/api\/generate<\/code><\/a> f\u00fcr den programmgesteuerten Zugriff. Dieser API-Ansatz ist genau das, was n8n-Workflows verwenden.<\/p>\n\n\n\n<p><strong>Wo speichert Ollama die Modelle?<\/strong> <br>Modelle werden auf Linux-Systemen im <code>~\/.ollama\/models\/<\/code> Verzeichnis gespeichert. Jedes Modell belegt je nach Parameteranzahl und Quantisierung mehrere Gigabyte an Speicherplatz. \u00dcberpr\u00fcfe dieses Verzeichnis, wenn du den Speicherplatz verwaltest oder Probleme mit fehlenden Modellen behebst.<\/p>\n\n\n\n<p><strong>Wie verbindet man Ollama mit n8n?<\/strong> <br>Installiere beide Tools auf demselben VPS. Ollama lauscht standardm\u00e4\u00dfig auf diesem Port <code>localhost:11434<\/code>. Verwende in n8n den Ollama-Chatmodell-Knoten und konfiguriere ihn so, dass er auf die lokale Adresse zeigt. <a href=\"http:\/\/localhost:11434\" target=\"_blank\" rel=\"noreferrer noopener nofollow\"><code>http:\/\/localhost:11434<\/code><\/a>. Teste die Verbindung mit einem einfachen Workflow, bevor du komplexe Automatisierungen erstellst.<\/p>\n\n\n\n<p><strong>Wie verwendet man Ollama mit n8n?<\/strong> <br>Erstelle Workflows mit dem visuellen Editor von n8n. F\u00fcge einen Ollama-Chatmodell-Knoten hinzu, konfiguriere dein Modell sowie deine Aufforderung und verbinde ihn dann mit Trigger-Knoten (Webhooks, Zeitpl\u00e4ne, Dateiw\u00e4chter) und Aktions-Knoten (E-Mail senden, Datenbank aktualisieren, an API posten). Aufforderungen k\u00f6nnen Variablen aus vorherigen Workflow-Schritten enthalten, um dynamische Inhalte zu generieren. <\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-fazit\">Fazit <\/h2>\n\n\n\n<p>Ollama macht die lokale Bereitstellung von LLMs f\u00fcr Teams zug\u00e4nglich, die keine Experten f\u00fcr Machine-Learning-Infrastruktur sind. In Kombination mit der Workflow-Automatisierung von n8n erstellst du KI-gest\u00fctzte Systeme, die vollst\u00e4ndig auf deiner eigenen Hardware laufen. <\/p>\n\n\n\n<p>Fixe Kosten. Daten, die deinen VPS niemals verlassen. Modelle, \u00fcber die du die volle Kontrolle hast. Diese Vorteile wiegen schwerer als theoretische Leistungs-Benchmarks oder Feature-Listen in Marketing-Pr\u00e4sentationen. <\/p>\n\n\n\n<p>Die Vor- und Nachteile von Ollama sind klar verteilt. Vorteile: Planbare Kosten, Datenschutz, einfachere Compliance und die Freiheit, ohne Nutzungslimits zu experimentieren. Nachteile: Du verwaltest die Infrastruktur, die Leistung h\u00e4ngt von deiner Hardware ab und du bist selbst daf\u00fcr verantwortlich, die Modelle aktuell zu halten. F\u00fcr die meisten Teams, die auf einem VPS selbst hosten, sprechen diese Abw\u00e4gungen eindeutig f\u00fcr die lokale Bereitstellung. <\/p>\n\n\n\n<p>Selbstgehostetes Ollama in Kombination mit n8n erm\u00f6glicht Workflows, die keine Daten leaken und dich nicht mit API-Rechnungen \u00fcberraschen. Automatisierung im Kundensupport, Dokumentenanalysen, Content-Erstellung und Code-Reviews finden alle lokal statt &#8211; auf Servern, f\u00fcr die du sowieso bezahlst.<\/p>\n\n\n\n<p>Ollama VPS Die Anforderungen f\u00fcr einen Ollama-VPS sind unkompliziert: Du brauchst eine angemessene CPU oder GPU je nach Modellwahl, gen\u00fcgend RAM f\u00fcr die ausgew\u00e4hlten Modelle und ausreichend Speicherplatz f\u00fcr die Dateien. Wie bereits erw\u00e4hnt, bietet Contabo Konfigurationen an, die ideal f\u00fcr diese Workloads und den Betrieb gro\u00dfer Modelle geeignet sind.<\/p>\n\n\n\n<p>Beide Tools auf demselben VPS laufen zu lassen, h\u00e4lt die Netzwerklatenz minimal und vereinfacht die Bereitstellung erheblich. Egal, ob du interne Dokumente verarbeitest, Kundenantworten generierst oder eigene KI-Copiloten entwickelst \u2013 die n8n-Ollama-Integration bietet dir alle Bausteine, um dies ohne externe Abh\u00e4ngigkeiten oder Anbieterbindung umzusetzen. <\/p>\n\n\n\n<p>Die Infrastruktur steht bereit. Die Tools sind Open Source. Deine KI-Workflows k\u00f6nnen lokal, privat und zu fest kalkulierbaren Kosten laufen. Beginne jetzt damit, Ollama in deine Automatisierungen zu integrieren, und entdecke die M\u00f6glichkeiten.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Ollama macht das lokale Ausf\u00fchren von Large Language Models (LLMs) unkompliziert &#8211; keine Cloud-APIs, keine Abrechnung pro Token und keine Daten, die deine Infrastruktur verlassen. Kombiniert mit der n8n Workflow-Automatisierung kannst du KI-gest\u00fctzte Systeme bauen die vollst\u00e4ndig auf deinem eigenen VPS laufen \u2013 bei festen Kosten und voller Kontrolle. Dieser Guide behandelt, was Ollama macht, wie du es auf einem VPS bereitstellst und praktische Schritte zur n8n-Integration, um Dokumentenanalyse, Unterst\u00fctzung, Content-Erstellung und mehr zu automatisieren.<\/p>\n","protected":false},"author":63,"featured_media":26377,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"inline_featured_image":false,"_uag_custom_page_level_css":"","site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"set","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"footnotes":""},"categories":[1399],"tags":[3403,3609,3621,3620,3616,3595,3612,3619,3615,3596,3600,3601,3607,3608,3613,3611,3599,3604,3606,3605,3622,3618,3404,3614,3598,3610,3617,3597,3603,3602],"ppma_author":[1492],"class_list":["post-27248","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-tutorials","tag-automatisierung-von-ki-workflows","tag-deepseek-mit-ollama-auf-einem-vps-ausfuhren","tag-ki-auf-dem-vps","tag-llm-bereitstellung","tag-lokale-llm-hosting","tag-n8n-ollama-integration","tag-n8n-ollama-workflow","tag-n8n-workflows","tag-nextcloud-vps","tag-ollama","tag-ollama-auf-linux-installieren","tag-ollama-ausfuhren","tag-ollama-cloud-dienst","tag-ollama-cloud-preise","tag-ollama-in-n8n-integrieren","tag-ollama-mit-n8n-nutzen","tag-ollama-vps","tag-ollama-funktionen","tag-ollama-leistung","tag-ollama-sicherheit","tag-open-source-llm","tag-private-ki-infrastruktur","tag-selbstgehostete-ki","tag-selbstgehostete-nextcloud","tag-selbstgehostetes-ollama","tag-so-verbindest-du-ollama-mit-n8n","tag-vps-ki-hosting","tag-was-ist-ollama","tag-wie-funktioniert-ollama","tag-wo-speichert-ollama-die-modelle"],"uagb_featured_image_src":{"full":["https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/blog-head_-what-is-ollama.webp",1200,630,false],"thumbnail":["https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/blog-head_-what-is-ollama-150x150.webp",150,150,true],"medium":["https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/blog-head_-what-is-ollama-600x315.webp",600,315,true],"medium_large":["https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/blog-head_-what-is-ollama-768x403.webp",768,403,true],"large":["https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/blog-head_-what-is-ollama.webp",1200,630,false],"1536x1536":["https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/blog-head_-what-is-ollama.webp",1200,630,false],"2048x2048":["https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/blog-head_-what-is-ollama.webp",1200,630,false]},"uagb_author_info":{"display_name":"Christopher Carter","author_link":"https:\/\/contabo.com\/blog\/de\/author\/christophercarter\/"},"uagb_comment_info":0,"uagb_excerpt":"Ollama macht das lokale Ausf\u00fchren von Large Language Models (LLMs) unkompliziert - keine Cloud-APIs, keine Abrechnung pro Token und keine Daten, die deine Infrastruktur verlassen. Kombiniert mit der n8n Workflow-Automatisierung kannst du KI-gest\u00fctzte Systeme bauen die vollst\u00e4ndig auf deinem eigenen VPS laufen \u2013 bei festen Kosten und voller Kontrolle. Dieser Guide behandelt, was Ollama macht,&hellip;","authors":[{"term_id":1492,"user_id":63,"is_guest":0,"slug":"christophercarter","display_name":"Christopher Carter","avatar_url":"https:\/\/secure.gravatar.com\/avatar\/63db81672a5ce4c1e8ee39753d00251d561b5b3a9967febf1c4f662024cef00f?s=96&d=mm&r=g","0":null,"1":"","2":"","3":"","4":"","5":"","6":"","7":"","8":""}],"_links":{"self":[{"href":"https:\/\/contabo.com\/blog\/de\/wp-json\/wp\/v2\/posts\/27248","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/contabo.com\/blog\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/contabo.com\/blog\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/contabo.com\/blog\/de\/wp-json\/wp\/v2\/users\/63"}],"replies":[{"embeddable":true,"href":"https:\/\/contabo.com\/blog\/de\/wp-json\/wp\/v2\/comments?post=27248"}],"version-history":[{"count":5,"href":"https:\/\/contabo.com\/blog\/de\/wp-json\/wp\/v2\/posts\/27248\/revisions"}],"predecessor-version":[{"id":27281,"href":"https:\/\/contabo.com\/blog\/de\/wp-json\/wp\/v2\/posts\/27248\/revisions\/27281"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/contabo.com\/blog\/de\/wp-json\/wp\/v2\/media\/26377"}],"wp:attachment":[{"href":"https:\/\/contabo.com\/blog\/de\/wp-json\/wp\/v2\/media?parent=27248"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/contabo.com\/blog\/de\/wp-json\/wp\/v2\/categories?post=27248"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/contabo.com\/blog\/de\/wp-json\/wp\/v2\/tags?post=27248"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/contabo.com\/blog\/de\/wp-json\/wp\/v2\/ppma_author?post=27248"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}