
{"id":26168,"date":"2025-10-17T09:42:00","date_gmt":"2025-10-17T07:42:00","guid":{"rendered":"https:\/\/contabo.com\/blog\/n8n-ki-workflows-erweiterte-integrationen-anwendungsfaelle\/"},"modified":"2025-11-28T14:34:31","modified_gmt":"2025-11-28T13:34:31","slug":"n8n-ki-workflows","status":"publish","type":"post","link":"https:\/\/contabo.com\/blog\/de\/n8n-ki-workflows\/","title":{"rendered":"n8n KI-Workflows: Erweiterte Integrationen &amp; Anwendungsf\u00e4lle"},"content":{"rendered":"\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"1200\" height=\"630\" src=\"https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/09\/blog-head_n8n-ai-workflows.jpg\" alt=\"n8n KI-Workflows: Erweiterte Integrationen &amp; Anwendungsf\u00e4lle (Titelbild)\" class=\"wp-image-25556\" srcset=\"https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/09\/blog-head_n8n-ai-workflows.jpg 1200w, https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/09\/blog-head_n8n-ai-workflows-600x315.jpg 600w, https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/09\/blog-head_n8n-ai-workflows-768x403.jpg 768w\" sizes=\"auto, (max-width: 1200px) 100vw, 1200px\" \/><\/figure>\n\n\n\n<p>Du hast bereits gesehen, wie Workflow-Automatisierung deine Apps verbinden und wiederkehrende, regelbasierte Aufgaben \u00fcbernehmen kann. Aber was, wenn deine Automatisierungen mehr k\u00f6nnten als nur Anweisungen befolgen? Was, wenn sie Kontext verstehen, kreative Inhalte generieren, komplexe Informationen zusammenfassen und sogar Entscheidungen auf Basis unstrukturierter Daten treffen k\u00f6nnten? Genau hier entfaltet n8n AI seine wahre St\u00e4rke. Indem du Large Language Models (LLMs) direkt in deine Workflows integrierst, verwandelst du n8n von einem einfachen Task-Runner in eine intelligente Automatisierungs-Engine.<\/p>\n\n\n\n<p>Die Kombination aus n8n und OpenAI oder anderen Modellen er\u00f6ffnet dir eine v\u00f6llig neue Welt an M\u00f6glichkeiten. Pl\u00f6tzlich kannst du KI-Automatisierungen bauen, die Daten nicht nur verarbeiten, sondern sie auch verstehen und anreichern. Dieser Guide richtet sich an alle, die bereit sind, den n\u00e4chsten Schritt zu gehen. Wir zeigen dir, wie du jedes LLM mit n8n nutzen kannst \u2013 von der Erstellung eines einfachen Content-Generators bis hin zur Entwicklung komplexer KI-Agenten-Automatisierungen. Du lernst praxisnahe Skills, um Automatisierungen zu erstellen, die denken, analysieren und kreieren \u2013 alles innerhalb der flexiblen n8n-Umgebung.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"the-power-of-ai-automation-with-n8n-from-simple-ta\">Die Kraft der KI-Automatisierung mit n8n: Von einfachen Aufgaben zu komplexen Agenten<\/h2>\n\n\n\n<p>Im Kern liegt die St\u00e4rke von n8n AI in der F\u00e4higkeit, \u00fcber einfache, deterministische Logik hinauszugehen. Ein traditioneller Workflow arbeitet nach klaren Regeln:\n&#8222;Wenn eine neue E-Mail mit dem Betreff &#8218;Rechnung&#8216; eingeht, speichere den Anhang im Ordner &#8218;Rechnungen&#8216;.&#8220; Das ist vorhersehbar und effizient f\u00fcr strukturierte Aufgaben. Ein KI-Automatisierungs-Workflow hingegen basiert auf Verst\u00e4ndnis und Intention:\n&#8222;Wenn eine neue E-Mail von einem Kunden eingeht, erkenne, ob es sich um eine Beschwerde, eine Frage oder ein Kompliment handelt, und leite sie an das passende Team weiter.&#8220; Dies erfordert ein Ma\u00df an Verst\u00e4ndnis, das nur KI bieten kann.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-was-kannst-du-mit-ki-automatisierung-erreichen\">Was kannst du mit KI-Automatisierung erreichen?<\/h3>\n\n\n\n<p>Diese F\u00e4higkeit er\u00f6ffnet dir ein breites Spektrum an Automatisierungsm\u00f6glichkeiten \u2013 von einfachen Erweiterungen bis hin zu vollst\u00e4ndig autonomen Agenten:<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"1000\" height=\"900\" src=\"https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/10\/simple2complex-ai-comparison_EN.webp\" alt=\"\" class=\"wp-image-25559\" srcset=\"https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/10\/simple2complex-ai-comparison_EN.webp 1000w, https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/10\/simple2complex-ai-comparison_EN-600x540.webp 600w, https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/10\/simple2complex-ai-comparison_EN-768x691.webp 768w\" sizes=\"auto, (max-width: 1000px) 100vw, 1000px\" \/><\/figure>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Einfache KI-Verbesserung:<\/strong> Das ist meist der Einstiegspunkt. Du kannst einen KI-Knoten zu einem bestehenden Workflow hinzuf\u00fcgen, um eine einzelne, spezifische Aufgabe zu \u00fcbernehmen. Zum Beispiel k\u00f6nntest du nach dem Scraping einer Produktbewertung ein LLM einsetzen, um die Stimmung (positiv, negativ, neutral) sowie die genannten Hauptthemen zu erkennen.<\/li>\n\n\n\n<li><strong>Generative Aufgaben:<\/strong> Anstatt nur Daten zu analysieren, k\u00f6nnen deine Workflows neue Inhalte erstellen. Du k\u00f6nntest zum Beispiel einen Workflow bauen, der einen Produktnamen und einige wichtige Merkmale als Eingabe erh\u00e4lt und daraus eine vollst\u00e4ndige Marketingbeschreibung, einen Social-Media-Post und ein kurzes Videoskript generiert.<\/li>\n\n\n\n<li><strong>Komplexes Denken mit Agenten:<\/strong> Das ist die fortschrittlichste Anwendung. Du kannst n8n-Agenten entwickeln &#8211; also Workflows, die mehrstufige Aufgaben mit einem gewissen Ma\u00df an Autonomie ausf\u00fchren. Ein KI-Agent k\u00f6nnte zum Beispiel damit beauftragt werden, &#8222;eine Wochenendreise nach Paris f\u00fcr zwei Personen mit einem Budget von 500 $ zu planen&#8220;. Er m\u00fcsste Fl\u00fcge suchen, Hotels finden, Bewertungen pr\u00fcfen und eine sinnvolle Reiseroute vorschlagen &#8211; ohne explizite Schritt-f\u00fcr-Schritt-Anweisungen. Dieses Verhalten markiert die n\u00e4chste Entwicklungsstufe der KI-Automatisierung.<\/li>\n<\/ul>\n\n\n\n<p>Durch die Integration von KI bist du nicht l\u00e4nger auf strukturierte Daten und vordefinierte Regeln deiner Anwendungen beschr\u00e4nkt. Du kannst auch mit der unstrukturierten, dynamischen Welt menschlicher Sprache und komplexer Dokumente arbeiten. Dies er\u00f6ffnet dir ein v\u00f6llig neues Niveau an Effizienz und M\u00f6glichkeiten.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"key-n8n-ai-capabilities-rag-long-term-memory-and-m\">Zentrale n8n-KI-Funktionen: RAG, Langzeitged\u00e4chtnis und Multi-Agenten-Systeme<\/h2>\n\n\n\n<p>Wenn du \u00fcber einfache KI-Aufgaben hinausgehst, begegnest du fortgeschrittenen Konzepten, die das volle Potenzial intelligenter Automatisierung freisetzen. In n8n sind das keine 1-Klick-L\u00f6sungen, sondern leistungsstarke Systeme, die du durch das Kombinieren spezifischer Knoten aufbaust.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-n8n-retrieval-augmented-generation-rag\">n8n Retrieval-Augmented Generation (RAG)<\/h3>\n\n\n\n<p>Ein Standard-LLM kann keine Fragen zu deinen privaten Unternehmensdaten beantworten. n8n Retrieval-Augmented Generation (RAG) l\u00f6st das, indem es dem LLM Zugriff auf deine Informationen gibt. Du baust eine RAG-Pipeline, indem du mehrere Knoten miteinander verkettst:<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"1250\" height=\"550\" src=\"https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/10\/raig-explainer_EN.webp\" alt=\"\" class=\"wp-image-25562\" srcset=\"https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/10\/raig-explainer_EN.webp 1250w, https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/10\/raig-explainer_EN-600x264.webp 600w, https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/10\/raig-explainer_EN-768x338.webp 768w\" sizes=\"auto, (max-width: 1250px) 100vw, 1250px\" \/><\/figure>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Daten laden:<\/strong> Du startest mit einem Document Loader-Knoten, wie &#8222;PDF4me&#8220; oder &#8222;ScrapeNinja&#8220;, um dein Quellmaterial einzulesen.<\/li>\n\n\n\n<li><strong>Daten aufteilen:<\/strong> Anschlie\u00dfend verbindest du einen &#8222;Split Out&#8220; oder &#8222;Information Extractor&#8220;-Knoten, um den Text in kleinere, handhabbare Teile zu zerlegen.<\/li>\n\n\n\n<li><strong>Embeddings erstellen und speichern:<\/strong> Diese Teile werden an einen Vektor-Store-Knoten wie &#8222;Pinecone&#8220; weitergeleitet. Dieser Knoten wandelt die Teile in Vektoren um und f\u00fcgt sie in deine Datenbank ein.<\/li>\n\n\n\n<li><strong>Daten abfragen:<\/strong> Um eine Frage zu stellen, nutzt du einen Chain-Knoten, z.\u202fB. den &#8222;Question and Answer Chain&#8220;-Knoten. Dieser nimmt deine Anfrage entgegen, findet die relevantesten Teile im Vektor-Store und \u00fcbergibt sowohl die Anfrage als auch die Teile an dein gew\u00e4hltes LLM, um eine faktenbasierte Antwort zu generieren.<\/li>\n<\/ol>\n\n\n\n<h3 class=\"wp-block-heading\">Intelligentere n8n-Agenten mit Langzeitged\u00e4chtnis erstellen<\/h3>\n\n\n\n<p>Damit eine KI echte Gespr\u00e4che f\u00fchren kann, braucht sie &#8222;Ged\u00e4chtnis&#8220;. Du kannst zustandsbehaftete n8n-Agenten erstellen, die sich an fr\u00fchere Interaktionen erinnern. Kurzzeitged\u00e4chtnis ist oft eingebaut, echtes Langzeitged\u00e4chtnis erreichst du jedoch, indem du Gespr\u00e4chsverl\u00e4ufe in einer externen Datenbank speicherst.<\/p>\n\n\n\n<p>So funktioniert es vereinfacht: Bevor du den &#8222;AI Agent&#8220;-Knoten aufrufst, nutzt du einen Datenbank-Knoten (wie &#8222;Airtable&#8220; oder &#8222;Postgres&#8220;), um fr\u00fchere Gespr\u00e4chszusammenfassungen, die mit einer Benutzer-ID verkn\u00fcpft sind, abzurufen. Dieses abgerufene &#8222;Ged\u00e4chtnis&#8220; injizierst du dann in den Prompt, den du an den Agenten sendest, sodass er den vollen Kontext hat, um eine koh\u00e4rente, personalisierte Antwort zu geben.<a href=\"https:\/\/dev.to\/einarcesar\/long-term-memory-for-llms-using-vector-store-a-practical-approach-with-n8n-and-qdrant-2ha7\" target=\"_blank\" rel=\"noreferrer noopener nofollow\"><\/a><\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Die Macht von Agenten und LangChain<\/h3>\n\n\n\n<p>Viele der leistungsst\u00e4rksten KI-Funktionen von n8n basieren auf dem LangChain-Framework. LangChain ist ein Open-Source-Tool, das die Erstellung komplexer Anwendungen mit Sprachmodellen vereinfacht. Es bietet eine standardisierte M\u00f6glichkeit, Komponenten wie LLMs, Ged\u00e4chtnis und Werkzeuge zu verketten, sodass sie zusammenarbeiten, um komplexe Probleme zu l\u00f6sen.<a href=\"https:\/\/n8n-automation.com\/2024\/03\/03\/langchain-n8n-guide\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\"><\/a><\/p>\n\n\n\n<p>Die n8n-LangChain-Integration bedeutet, dass du kein Python-Entwickler sein musst, um dieses m\u00e4chtige Framework zu nutzen. n8n hat die Logik bereits in die visuelle Oberfl\u00e4che integriert. Wenn du den &#8222;AI Agent&#8220;-Knoten nutzt, interagierst du mit einer benutzerfreundlichen Schicht, die auf den Grundprinzipien von LangChain aufbaut.<\/p>\n\n\n\n<p>Somit kannst du leistungsstarke n8n-Agenten einfach durch das Verbinden von Knoten erstellen. Beispiel: Du kannst deinem KI-Agenten ein &#8222;Tool&#8220; geben, indem du den <strong>&#8222;<\/strong>SerpApi<strong>&#8222;<\/strong>-Knoten damit verbindest. Wenn der Agent eine Anfrage bekommt, die er aus seinem Basiswissen nicht beantworten kann, kann er selbstst\u00e4ndig entscheiden, das Suchwerkzeug zu nutzen, aktuelle Informationen zu finden und diese neuen Daten zu verwenden, um seine Antwort zu formulieren. Diese leistungsstarke F\u00e4higkeit zum Schlussfolgern und Treffen von Entscheidungen ist der Kern dessen, was LangChain innerhalb von n8n erm\u00f6glicht.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"integrating-ai-models-connecting-n8n-to-openai-gem\">KI-Modelle integrieren: n8n mit OpenAI, Gemini und anderen LLMs verbinden<\/h2>\n\n\n\n<p>Die Flexibilit\u00e4t von n8n erm\u00f6glicht es dir, dich mit praktisch jedem KI-Modell zu verbinden, das eine API hat. Egal, ob du ein gro\u00dfes kommerzielles Modell oder eine selbst gehostete Open-Source-Alternative nutzen willst &#8211; der Prozess ist unkompliziert.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Verbindung zu OpenAI herstellen<\/h3>\n\n\n\n<p>Der dedizierte n8n OpenAI-Knoten macht die Integration sehr simpel.<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Knoten hinzuf\u00fcgen:<\/strong> F\u00fcge in deinem Workflow den &#8222;OpenAI&#8220;-Knoten hinzu. W\u00e4hle in der Liste die Option &#8222;Message a model&#8220;.<\/li>\n\n\n\n<li><strong>Anmeldedaten hinzuf\u00fcgen:<\/strong> Erstelle neue Anmeldedaten, indem du deinen OpenAI-API-Schl\u00fcssel angibst.<\/li>\n\n\n\n<li><strong>Den Knoten konfigurieren:<\/strong>\n<ul class=\"wp-block-list\">\n<li><strong>Ressource:<\/strong> W\u00e4hle &#8222;Text&#8220; f\u00fcr konversationale Modelle.<\/li>\n\n\n\n<li><strong>Modell:<\/strong> W\u00e4hle das spezifische Modell aus der Dropdown-Liste aus (z.B. <code>gpt-4-turbo<\/code>, <code>gpt-3.5-turbo<\/code>).<\/li>\n\n\n\n<li><strong>Prompt:<\/strong> Gib den Prompt ein, den du an das Modell senden m\u00f6chtest. Hier kannst du auch dynamische Daten aus vorherigen Knoten einf\u00fcgen.<\/li>\n<\/ul>\n<\/li>\n<\/ol>\n\n\n\n<h3 class=\"wp-block-heading\">Verbindung zu Google Gemini herstellen<\/h3>\n\n\n\n<p>Der Prozess f\u00fcr den n8n Google Gemini-Knoten ist sehr \u00e4hnlich.<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Knoten hinzuf\u00fcgen:<\/strong> F\u00fcge den &#8222;Google Gemini&#8220;-Knoten zu deinem Workflow hinzu.<\/li>\n\n\n\n<li><strong>Anmeldedaten hinzuf\u00fcgen:<\/strong> Erstelle neue Anmeldedaten mit deinem Google Gemini-API-Schl\u00fcssel.<\/li>\n\n\n\n<li><strong>Den Knoten konfigurieren:<\/strong> W\u00e4hle das Modell (z.\u202fB. <code>gemini-pro<\/code>) aus und gib deinen Prompt ein. Die Schnittstelle ist so gestaltet, dass sie \u00fcber verschiedene KI-Modellintegrationen hinweg konsistent und intuitiv bleibt.<\/li>\n<\/ol>\n\n\n\n<h3 class=\"wp-block-heading\">Verbindung zu anderen LLMs herstellen<\/h3>\n\n\n\n<p>Was, wenn du ein kleineres, Open-Source-Modell selbst betreibst oder einen anderen kommerziellen Anbieter nutzen willst, der keinen eigenen Knoten hat? Du kannst jedes beliebige n8n-LLM mit dem generischen &#8222;HTTP Request&#8220;-Knoten verbinden.<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Knoten hinzuf\u00fcgen:<\/strong> F\u00fcge den &#8222;HTTP Request&#8220;-Knoten hinzu.<\/li>\n\n\n\n<li><strong>Die Anfrage konfigurieren:<\/strong>\n<ul class=\"wp-block-list\">\n<li><strong>Methode:<\/strong> Auf <code>POST<\/code> setzen.<\/li>\n\n\n\n<li><strong>URL:<\/strong> Gib den API-Endpunkt des LLMs ein, das du aufrufen m\u00f6chtest.<\/li>\n\n\n\n<li><strong>Authentifizierung:<\/strong> Wenn deine API einen Authentifizierungsheader (z. B. ein Bearer Token) ben\u00f6tigt, f\u00fcge ihn unter &#8222;Authentication&#8220; > &#8222;Header Auth&#8220; hinzu.<\/li>\n\n\n\n<li><strong>Body:<\/strong> Aktiviere die Option &#8222;Body senden&#8220;. W\u00e4hle im Abschnitt &#8222;Body Content Type&#8220; die Option &#8222;JSON&#8220; aus. Hier erstellst du die Request Payload, die in der Regel den Modellnamen und den Prompt enth\u00e4lt. Die genaue Struktur h\u00e4ngt von der jeweiligen API-Dokumentation ab. Zum Beispiel:<\/li>\n<\/ul>\n<\/li>\n<\/ol>\n\n\n\n<pre class=\"wp-block-code\"><code>{\n  \"model\": \"mistral-7b-instruct\",\n  \"messages\": &#91;\n    {\n      \"role\": \"user\",\n      \"content\": \"{{ $json.prompt }}\"\n    }\n  ]\n}<\/code><\/pre>\n\n\n\n<p>Diese Methode gibt dir maximale Flexibilit\u00e4t, um jedes KI-Modell in deine n8n-Workflows zu integrieren.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"practical-ai-workflow-examples-content-generation\">Praktische AI-Workflow-Beispiele: Inhaltserstellung, Datenanalyse und mehr<\/h2>\n\n\n\n<p>Lass uns von der Theorie zur Praxis \u00fcbergehen. Hier sind einige reale Beispiele f\u00fcr KI-Workflows, die du sofort umsetzen kannst.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Workflow 1: Automatisierte Inhaltserstellung<\/h3>\n\n\n\n<p>Dieser n8n-Workflow kann aus einem einfachen Thema einen strukturierten Entwurf erstellen und dir so Stunden an Vorarbeit sparen.<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Trigger:<\/strong> Starte mit einem &#8222;Manual&#8220; Trigger, um den Workflow zu testen. Die Eingabe kann ein JSON-Objekt mit einem Thema sein: <code>{\"topic\": \"Die Vorteile beim Self-Hosting eines VPNs\"}<\/code>, Oder nutze einfach einen &#8222;Chat Trigger&#8220;-Knoten.<\/li>\n\n\n\n<li><strong>Gliederung erstellen:<\/strong> Gib das Thema an einen OpenAI-Knoten weiter mit einem Prompt wie: &#8222;Erstelle eine detaillierte Gliederung f\u00fcr einen Blogpost zum Thema: <code>{{ $json.topic }}<\/code>&#8222;. Die Gliederung sollte eine Einleitung, 3-4 Hauptabschnitte mit Unterpunkten und einen Schluss enthalten. Antworte im JSON-Format.&#8220;<\/li>\n\n\n\n<li><strong>Abschnittsinhalte generieren:<\/strong> Verwende einen &#8222;Split Out&#8220;-Knoten, um jeden Hauptabschnitt aus der Gliederung einzeln zu verarbeiten. F\u00fcr jeden Abschnitt rufst du den OpenAI-Knoten erneut auf mit einem Prompt wie: &#8222;Schreibe einen 300-W\u00f6rter-Abschnitt f\u00fcr einen Blogpost basierend auf folgendem Gliederungspunkt: <code>{{ $json.section_title }}<\/code>. Halte den Ton hilfreich und direkt.&#8220;<\/li>\n\n\n\n<li><strong>Entwurf zusammenstellen:<\/strong> Kombiniere den generierten Inhalt aller Abschnitte mit einem &#8222;Merge&#8220;-Knoten.<\/li>\n\n\n\n<li><strong>Entwurf speichern:<\/strong> Nutze den &#8222;Google Docs&#8220;-Knoten, um ein neues Dokument in deinem Google Drive zu erstellen und den fertigen Entwurf dort zu speichern.<\/li>\n<\/ol>\n\n\n\n<h3 class=\"wp-block-heading\">Workflow 2: Intelligente Datenanalyse und Zusammenfassung<\/h3>\n\n\n\n<p>Dieser Workflow kann Rohdaten analysieren und dir verst\u00e4ndliche Erkenntnisse liefern.<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Trigger:<\/strong> Verwende den &#8222;Google Sheets&#8220;-Trigger, um den Workflow jedes Mal auszuf\u00fchren, wenn eine neue Zeile in einem bestimmten Blatt mit Kundenfeedback hinzugef\u00fcgt wird.<\/li>\n\n\n\n<li><strong>Feedback analysieren:<\/strong> \u00dcbergebe den Feedback-Text an einen Gemini-Knoten mit dem Prompt: &#8222;Analysiere das folgende Kundenfeedback: <code>{{ $json.feedback }}<\/code>. Ermittle die Stimmung (positiv, negativ oder neutral), identifiziere die wichtigsten Themen und gib eine kurze Zusammenfassung in einem Satz. Antworten Sie im JSON-Format mit den Schl\u00fcsseln: <code>sentiment<\/code>, <code>topics<\/code>, <code>summary<\/code>.&#8220;<\/li>\n\n\n\n<li><strong>Tabelle anreichern:<\/strong> Verwende den &#8222;Google Sheets&#8220;-Knoten erneut, diesmal im &#8222;Update&#8220;-Modus, um Stimmung, Themen und Zusammenfassung in die passende Zeile zur\u00fcckzuschreiben.<\/li>\n\n\n\n<li><strong>Warnung bei negativem Feedback:<\/strong> F\u00fcge einen &#8222;IF&#8220;-Knoten hinzu, um zu pr\u00fcfen, ob die Stimmung &#8222;Negativ&#8220; ist. Falls ja, nutze den &#8222;Slack&#8220;-Knoten, um sofort eine Benachrichtigung mit einem Link zur entsprechenden Feedback-Zeile an den Support-Channel zu schicken.<\/li>\n<\/ol>\n\n\n\n<p>Dies ist ein leistungsstarker n8n-AI-Workflow, der eine einfache Tabelle in ein intelligentes Feedback-Analysesystem verwandelt.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"building-an-ai-powered-web-scraping-and-data-pipel\">KI-gest\u00fctzte Web-Scraping- und Datenpipeline aufbauen<\/h2>\n\n\n\n<p>Kombiniere mehrere dieser Konzepte in einem einzigen leistungsstarken Projekt:\nEine Pipeline, die Webseiten auf neue Informationen \u00fcberwacht, KI nutzt, um sie zu verstehen, und sie anschlie\u00dfend als strukturierte Daten speichert.<\/p>\n\n\n\n<p>Das Ziel: Den Prozess der Marktforschung automatisieren indem du Nachrichtenartikel zu einer bestimmten Branche sammelst und daraus eine saubere, durchsuchbare Datenbank mit Erkenntnissen aufbaust.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-workflow-gliederung\">Workflow-Gliederung<\/h3>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"1917\" height=\"801\" src=\"https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/10\/image-20251015-101339_edit.png\" alt=\"\" class=\"wp-image-25565\" srcset=\"https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/10\/image-20251015-101339_edit.png 1917w, https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/10\/image-20251015-101339_edit-600x251.png 600w, https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/10\/image-20251015-101339_edit-768x321.png 768w, https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/10\/image-20251015-101339_edit-1536x642.png 1536w\" sizes=\"auto, (max-width: 1917px) 100vw, 1917px\" \/><\/figure>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Trigger und URLs abrufen:<\/strong> Starte mit dem &#8222;Schedule Trigger&#8220;-Knoten, damit der Workflow automatisch ausgef\u00fchrt wird. Du kannst diesen Knoten so konfigurieren, dass er in jedem beliebigen Intervall ausgef\u00fchrt wird &#8211; zum Beispiel einmal t\u00e4glich um 9:00 Uhr morgens. Dieser Trigger leitet zu einem Schritt weiter, der eine Liste von Zielseiten aus einem Google Sheet oder einer Airtable-Datenbank abruft.<\/li>\n\n\n\n<li><strong>Inhalt scrapen:<\/strong> Das native Web-Scraping in n8n erfolgt in der Regel in zwei Schritten. Zuerst nutzt du den &#8222;HTTP Request&#8220;-Knoten, um eine <code>GET<\/code> -Anfrage an die jeweilige Artikel-URL zu senden. Damit rufst du das rohe HTML der Seite ab. Im n\u00e4chsten Schritt \u00fcbergibst du dieses HTML an den &#8222;HTML&#8220;-Knoten. Innerhalb dieses Knotens stellst du die <em>Operation<\/em> &#8222;Extract HTML Content&#8220; ein. Diese leistungsstarke Funktion erlaubt es dir, mit CSS-Selektoren (z. B. <code>h1<\/code>, <code>.article-body p<\/code> oder <code>#main-content<\/code>) genau die Inhalte herauszuziehen, die du brauchst &#8211; etwa den Titel und den eigentlichen Artikeltext.<br><em>Hinweis: Du kannst auch aus einer Vielzahl von Drittanbieter-Knoten<\/em> <em>f\u00fcr Web-Scraping w\u00e4hlen, jeder mit eigener Funktionalit\u00e4t. Es gibt oft mehr als einen Weg, um Dinge mit n8n zu erledigen.<\/em><\/li>\n\n\n\n<li><strong>Mit KI f\u00fcr die Strukturierung verarbeiten:<\/strong> \u00dcbergib den extrahierten Text an einen n8n-KI-Knoten (z. B. OpenAI). Hier findet die echte Intelligenz statt. Verwende eine sorgf\u00e4ltig formulierte Eingabeaufforderung, um die KI als Datenanalyst agieren zu lassen: <br><em>&#8222;Extrahiere aus dem folgenden Artikeltext die folgenden Informationen im JSON-Format: company_names_mentioned, key_technologies_discussed, publication_date und eine 200-W\u00f6rter-Zusammenfassung. Wenn eine Information nicht vorhanden ist, gib null f\u00fcr diesen Key zur\u00fcck.&#8220;<\/em><\/li>\n\n\n\n<li><strong>Strukturierte Daten speichern:<\/strong> Der KI-Knoten gibt sauberes, strukturiertes JSON aus, das direkt gespeichert werden kann. F\u00fcge daf\u00fcr einen Datenbankknoten wie den &#8222;Airtable&#8220;-Knoten hinzu.\n<ul class=\"wp-block-list\">\n<li><strong>Den Knoten konfigurieren:<\/strong> W\u00e4hle deine Airtable-Anmeldeinformationen aus und setze die <em>Operation<\/em> auf &#8222;Create&#8220;. W\u00e4hle die Basis und die Tabelle, in der du die Ergebnisse speichern m\u00f6chtest.<\/li>\n\n\n\n<li><strong>Die Felder abgleichen:<\/strong> Der Knoten zeigt die Felder aus deiner Airtable-Tabelle an. Gleiche nun die Daten aus der KI-Ausgabe mit diesen Feldern ab. F\u00fcr ein Feld in Airtable mit dem Namen &#8222;Companies&#8220; f\u00fcgst du den <code>company_names_mentioned<\/code>-Wert aus der Ausgabe des KI-Knotens hinzu. So k\u00f6nnte es ungef\u00e4hr aussehen: <code>{{ $json.company_names_mentioned }}<\/code>. Wiederhole das f\u00fcr alle Daten, die du extrahiert hast.<\/li>\n<\/ul>\n<\/li>\n\n\n\n<li><strong>\u00dcberpr\u00fcfung und Fehlerbehandlung (Optional):<\/strong> Workflows k\u00f6nnen fehlschlagen, vor allem wenn externe Webseiten oder APIs beteiligt sind. Es ist wichtig, hier Resilienz einzubauen.\n<ul class=\"wp-block-list\">\n<li><strong>Fehlerquellen identifizieren:<\/strong> Die &#8222;HTTP Request&#8220;- und die &#8222;AI&#8220;-Knoten sind die wahrscheinlichsten Punkte, an denen etwas schiefgehen kann (z.\u202fB. Website down, API-Key ung\u00fcltig).<\/li>\n\n\n\n<li><strong>Inline-Fehlerprotokollierung einrichten:<\/strong> Klicke auf den &#8222;HTTP Request&#8220;-Knoten, gehe zum Tab Einstellungen und stelle &#8222;Continue (using error output)&#8220; ein. Der Knoten hat jetzt zwei Ausg\u00e4nge: Erfolg (oben) oder Fehler (unten).<\/li>\n\n\n\n<li><strong>Einen Fehlerpfad erstellen:<\/strong> Verbinde den unteren &#8222;Error&#8220;-Ausgang mit einem &#8222;Google Sheets&#8220;-Knoten. Konfiguriere diesen Knoten so, dass eine neue Zeile ans Log-Sheet angeh\u00e4ngt wird. In den Feldern kannst du die URL, die fehlgeschlagen ist, und die genaue Fehlermeldung zuordnen, die im Ausdrucks-Editor unter verf\u00fcgbar ist. So entsteht ein einfaches, aber effektives Protokoll aller URLs, die nicht verarbeitet werden konnten, und du kannst sie sp\u00e4ter pr\u00fcfen, ohne dass der ganze Workflow stoppt. Dasselbe Muster kannst du auf jeden anderen fehleranf\u00e4lligen Knoten anwenden.<\/li>\n<\/ul>\n<\/li>\n<\/ol>\n\n\n\n<p>Dieser Workflow ist ein perfektes Beispiel daf\u00fcr, wie n8n einen komplexen Prozess orchestrieren kann und KI die L\u00fccke zwischen unstrukturierten Webinhalten und einem strukturierten, wertvollen Datensatz schlie\u00dft.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"from-api-to-automation-creating-custom-n8n-ai-work\">Von API zu Automatisierung: Eigene n8n-KI-Workflows erstellen<\/h2>\n\n\n\n<p>Die vorgefertigten Knoten sind m\u00e4chtig, aber das wahre Potenzial von n8n zeigt sich, wenn du es als programmierbares Automatisierungs-Backend nutzt. Durch die Interaktion mit der n8n-API kannst du eigene Workflows bauen, die nahtlos in deine Anwendungen und Services integriert werden.<\/p>\n\n\n\n<p>Stell dir vor, du hast ein selbstgebautes CRM. Du k\u00f6nntest einen Button in deinem CRM hinzuf\u00fcgen, der beim Klick einen n8n-Workflow ausl\u00f6st, der eine KI-Analyse der bisherigen Kundendaten macht. So richtest du es ein:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Webhook-Trigger erstellen:<\/strong> Starte deinen Workflow mit dem &#8222;Webhook&#8220;-Knoten. Das generiert eine eindeutige URL.<\/li>\n\n\n\n<li><strong>KI-Logik aufbauen:<\/strong> Baue den Rest des Workflows, um die gew\u00fcnschte Aufgabe zu erledigen. Beispiel: Alle bisherigen Support-Tickets einer Kunden-ID abrufen, sie an ein n8n-LLM weitergeben mit der Aufforderung &#8222;Fasse die 3 wichtigsten Probleme des Kunden und die allgemeine Stimmung zusammen&#8220; und dann die Zusammenfassung in einen Slack-Kanal posten.<\/li>\n\n\n\n<li><strong>Webhook aus deiner App aufrufen:<\/strong> Mach im Anwendungscode eine <code>POST<\/code>-Anfrage an die Webhook-URL, wann immer der Button gedr\u00fcckt wird. Die Kunden-ID wird im Body der Anfrage \u00fcbergeben. Hier ist ein Beispiel mit <code>curl<\/code>:<\/li>\n<\/ol>\n\n\n\n<pre class=\"wp-block-code\"><code><code>curl -X POST -H \"Content-Type: application\/json\" -d '{\"customerId\": \"12345\"}' https:\/\/your-n8n-instance.com\/webhook\/your-webhook-id<\/code><\/code><\/pre>\n\n\n\n<p>Dieser Ansatz erm\u00f6glicht es dir, KI-gest\u00fctzte Automatisierungen direkt in deine bestehenden Tools einzubetten und so eine nahtlose Nutzererfahrung zu schaffen. Du bist nicht mehr auf die integrierten Ausl\u00f6ser beschr\u00e4nkt &#8211; deine eigenen Anwendungen k\u00f6nnen jetzt als Ausgangspunkt f\u00fcr jeden Workflow dienen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"n8n-ai-workflows-faq\">n8n AI Workflows FAQ<\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Welche Kosten entstehen bei der Nutzung von KI-Modellen in n8n?<\/strong><br>n8n selbst erhebt keine zus\u00e4tzlichen Geb\u00fchren f\u00fcr die Nutzung seiner KI-Knoten. Du bist jedoch f\u00fcr die Kosten verantwortlich, die vom Anbieter des KI-Modells berechnet werden. Wenn du z.\u202fB. den OpenAI-Knoten verwendest, stellt dir OpenAI die Nutzung basierend auf (der Anzahl der verarbeiteten Tokens) in Rechnung.<\/li>\n\n\n\n<li><strong>Sind meine Daten sicher, wenn ich n8n mit KI nutze?<\/strong><br>Das ist ein wichtiger Punkt. Wenn du ein Cloud-basiertes KI-Modell wie OpenAI oder Gemini nutzt, werden die Daten, die du in deiner Anfrage sendest, auf deren Servern verarbeitet. Obwohl diese Unternehmen strenge Datenschutzrichtlinien haben, verlassen die Daten trotzdem deine eigene Infrastruktur. F\u00fcr maximale Sicherheit und Datenschutz ist die beste L\u00f6sung, ein selbst gehostetes Open-Source-LLM auf deinem eigenen Server zu verwenden und es \u00fcber den HTTP-Request-Knoten aufzurufen.<\/li>\n\n\n\n<li><strong>Kann ich Open-Source-LLMs mit n8n verwenden?<\/strong><br>Auf jeden Fall. Wenn du ein Open-Source-Modell lokal oder auf deinem eigenen Server betreibst (z.\u202fB. mit einem Tool wie Ollama), stellt es in der Regel einen API-Endpunkt bereit. Du kannst den &#8222;HTTP Request&#8220;-Knoten in n8n nutzen, um diesen Endpunkt aufzurufen. So bekommst du die Leistung moderner LLMs bei voller Kontrolle \u00fcber deine Daten.<\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"<p>Bring deine Automatisierungs-Skills auf das n\u00e4chste Level, indem du leistungsstarke KI-Funktionen direkt in deine n8n-Workflows einbaust. Dieser umfassende Leitfaden zeigt dir, wie du dich mit Modellen wie OpenAI und Gemini verbindest, um intelligente Systeme zu erstellen, die Kontext verstehen, Inhalte generieren und unstrukturierte Daten analysieren k\u00f6nnen. Wir zeigen dir praxisnahe Beispiele &#8211; von der Erstellung einer KI-gest\u00fctzten Datenpipeline bis hin zum Aufbau individueller Workflows, die RAG und agentic-logik nutzen.<\/p>\n","protected":false},"author":63,"featured_media":25557,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"inline_featured_image":false,"_uag_custom_page_level_css":"","site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"set","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"footnotes":""},"categories":[970],"tags":[3273,3266,3275,3185,3264,3271,3268,3188,3270,3186],"ppma_author":[1492],"class_list":["post-26168","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-neuigkeiten","tag-datenpipeline","tag-ki-automatisierung","tag-langchain-de","tag-n8n-de","tag-n8n-ki","tag-n8n-llm-de","tag-n8n-openai-de","tag-n8n-tutorial-de","tag-n8n-agenten","tag-workflow-automatisierung"],"uagb_featured_image_src":{"full":["https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/09\/blog-head_n8n-ai-workflows.jpg",1200,630,false],"thumbnail":["https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/09\/blog-head_n8n-ai-workflows-150x150.jpg",150,150,true],"medium":["https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/09\/blog-head_n8n-ai-workflows-600x315.jpg",600,315,true],"medium_large":["https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/09\/blog-head_n8n-ai-workflows-768x403.jpg",768,403,true],"large":["https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/09\/blog-head_n8n-ai-workflows.jpg",1200,630,false],"1536x1536":["https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/09\/blog-head_n8n-ai-workflows.jpg",1200,630,false],"2048x2048":["https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/09\/blog-head_n8n-ai-workflows.jpg",1200,630,false]},"uagb_author_info":{"display_name":"Christopher Carter","author_link":"https:\/\/contabo.com\/blog\/de\/author\/christophercarter\/"},"uagb_comment_info":0,"uagb_excerpt":"Bring deine Automatisierungs-Skills auf das n\u00e4chste Level, indem du leistungsstarke KI-Funktionen direkt in deine n8n-Workflows einbaust. Dieser umfassende Leitfaden zeigt dir, wie du dich mit Modellen wie OpenAI und Gemini verbindest, um intelligente Systeme zu erstellen, die Kontext verstehen, Inhalte generieren und unstrukturierte Daten analysieren k\u00f6nnen. Wir zeigen dir praxisnahe Beispiele - von der Erstellung&hellip;","authors":[{"term_id":1492,"user_id":63,"is_guest":0,"slug":"christophercarter","display_name":"Christopher Carter","avatar_url":"https:\/\/secure.gravatar.com\/avatar\/63db81672a5ce4c1e8ee39753d00251d561b5b3a9967febf1c4f662024cef00f?s=96&d=mm&r=g","0":null,"1":"","2":"","3":"","4":"","5":"","6":"","7":"","8":""}],"_links":{"self":[{"href":"https:\/\/contabo.com\/blog\/de\/wp-json\/wp\/v2\/posts\/26168","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/contabo.com\/blog\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/contabo.com\/blog\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/contabo.com\/blog\/de\/wp-json\/wp\/v2\/users\/63"}],"replies":[{"embeddable":true,"href":"https:\/\/contabo.com\/blog\/de\/wp-json\/wp\/v2\/comments?post=26168"}],"version-history":[{"count":6,"href":"https:\/\/contabo.com\/blog\/de\/wp-json\/wp\/v2\/posts\/26168\/revisions"}],"predecessor-version":[{"id":26303,"href":"https:\/\/contabo.com\/blog\/de\/wp-json\/wp\/v2\/posts\/26168\/revisions\/26303"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/contabo.com\/blog\/de\/wp-json\/wp\/v2\/media\/25557"}],"wp:attachment":[{"href":"https:\/\/contabo.com\/blog\/de\/wp-json\/wp\/v2\/media?parent=26168"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/contabo.com\/blog\/de\/wp-json\/wp\/v2\/categories?post=26168"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/contabo.com\/blog\/de\/wp-json\/wp\/v2\/tags?post=26168"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/contabo.com\/blog\/de\/wp-json\/wp\/v2\/ppma_author?post=26168"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}