
{"id":27246,"date":"2026-01-15T10:16:05","date_gmt":"2026-01-15T09:16:05","guid":{"rendered":"https:\/\/contabo.com\/blog\/que-es-ollama-y-como-usarlo-con-n8n\/"},"modified":"2026-02-18T18:20:35","modified_gmt":"2026-02-18T17:20:35","slug":"que-es-ollama-y-como-usarlo-con-n8n","status":"publish","type":"post","link":"https:\/\/contabo.com\/blog\/es\/que-es-ollama-y-como-usarlo-con-n8n\/","title":{"rendered":"\u00bfQu\u00e9 es Ollama y c\u00f3mo usarlo con n8n?"},"content":{"rendered":"\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"1200\" height=\"630\" src=\"https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/blog-head_-what-is-ollama.webp\" alt=\"\" class=\"wp-image-26377\" srcset=\"https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/blog-head_-what-is-ollama.webp 1200w, https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/blog-head_-what-is-ollama-600x315.webp 600w, https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/blog-head_-what-is-ollama-768x403.webp 768w\" sizes=\"auto, (max-width: 1200px) 100vw, 1200px\" \/><\/figure>\n\n\n\n<p>Ejecutar grandes modelos de lenguaje sol\u00eda significar APIs en la nube, facturaci\u00f3n por token y confiar tus datos a terceros. Ollama cambi\u00f3 todo eso para mejor. Es una herramienta de c\u00f3digo abierto que hace que ejecutar LLMs en tu propio hardware sea tan simple como instalar cualquier otro paquete. <\/p>\n\n\n\n<p>La integraci\u00f3n de n8n y Ollama te ofrece algo realmente \u00fatil: flujos de trabajo impulsados por IA que funcionan completamente en la infraestructura que controlas. Tus instrucciones permanecen locales. Las respuestas se generan en tu propio VPS. No hay l\u00edmites de uso que drenen lentamente tu presupuesto. Para proyectos serios sobre IA y automatizaci\u00f3n, esta combinaci\u00f3n lleva las cosas a un nuevo nivel. <\/p>\n\n\n\n<p>Esta gu\u00eda cubre qu\u00e9 hace Ollama, c\u00f3mo funciona la maquinaria internamente y los pasos pr\u00e1cticos para integrarlo en flujos de trabajo de n8n que no se conectan a la red.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-que-es-ollama-conceptos-clave\">\u00bfQu\u00e9 es Ollama? Conceptos clave<\/h2>\n\n\n\n<p>Ollama es una plataforma de c\u00f3digo abierto que simplifica la ejecuci\u00f3n de grandes modelos de lenguaje localmente. En lugar de llamar a las APIs de OpenAI o Anthropic, descargas modelos en tu servidor y ejecutas inferencias all\u00ed. La gesti\u00f3n de modelos, el servicio y la optimizaci\u00f3n est\u00e1n todos integrados, por lo que no tienes que pasar semanas construyendo esa infraestructura t\u00fa mismo. <\/p>\n\n\n\n<p>Las principales caracter\u00edsticas de Ollama se centran en la accesibilidad. La gesti\u00f3n de modelos funciona a trav\u00e9s de comandos simples: <code>ollama pull llama3.2<\/code> descarga un modelo, <code>ollama run llama3.2<\/code> comienza una conversaci\u00f3n. Detr\u00e1s de esos comandos se encuentra un servidor API que otras aplicaciones pueden llamar. Ese es tu punto de integraci\u00f3n con n8n.<\/p>\n\n\n\n<p>El rendimiento de Ollama depende de tu hardware, pero la herramienta optimiza la inferencia autom\u00e1ticamente. Gestiona la carga de modelos, la gesti\u00f3n de memoria y la utilizaci\u00f3n de GPU sin ajustes manuales. Un modelo de 7B par\u00e1metros funciona razonablemente en CPUs de consumo. Los modelos m\u00e1s grandes se benefician de las GPUs, pero no las requieren estrictamente.<\/p>\n\n\n\n<p>Aqu\u00ed es donde la seguridad de Ollama se vuelve interesante: la inferencia ocurre en tu infraestructura. Tus indicaciones nunca tocan APIs externas, y los archivos de modelo viven en tu disco. Las respuestas se generan localmente, sin tocar los servidores de otros. Para equipos que manejan datos sensibles o que operan bajo requisitos de cumplimiento, esto cambia fundamentalmente el perfil de riesgo en comparaci\u00f3n con LLMs en la nube. Creemos que esto importa m\u00e1s que la mayor\u00eda de las comparaciones de pruebas.<\/p>\n\n\n\n<p>La plataforma admite docenas de modelos, como Llama, Mistral, Gemma y DeepSeek. Puedes ejecutar m\u00faltiples modelos simult\u00e1neamente y cambiar entre ellos por prompt, eligiendo el tama\u00f1o y la capacidad del modelo adecuados para cada tarea en lugar de forzar todo a trav\u00e9s de un \u00fanico endpoint.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-como-funciona-ollama-por-dentro\">\u00bfC\u00f3mo funciona Ollama por dentro? <\/h2>\n\n\n\n<p>Ollama comienza a trabajar cuando descargas un modelo. Descarga archivos de modelo, los almacena localmente y los hace disponibles para su servidor API. Cuando llega un prompt, Ollama carga el modelo en la memoria (o lo mantiene cargado para prompts posteriores), ejecuta la inferencia y devuelve el resultado.<\/p>\n\n\n\n<p>\u00bfD\u00f3nde almacena Ollama los modelos? Viven en una estructura de directorio espec\u00edfica. En Linux, generalmente es <code>~\/.ollama\/models\/<\/code>. Cada modelo consiste en archivos de pesos, configuraci\u00f3n y metadatos. Modelos grandes pueden ocupar varios gigabytes. El espacio en disco importa cuando est\u00e1s ejecutando m\u00faltiples modelos.<\/p>\n\n\n\n<p>El servidor API expone un endpoint REST que acepta indicaciones y devuelve respuestas. Este endpoint se convierte en el punto de integraci\u00f3n para herramientas como n8n. Cuando env\u00edas JSON con tus indicaciones y par\u00e1metros, Ollama lo procesa a trav\u00e9s del modelo y recibes texto de vuelta. Tambi\u00e9n admite streaming, por lo que las respuestas pueden llegar token por token en lugar de hacerte esperar a la finalizaci\u00f3n completa.<\/p>\n\n\n\n<p>La gesti\u00f3n de memoria ocurre autom\u00e1ticamente. Ollama carga modelos a demanda y los descarga cuando aumenta la presi\u00f3n de memoria. Incluso 8 GB de RAM son suficientes para manejar modelos de 7B c\u00f3modamente. Modelos m\u00e1s grandes generalmente necesitan m\u00e1s memoria o versiones cuantizadas. <\/p>\n\n\n\n<p>La aceleraci\u00f3n por GPU es opcional pero beneficiosa. Si tienes una GPU disponible, Ollama la detecta y deriva el procesamiento all\u00ed, lo que acelera significativamente la inferencia para modelos m\u00e1s grandes. La inferencia solo con CPU todav\u00eda funciona para muchos casos de uso, particularmente para modelos m\u00e1s peque\u00f1os.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-por-que-ejecutar-ollama-en-un-vps-en-lugar-de-en-la-nube\">\u00bfPor qu\u00e9 ejecutar Ollama en un VPS en lugar de en la nube? <\/h2>\n\n\n\n<p>Los modelos de precios de Ollama en la nube generalmente implican cargos por token o por hora que escalan con el uso. Una indicaci\u00f3n de 1,000 palabras con una respuesta de 500 palabras podr\u00eda costar unos pocos centavos. Parece razonable hasta que ejecutas 10,000 prompts mensuales y de repente est\u00e1s pagando cientos. Ollama autoalojado en un VPS cambia completamente ese modelo de costos.<\/p>\n\n\n\n<p>Con un VPS de Ollama, tu costo mensual es el servidor. Eso es todo. Ejecuta 100 o 100,000 prompts; la factura se mantiene igual. No hay cargos basados en uso que se vayan acumulando. No hay facturas sorpresas cuando el tr\u00e1fico aumenta porque alguien comparti\u00f3 tu aplicaci\u00f3n en Reddit.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"879\" height=\"652\" src=\"https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/cost-comparison_ollama-vs-api_EN.webp\" alt=\"\" class=\"wp-image-26383\" srcset=\"https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/cost-comparison_ollama-vs-api_EN.webp 879w, https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/cost-comparison_ollama-vs-api_EN-600x445.webp 600w, https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/cost-comparison_ollama-vs-api_EN-768x570.webp 768w\" sizes=\"auto, (max-width: 879px) 100vw, 879px\" \/><\/figure>\n\n\n\n<p>La privacidad de los datos es el otro factor importante. Existen opciones de servicio en la nube de Ollama, pero reintroducen el problema de confianza que intentabas evitar. Cuando ejecutas Ollama autoalojado, tus datos nunca abandonan tu infraestructura. Las solicitudes de soporte al cliente, documentos internos, c\u00f3digo propietario: todo permanece en tu VPS durante la inferencia. <\/p>\n\n\n\n<p>El cumplimiento se vuelve m\u00e1s sencillo tambi\u00e9n. El RGPD significa que necesitas saber d\u00f3nde se procesan tus datos. La HIPAA restringe c\u00f3mo se mueve la informaci\u00f3n de salud protegida. Ejecutar Ollama localmente te mantiene dentro de esos l\u00edmites sin necesidad de negociar acuerdos complejos de procesamiento de datos con proveedores de la nube que pueden o no cumplirlos. <\/p>\n\n\n\n<p>Tambi\u00e9n controlas las actualizaciones. Los nuevos modelos se lanzan con frecuencia. Con una configuraci\u00f3n autoalojada, descargas el nuevo modelo y lo pruebas de inmediato. No hay que esperar a que los proveedores de nube lo ofrezcan. No hay bloqueo de proveedor que determine a qu\u00e9 modelos puedes acceder o cu\u00e1ndo.<\/p>\n\n\n\n<p>El hardware es importante para las cargas de trabajo de IA: necesitas suficientes n\u00facleos de CPU, RAM y potencialmente acceso a GPU. Contabo ofrece una gama de <a href=\"https:\/\/contabo.com\/es\/ia-y-aprendizaje-autom\u00e1tico\/\" target=\"_blank\" rel=\"noreferrer noopener\">planes de servidor optimizados para IA y aprendizaje autom\u00e1tico<\/a> con configuraciones adecuadas para ejecutar m\u00faltiples modelos y manejar prompts de inferencia concurrentes sin problemas. Por supuesto, puedes ejecutar Ollama en cualquier VPS, VDS o Servidor Dedicado de tu elecci\u00f3n.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-eligir-un-proveedor-de-vps-ollama\">Eligir un proveedor de VPS Ollama<\/h2>\n\n\n\n<p>Ejecutar un VPS de Ollama con \u00e9xito requiere que el hardware coincida con tu carga de trabajo. La configuraci\u00f3n m\u00ednima viable es algo como nuestro Cloud VPS 10: 4 n\u00facleos de vCPU, 8 GB de RAM y 75 GB de almacenamiento. Eso maneja modelos de 7B par\u00e1metros razonablemente. Para una configuraci\u00f3n m\u00e1s c\u00f3moda, podr\u00edas actualizar a un Cloud VPS 30 con 8 n\u00facleos de vCPU, 24 GB de RAM y 200 GB de almacenamiento, que ejecuta modelos m\u00e1s grandes y atiende m\u00faltiples prompts concurrentes sin cuellos de botella.<\/p>\n\n\n\n<p>El almacenamiento es importante porque los modelos son grandes. Llama3 7B ocupa aproximadamente 4 GB. Mixtral 8x7B se acerca a 50 GB. \u00bfEjecutando varios modelos? El almacenamiento se acumula r\u00e1pidamente. Los discos NVMe ayudan: cargar modelos desde el disco es m\u00e1s r\u00e1pido, reduciendo la latencia de inicio cuando un modelo fr\u00edo necesita iniciarse. <\/p>\n\n\n\n<p>Una GPU no es obligatoria, pero cambia el rendimiento notablemente. Una GPU de gama media como la A4000 reduce considerablemente el tiempo de inferencia para modelos m\u00e1s grandes. Para flujos de trabajo de producci\u00f3n atendiendo a m\u00faltiples usuarios, las GPUs justifican su costo. Para herramientas internas con uso m\u00e1s ligero, la inferencia de CPU funciona bien. Explora la <a href=\"https:\/\/contabo.com\/es\/nube-gpu\/\" target=\"_blank\" rel=\"noreferrer noopener\">Nube GPU de Contabo<\/a> para ver qu\u00e9 puedes a\u00f1adir a tu servidor. <\/p>\n\n\n\n<p>El ancho de banda de la red afecta la configuraci\u00f3n inicial. Descargar modelos grandes requiere descargar gigabytes a trav\u00e9s de la red. Despu\u00e9s de eso, la inferencia local no toca la red a menos que est\u00e9s integrando con servicios externos a trav\u00e9s de n8n. Sin embargo, esa descarga inicial del modelo se beneficia de conexiones de red r\u00e1pidas y estables.<\/p>\n\n\n\n<p>Ejecutar Ollama junto a otras herramientas autoalojadas tiene sentido. Empareja <a href=\"https:\/\/contabo.com\/es\/hosting-nextcloud\/\" target=\"_blank\" rel=\"noreferrer noopener\">Nextcloud autoalojado<\/a> para almacenamiento de archivos con Ollama para an\u00e1lisis de documentos. A\u00f1ade <a href=\"https:\/\/contabo.com\/es\/hosting-n8n\/\" target=\"_blank\" rel=\"noreferrer noopener\">n8n<\/a> para automatizaci\u00f3n de flujos de trabajo. Despliega todo en una instancia de Cloud VPS de Nextcloud si los recursos lo permiten, o distrib\u00fayelo entre varios servidores dependiendo de la carga y c\u00f3mo quieras aislar los servicios. Ambas aplicaciones est\u00e1n disponibles en cualquier VPS o VDS de Contabo con instalaci\u00f3n gratuita de 1 clic.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-paso-a-paso-desplegar-ollama-en-un-vps\">Paso a Paso: Desplegar Ollama en un VPS<\/h2>\n\n\n\n<p>C\u00f3mo instalar Ollama en Linux es sencillo. Inicia sesi\u00f3n en tu VPS y ejecuta el script de instalaci\u00f3n: <\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>curl -fsSL <a href=\"https:\/\/ollama.com\/install.sh\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">https:\/\/ollama.com\/install.sh<\/a> | sh&nbsp;<\/code><\/pre>\n\n\n\n<p>Esto descarga Ollama, lo instala y comienza el servicio. En Ubuntu, Debian o la mayor\u00eda de las distribuciones modernas de Linux, funciona sin dependencias adicionales. <\/p>\n\n\n\n<p>Despu\u00e9s de que se complete la instalaci\u00f3n, verifica que Ollama est\u00e9 en ejecuci\u00f3n: <\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>ollama --version&nbsp;<\/code><\/pre>\n\n\n\n<p>Deber\u00edas ver el n\u00famero de versi\u00f3n. Ahora descarga tu primer modelo: <\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>ollama pull llama3.2&nbsp;<\/code><\/pre>\n\n\n\n<p>Esto descarga Llama 3.2 (7B par\u00e1metros) y lo almacena localmente. El tiempo de descarga depende de la velocidad de tu red y del tama\u00f1o del modelo. Llama 3.2 ocupa alrededor de 4 GB, as\u00ed que espera unos minutos en una conexi\u00f3n decente. <\/p>\n\n\n\n<p>C\u00f3mo ejecutar Ollama despu\u00e9s de descargar un modelo: <\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>ollama run llama3.2&nbsp;<\/code><\/pre>\n\n\n\n<p>Esto inicia una sesi\u00f3n interactiva donde puedes probar prompts. Escribe una pregunta, presiona Enter y observa el flujo de respuesta. Sal con <code>\/bye<\/code>.<\/p>\n\n\n\n<p>Para ejecutar DeepSeek con Ollama en un VPS, el proceso es id\u00e9ntico: <\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>ollama pull deepseek-coder&nbsp;\nollama run deepseek-coder&nbsp;<\/code><\/pre>\n\n\n\n<p>Los modelos de DeepSeek se especializan en generaci\u00f3n y an\u00e1lisis de c\u00f3digo. Ejecutarlos localmente significa que tus bases de c\u00f3digo propietarias nunca abandonan tu infraestructura durante tareas de an\u00e1lisis o generaci\u00f3n. Eso es muy importante si trabajas con algo que har\u00eda que tu equipo legal se pusiera nervioso. <\/p>\n\n\n\n<p>\u00bfD\u00f3nde almacena Ollama los modelos en tu sistema? Verifica la ruta predeterminada: <\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>ls ~\/.ollama\/models&nbsp;<\/code><\/pre>\n\n\n\n<p>Cada modelo vive en su propio subdirectorio con pesos, configuraciones y metadatos. \u00bfGestionando el espacio en disco? Aqu\u00ed es donde se acumulan los modelos. <\/p>\n\n\n\n<p>El servidor API se inicia autom\u00e1ticamente y escucha en <code>localhost:11434<\/code> por defecto. Ponlo a prueba con curl:<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>curl <a href=\"http:\/\/localhost:11434\/api\/generate\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">http:\/\/localhost:11434\/api\/generate<\/a> -d '{&nbsp;\n&nbsp; \"model\": \"llama3.2\",&nbsp;\n&nbsp; \"prompt\": \"Why is the sky blue?\"&nbsp;\n}'<\/code><\/pre>\n\n\n\n<p>Deber\u00edas obtener una respuesta JSON con el texto generado enviado de regreso. Este endpoint es lo que n8n llamar\u00e1 para la integraci\u00f3n. <\/p>\n\n\n\n<p>Para uso en producci\u00f3n, considera ejecutar Ollama detr\u00e1s de un proxy inverso si necesitas acceso externo. Pero para la integraci\u00f3n con n8n en el mismo VPS, el acceso local es suficiente y m\u00e1s seguro: no necesitas exponer puertos que no tengas que exponer. <\/p>\n\n\n\n<p>Si est\u00e1s espec\u00edficamente interesado en modelos de DeepSeek para aplicaciones de IA empresariales, Contabo tambi\u00e9n ofrece <a href=\"https:\/\/contabo.com\/es\/soluciones-ia-deepseek-empresarial\/\" target=\"_blank\" rel=\"noreferrer noopener\">soluciones de IA DeepSeek autoimplementadas<\/a> que est\u00e1n dise\u00f1adas para un rendimiento \u00f3ptimo. <\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-requisitos-previos-para-la-integracion-de-n8n-y-ollama-en-un-vps\">Requisitos previos para la integraci\u00f3n de n8n y Ollama en un VPS <\/h2>\n\n\n\n<p>Antes de conectar la integraci\u00f3n de n8n y Ollama, necesitas tener ambas herramientas instaladas y accesibles. Ollama ya est\u00e1 en ejecuci\u00f3n si seguiste la secci\u00f3n anterior. Ahora instala n8n.<\/p>\n\n\n\n<p>El camino m\u00e1s r\u00e1pido es Docker: <\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>docker run -d --name n8n \\&nbsp;\n&nbsp; -p 5678:5678 \\&nbsp;\n&nbsp; -v ~\/.n8n:\/home\/node\/.n8n \\&nbsp;\n&nbsp; n8nio\/n8n&nbsp;&nbsp;<\/code><\/pre>\n\n\n\n<p>O inst\u00e1lalo a trav\u00e9s de npm si lo prefieres: <\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>npm install n8n -g&nbsp;\nn8n start&nbsp;&nbsp;<\/code><\/pre>\n\n\n\n<p>Una vez que n8n est\u00e9 en ejecuci\u00f3n, accede a \u00e9l en <a href=\"http:\/\/tu-ip-vps:5678\" target=\"_blank\" rel=\"noreferrer noopener nofollow\"><code>http:\/\/your-vps-ip:5678<\/code><\/a>. Crea una cuenta. Est\u00e1s listo para construir flujos de trabajo. <\/p>\n\n\n\n<p>Tambi\u00e9n podr\u00edas optar por instalar n8n usando nuestra opci\u00f3n gratuita de 1 clic, pero ten en cuenta que esto deber\u00e1 configurarse primero en un nuevo servidor (o a trav\u00e9s de una reinstalaci\u00f3n destructiva en uno existente) seguida de la instalaci\u00f3n manual de Ollama como arriba. Obt\u00e9n m\u00e1s informaci\u00f3n sobre <a href=\"https:\/\/contabo.com\/es\/hosting-n8n\/\" target=\"_blank\" rel=\"noreferrer noopener\">autoimplementaci\u00f3n de n8n en un VPS de Contabo<\/a>. <\/p>\n\n\n\n<p>C\u00f3mo integrar Ollama con n8n requiere confirmar el acceso a la red. Si ambos servicios se ejecutan en el mismo VPS, la API de Ollama en localhost:11434 ya es accesible. Prueba esto desde la perspectiva de n8n creando un flujo de trabajo simple de solicitud HTTP:<\/p>\n\n\n\n<ol start=\"1\" class=\"wp-block-list\">\n<li>A\u00f1ade un nodo de activaci\u00f3n manual <\/li>\n\n\n\n<li>A\u00f1ade un nodo de prompt HTTP<\/li>\n\n\n\n<li>Establece el m\u00e9todo en POST <\/li>\n\n\n\n<li>URL: <a href=\"http:\/\/localhost:11434\/api\/generate\" target=\"_blank\" rel=\"noreferrer noopener nofollow\"><code>http:\/\/localhost:11434\/api\/generate<\/code><\/a> <\/li>\n\n\n\n<li>Cuerpo: JSON con modelo y prompt<\/li>\n\n\n\n<li>Ejecuta el flujo de trabajo <\/li>\n<\/ol>\n\n\n\n<p>Si la respuesta incluye texto generado, la conectividad funciona. Si falla, verifica que el servicio de Ollama est\u00e9 en ejecuci\u00f3n (<code>systemctl status ollama<\/code>) y escuchando en el puerto esperado.<\/p>\n\n\n\n<p>C\u00f3mo conectar Ollama a n8n se vuelve m\u00e1s f\u00e1cil con los nodos dedicados de Ollama de n8n. En lugar de crear prompts HTTP manualmente, puedes usar el nodo del modelo de chat de Ollama que maneja el formato de la API autom\u00e1ticamente.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-ejemplo-de-flujo-de-trabajo-automatizacion-de-tareas-con-n8n-y-ollama\">Ejemplo de flujo de trabajo: Automatizaci\u00f3n de tareas con n8n y Ollama <\/h2>\n\n\n\n<p>Construir un flujo de trabajo de n8n y Ollama se vuelve pr\u00e1ctico una vez que ambos servicios se comunican. Aqu\u00ed hay un ejemplo del mundo real: an\u00e1lisis de correo electr\u00f3nico automatizado y generaci\u00f3n de respuestas para soporte al cliente. <\/p>\n\n\n\n<p>La estructura del flujo de trabajo: <\/p>\n\n\n\n<ol start=\"1\" class=\"wp-block-list\">\n<li>El nodo de activaci\u00f3n de correo electr\u00f3nico observa una bandeja de entrada<\/li>\n\n\n\n<li>Extraer el contenido de nuevos correos electr\u00f3nicos<\/li>\n\n\n\n<li>Enviar el contenido del correo electr\u00f3nico a Ollama con un prompt<\/li>\n\n\n\n<li>Analizar la respuesta de Ollama <\/li>\n\n\n\n<li>Ruta hacia la acci\u00f3n apropiada <\/li>\n<\/ol>\n\n\n\n<p>En n8n, esto se ve as\u00ed: <\/p>\n\n\n\n<p><strong>Nodo de activaci\u00f3n:<\/strong> Activador de correo electr\u00f3nico (IMAP) <\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Configurar para observar <a href=\"mailto:soporte@suempresa.com\" target=\"_blank\" rel=\"noreferrer noopener\">soporte@suempresa.com<\/a> <\/li>\n\n\n\n<li>Activar en nuevos mensajes no le\u00eddos <\/li>\n<\/ul>\n\n\n\n<p><strong>Nodo del modelo de chat de Ollama:<\/strong> <\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Modelo: llama3.2 <\/li>\n\n\n\n<li>Prompt: \u00abAnaliza este correo electr\u00f3nico de atenci\u00f3n al cliente y genera una respuesta. Correo: {{$json.body}}\u00bb <\/li>\n\n\n\n<li>Temperatura: 0.7 para creatividad equilibrada <\/li>\n<\/ul>\n\n\n\n<p><strong>Nodo IF:<\/strong> Verificar el sentimiento de la respuesta <\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>\u00bfProblema complejo? Ruta a un humano. <\/li>\n\n\n\n<li>\u00bfSencillo? Preparar respuesta autom\u00e1tica. <\/li>\n<\/ul>\n\n\n\n<p><strong>Nodo de env\u00edo de correo:<\/strong> Enviar respuesta generada <\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Solo se ejecuta para casos sencillos <\/li>\n\n\n\n<li>Incluye un aviso de que la respuesta fue generada por IA <\/li>\n<\/ul>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"1871\" height=\"851\" src=\"https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/workflow-ollama-n8n_EN.webp\" alt=\"\" class=\"wp-image-26380\" srcset=\"https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/workflow-ollama-n8n_EN.webp 1871w, https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/workflow-ollama-n8n_EN-600x273.webp 600w, https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/workflow-ollama-n8n_EN-768x349.webp 768w, https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/workflow-ollama-n8n_EN-1536x699.webp 1536w\" sizes=\"auto, (max-width: 1871px) 100vw, 1871px\" \/><\/figure>\n\n\n\n<p>Este flujo de trabajo de n8n Ollama se ejecuta completamente en tu VPS. Los correos electr\u00f3nicos de los clientes nunca llegan a APIs externas. Las respuestas generadas permanecen locales hasta que las env\u00edes expl\u00edcitamente. Tu bandeja de entrada de soporte no se convierte en datos de entrenamiento para el modelo de otra persona.<\/p>\n\n\n\n<p>C\u00f3mo usar Ollama con n8n para estos flujos de trabajo implica pensar en prompts y par\u00e1metros. La temperatura controla la creatividad: valores m\u00e1s altos producen una salida m\u00e1s variada, valores m\u00e1s bajos producen resultados m\u00e1s deterministas. La longitud del contexto limita cu\u00e1nto texto puedes enviar por prompt. La elecci\u00f3n del modelo afecta tanto la capacidad como la velocidad.<\/p>\n\n\n\n<p>Los flujos de trabajo de moderaci\u00f3n de contenido tambi\u00e9n funcionan bien. Monitorear aplicaciones de chat y filtrar mensajes a trav\u00e9s de Ollama para detectar contenido problem\u00e1tico y marcar para revisi\u00f3n. Todo sucede localmente. Las comunicaciones sensibles no salen de tu infraestructura durante la moderaci\u00f3n, lo que importa si est\u00e1s tratando con discusiones de empleados o reclamos de clientes.<\/p>\n\n\n\n<p>La generaci\u00f3n de contenido en redes sociales es otra aplicaci\u00f3n pr\u00e1ctica. Programar desencadenadores, enviar prompts a Ollama basados en tu calendario de contenido, generar variantes de publicaciones y almacenar para revisi\u00f3n. Los equipos de marketing pueden generar opciones por lotes sin que los costos por token de la API afecten su presupuesto. <\/p>\n\n\n\n<p>Ejecutar Ollama autoalojado a trav\u00e9s de flujos de trabajo n8n elimina la facturaci\u00f3n basada en el uso del c\u00f3mputo. Experimenta libremente. Alterna los prompts decenas de veces. Procesar altos vol\u00famenes durante per\u00edodos pico. Tu costo se mantiene fijo en la tarifa de hosting VPS.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-preguntas-frecuentes-de-ollama\">Preguntas frecuentes de Ollama <\/h2>\n\n\n\n<p><strong>\u00bfC\u00f3mo instalar Ollama en Linux?<\/strong> <br>Ejecutar el script de instalaci\u00f3n: <code>curl -fsSL <a href=\"https:\/\/ollama.com\/install.sh\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">https:\/\/ollama.com\/install.sh<\/a> | sh<\/code>. Esto instala Ollama y comienza el servicio autom\u00e1ticamente en la mayor\u00eda de las distribuciones de Linux. Despu\u00e9s de la instalaci\u00f3n, verifica con <code>ollama --version<\/code>.<\/p>\n\n\n\n<p><strong>\u00bfC\u00f3mo ejecutar Ollama?<\/strong> <br>Despu\u00e9s de obtener un modelo con <code>ollama pull model-name<\/code>, in\u00edcialo con <code>ollama run model-name<\/code> para pruebas interactivas, o llama a la API en <a href=\"http:\/\/localhost:11434\/api\/generate\" target=\"_blank\" rel=\"noreferrer noopener nofollow\"><code>http:\/\/localhost:11434\/api\/generate<\/code><\/a> para acceso program\u00e1tico. El enfoque de API es lo que utilizan los flujos de trabajo de n8n.<\/p>\n\n\n\n<p><strong>\u00bfD\u00f3nde almacena Ollama los modelos?<\/strong> <br>Los modelos se almacenan en <code>~\/.ollama\/models\/<\/code> en sistemas Linux. Cada modelo ocupa varios gigabytes dependiendo de la cantidad de par\u00e1metros y quantizaci\u00f3n. Verifica este directorio si est\u00e1s administrando el espacio en disco o solucionando problemas de modelos faltantes.<\/p>\n\n\n\n<p><strong>\u00bfC\u00f3mo conectar Ollama a n8n?<\/strong> <br>Instala ambas herramientas en el mismo VPS. Ollama escucha en <code>localhost:11434<\/code> por defecto. En n8n, usa el nodo del modelo de chat de Ollama y config\u00faralo para apuntar a <a href=\"http:\/\/localhost:11434\" target=\"_blank\" rel=\"noreferrer noopener nofollow\"><code>http:\/\/localhost:11434<\/code><\/a>. Prueba la conectividad con un flujo de trabajo simple antes de construir automatizaciones complejas.<\/p>\n\n\n\n<p><strong>\u00bfC\u00f3mo usar Ollama con n8n?<\/strong> <br>Construye flujos de trabajo utilizando el editor visual de n8n. Agrega un nodo de modelo de chat de Ollama, configura tu modelo y prompt, luego con\u00e9ctalo a nodos desencadenadores (webhooks, horarios, observadores de archivos) y nodos de acci\u00f3n (enviar correo, actualizar base de datos, publicar en API). Los prompts pueden incluir variables de pasos de flujo de trabajo previos para contenido din\u00e1mico. <\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-conclusion\">Conclusi\u00f3n <\/h2>\n\n\n\n<p>Ollama hace que el despliegue local de LLM sea accesible para equipos que no tienen experiencia en infraestructura de aprendizaje autom\u00e1tico. Combinado con la automatizaci\u00f3n de flujos de trabajo de n8n, est\u00e1s construyendo sistemas impulsados por IA que se ejecutan completamente en tu propio hardware. <\/p>\n\n\n\n<p>Costes fijos. Datos que nunca salen de tu VPS. Modelos que controlas. Estos beneficios importan m\u00e1s que los puntos de referencia de rendimiento te\u00f3ricos o listas de caracter\u00edsticas en presentaciones de marketing. <\/p>\n\n\n\n<p>Los pros y los contras de Ollama se desglosan de manera predecible. Pros: previsibilidad de costes, privacidad de datos, simplificaci\u00f3n del cumplimiento, libertad para experimentar sin l\u00edmites de uso. Contras: gestionas la infraestructura, el rendimiento depende de tus elecciones de hardware, eres responsable de mantener los modelos actualizados. Para la mayor\u00eda de los equipos que se autoalojan en un VPS, esos compromisos favorecen el despliegue local. <\/p>\n\n\n\n<p>Ollama autoalojado emparejado con n8n crea flujos de trabajo que no filtran datos ni te sorprenden con facturas de API. La automatizaci\u00f3n de soporte al cliente, el an\u00e1lisis de documentos, la generaci\u00f3n de contenido y la revisi\u00f3n de c\u00f3digo suceden localmente, en servidores que ya est\u00e1s pagando. <\/p>\n\n\n\n<p>Los requisitos de un Ollama VPS son sencillos: CPU o GPU adecuada dependiendo de tus elecciones de modelo, suficiente RAM para tus modelos seleccionados y suficiente almacenamiento para los archivos de modelos. Como ya mencionamos, Contabo ofrece configuraciones adecuadas para estas cargas de trabajo, incluyendo opciones de GPU para equipos que ejecutan modelos m\u00e1s grandes a gran escala.<\/p>\n\n\n\n<p>Ejecutar ambas herramientas en el mismo VPS mantiene la latencia de red al m\u00ednimo y simplifica el despliegue. Ya sea que est\u00e9s procesando documentos propietarios, generando respuestas a clientes o construyendo copilotos de IA internos, la integraci\u00f3n de n8n y Ollama te da las piezas para construirlo sin dependencias externas o bloqueo de proveedores. <\/p>\n\n\n\n<p>La infraestructura est\u00e1 lista. Las herramientas son de c\u00f3digo abierto. Tus flujos de trabajo de IA pueden ejecutarse localmente, de manera privada, a costos predecibles. Comienza a integrar Ollama en tus automatizaciones y ve lo que es posible.<\/p>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Ollama hace que ejecutar grandes modelos de lenguaje localmente sea sencillo: sin APIs en la nube, sin facturaci\u00f3n por token, sin que los datos salgan de tu infraestructura. Combinado con la automatizaci\u00f3n de flujos de trabajo de n8n, puedes construir sistemas impulsados por IA que funcionen completamente en tu propio VPS con costos fijos y control total. Esta gu\u00eda cubre qu\u00e9 hace Ollama, c\u00f3mo implementarlo en un VPS y pasos pr\u00e1cticos para integrarlo con n8n para automatizar an\u00e1lisis de documentos, atenci\u00f3n al cliente, generaci\u00f3n de contenido y m\u00e1s.<\/p>\n","protected":false},"author":63,"featured_media":26379,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"inline_featured_image":false,"_uag_custom_page_level_css":"","site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"set","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"footnotes":""},"categories":[1988],"tags":[3580,3579,3571,3573,3570,3583,3581,3572,3567,3587,3574,3582,3591,3588,3586,3590,3593,3592,3589,3565,3594,3584,3585,3566,3568,3569,3578,3576,3575,3577],"ppma_author":[1492],"class_list":["post-27246","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-tutoriales","tag-como-conectar-ollama-a-n8n","tag-como-ejecutar-deepseek-con-ollama-en-un-vps","tag-como-ejecutar-ollama","tag-como-funciona-ollama","tag-como-instalar-ollama-en-linux","tag-como-integrar-ollama-con-n8n","tag-como-usar-ollama-con-n8n","tag-donde-almacena-ollama-los-modelos","tag-que-es-ollama","tag-automatizacion-de-flujos-de-trabajo-de-ia","tag-caracteristicas-de-ollama","tag-flujo-de-trabajo-de-n8n-y-ollama","tag-flujos-de-trabajo-de-n8n","tag-hosting-de-ia-en-vps","tag-hosting-de-llm-local","tag-ia-autoalojada","tag-ia-en-vps","tag-implementacion-de-llm","tag-infraestructura-de-ia-privada","tag-integracion-de-n8n-y-ollama","tag-llm-de-codigo-abierto","tag-nextcloud-autoalojado","tag-nextcloud-vps","tag-ollama","tag-ollama-autoalojado","tag-ollama-vps","tag-precios-de-ollama-en-la-nube","tag-rendimiento-de-ollama","tag-seguridad-de-ollama","tag-servicio-en-la-nube-de-ollama"],"uagb_featured_image_src":{"full":["https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/blog-head_-what-is-ollama.webp",1200,630,false],"thumbnail":["https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/blog-head_-what-is-ollama-150x150.webp",150,150,true],"medium":["https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/blog-head_-what-is-ollama-600x315.webp",600,315,true],"medium_large":["https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/blog-head_-what-is-ollama-768x403.webp",768,403,true],"large":["https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/blog-head_-what-is-ollama.webp",1200,630,false],"1536x1536":["https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/blog-head_-what-is-ollama.webp",1200,630,false],"2048x2048":["https:\/\/contabo.com\/blog\/wp-content\/uploads\/2025\/12\/blog-head_-what-is-ollama.webp",1200,630,false]},"uagb_author_info":{"display_name":"Christopher Carter","author_link":"https:\/\/contabo.com\/blog\/es\/author\/christophercarter\/"},"uagb_comment_info":0,"uagb_excerpt":"Ollama hace que ejecutar grandes modelos de lenguaje localmente sea sencillo: sin APIs en la nube, sin facturaci\u00f3n por token, sin que los datos salgan de tu infraestructura. Combinado con la automatizaci\u00f3n de flujos de trabajo de n8n, puedes construir sistemas impulsados por IA que funcionen completamente en tu propio VPS con costos fijos y&hellip;","authors":[{"term_id":1492,"user_id":63,"is_guest":0,"slug":"christophercarter","display_name":"Christopher Carter","avatar_url":"https:\/\/secure.gravatar.com\/avatar\/63db81672a5ce4c1e8ee39753d00251d561b5b3a9967febf1c4f662024cef00f?s=96&d=mm&r=g","0":null,"1":"","2":"","3":"","4":"","5":"","6":"","7":"","8":""}],"_links":{"self":[{"href":"https:\/\/contabo.com\/blog\/es\/wp-json\/wp\/v2\/posts\/27246","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/contabo.com\/blog\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/contabo.com\/blog\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/contabo.com\/blog\/es\/wp-json\/wp\/v2\/users\/63"}],"replies":[{"embeddable":true,"href":"https:\/\/contabo.com\/blog\/es\/wp-json\/wp\/v2\/comments?post=27246"}],"version-history":[{"count":9,"href":"https:\/\/contabo.com\/blog\/es\/wp-json\/wp\/v2\/posts\/27246\/revisions"}],"predecessor-version":[{"id":28360,"href":"https:\/\/contabo.com\/blog\/es\/wp-json\/wp\/v2\/posts\/27246\/revisions\/28360"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/contabo.com\/blog\/es\/wp-json\/wp\/v2\/media\/26379"}],"wp:attachment":[{"href":"https:\/\/contabo.com\/blog\/es\/wp-json\/wp\/v2\/media?parent=27246"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/contabo.com\/blog\/es\/wp-json\/wp\/v2\/categories?post=27246"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/contabo.com\/blog\/es\/wp-json\/wp\/v2\/tags?post=27246"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/contabo.com\/blog\/es\/wp-json\/wp\/v2\/ppma_author?post=27246"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}