Cursor 2.4: Genera Mockups e Imágenes sin Salir del IDE
TL;DR
\nCursor 2.4 (enero de 2026) integra generación de imágenes directamente en el agente del editor. Puedes crear mockups, placeholders e iconos escribiendo un prompt en el chat, sin abrir Figma ni pegar manualmente en DALL·E. Guarda los resultados en ~/.cursor/projects/<project>/assets/ y los referencia automáticamente en tu código.
- \n
- Qué es: una herramienta nativa del agente que genera imágenes con modelos de terceros (OpenAI, Google) sin cambiar de aplicación. \n
- Para quién: frontends que iteran UI rápida y backends que necesitan assets dummy sin depender de diseño. \n
- Coste real: entre 0,005 y 0,12 € por imagen según modelo y resolución. \n
El problema: el salto constante entre IDE y generadores
\nMontar un prototipo frontend suele implicar abrir cuatro pestañas: el editor, Figma, un generador tipo DALL·E y el navegador para validar. Cada iteración de un placeholder o un mockup rompe el flujo y consume minutos multiplicados por cada cambio de estado, tamaño o variante.
\nEn proyectos pequeños o MVPs rara vez hay un diseñador dedicado. El desarrollador termina usando imágenes de stock, SVGs genéricos o directamente cuadros grises con background: #ccc. El resultado: prototipos difíciles de evaluar con cliente o product owner porque no transmiten la idea visual real.
¿Qué es Image Generation en Cursor 2.4?
\nImage Generation en Cursor 2.4 es una capacidad del agente que traduce un prompt en imágenes usando modelos externos y deja el archivo resultante en el workspace del proyecto. No es un modelo propio de Cursor: actúa como pasarela hacia OpenAI GPT Image, Google Gemini Image o similares, con el agente gestionando almacenamiento y referencias en el código.
\nLa diferencia con pegar URLs de DALL·E es que el agente entiende el contexto del repo: sabe qué componente React está editando, qué proporción necesita un <img> concreto y dónde guardar el asset para que el import funcione sin tocar nada más.
Activar la generación de imágenes paso a paso
\n- \n
- Actualiza Cursor a 2.4 o superior desde Help → Check for Updates. La función no está retrocompatible con la 2.3. \n
- Abre Settings → Models y busca \"image\". Activa al menos un proveedor (OpenAI o Google). Necesitas un plan Pro o haber configurado tu propia API key. \n
- Verifica que tu proyecto tenga un directorio de destino. Cursor usa por defecto
~/.cursor/projects/<project>/assets/, pero puedes forzar otra ruta (por ejemplopublic/assets/en un proyecto Next.js). \n - Invoca al agente con un prompt explícito. Ejemplo: \"genera un mockup de banner hero 1920x600 para una landing de fintech en tonos azul marino, estilo ilustración plana\". \n
- Revisa el resultado en el chat. El agente muestra la imagen, la ruta y, si lo pides, escribe el JSX/HTML que la referencia. \n
Casos de uso reales
\nDespués de probarlo durante un par de semanas en proyectos propios, estos son los escenarios donde aporta valor tangible frente a la alternativa manual.
\n\nPlaceholders para tests E2E
\nLos tests de Playwright o Cypress suelen cargar imágenes de ejemplo. Pedirle al agente \"genera 6 avatares de perfil estilo flat, 256x256\" produce assets consistentes entre ejecuciones y evita depender de servicios externos tipo picsum.photos que pueden caer en CI.
Mockups rápidos para client review
\nUn mockup de dashboard completo tardaría 2-3 horas en Figma. Con Cursor, un prompt detallado devuelve una imagen de referencia en segundos. No sustituye al diseño final, pero sí sirve para validar dirección visual con stakeholders antes de invertir horas de diseño real.
\n\nIconos específicos cuando Lucide o Heroicons no tienen lo que buscas
\nLas librerías estándar cubren el 90% de casos comunes. Para el 10% restante (un icono de un sector muy específico, un logo sintético para demo), generar y luego trazarlo como SVG manualmente es más rápido que encargar el diseño.
\n\nOpen graph images dinámicas
\nLos posts de blog necesitan imagen OG. En lugar de montar un template con Canva, el prompt \"imagen OG 1200x630 para artículo técnico sobre Kubernetes, estilo minimalista\" da un primer borrador utilizable, luego refinado con herramientas como los subagentes de Cursor si necesitas procesarlas en lote.
\n\nEn Producción
\nLa demo funciona bonito. El escenario real tiene matices que importan si planeas usar esto más allá de experimentar.
\n\nCostes reales por imagen
\n| Modelo | Precio por imagen | Resolución típica | Cuándo usarlo |
|---|---|---|---|
| GPT Image 1 Mini (Low) | ~0,005 € | 1024x1024 | Placeholders masivos, tests |
| GPT Image 1 (Medium) | ~0,042 € | 1024x1024 | Mockups iterativos |
| DALL·E 3 Standard | ~0,037 € | 1024x1024 | Estilo ilustración consistente |
| Nano Banana Pro | ~0,12 € | Hasta 4K | Assets de marketing final |
Para uso ocasional (10-20 imágenes al día en desarrollo), el gasto mensual ronda 5-15 € al mes. Si automatizas generación masiva en un pipeline, los números escalan rápido y conviene cachear.
\n\nLicencias y uso comercial
\nOpenAI y Google permiten uso comercial de las imágenes generadas, pero con restricciones sobre rostros de personas reales, marcas registradas y contenido sensible. Antes de usar un asset generado en producción, lee los términos específicos del proveedor que estés pagando. En entorno enterprise, tu departamento legal probablemente querrá una revisión previa.
\n\nReproducibilidad
\nLa generación es no determinista. El mismo prompt dos veces produce imágenes distintas. Si tu CI necesita imágenes estables (por ejemplo, para snapshot testing visual), commitea el resultado al repo y no regeneres en cada build. Esta consideración es similar a la que ya mencionamos en el artículo sobre optimizar tokens en AI coding: cachea todo lo que no cambie.
\n\nAlmacenamiento y versionado
\nEl path por defecto ~/.cursor/projects/<project>/assets/ es externo al repo Git. Si quieres versionarlas, muévelas a una carpeta dentro del proyecto (public/assets/ en Next.js, src/assets/ en Angular) y configura Cursor para usar esa ruta. Las imágenes pueden pesar varios MB, así que evalúa Git LFS si generas muchas.
Errores Comunes y Depuración
\nEstos son los tropiezos reales reportados en el foro oficial de Cursor tras el lanzamiento.
\n\nError: \"Image Generation Connection Error\" al pedir una imagen → Causa: estás en \"quick chat\" sin un proyecto abierto → Solución: abre un proyecto antes de invocar al agente. La generación requiere contexto de workspace para decidir dónde guardar.
\n\nError: los modelos de imagen no aparecen en Settings → Models → Causa: plan Free sin API key configurada → Solución: añade tu API key de OpenAI o Google en Settings → API Keys. En plan Free sin key, la función está restringida.
\n\nError: el agente gasta tokens pero no genera imagen → Causa: prompts ambiguos que el modelo interpreta como petición de código, no de imagen → Solución: usa verbos explícitos (\"genera una imagen\", \"crea un mockup visual\") y especifica formato/tamaño. Aplica lo que ya comentamos en evitar context drift en Claude Code: cuanto más específico el prompt, menor el desperdicio.
\n\nError: imagen generada pero no aparece en el explorador de archivos → Causa: Cursor guarda en el directorio de proyecto de usuario, no en el repo → Solución: revisa ~/.cursor/projects/<nombre-proyecto>/assets/ o fuerza la ruta en el prompt (\"guárdalo en public/images/\").
¿Cuándo NO usar Image Generation en Cursor?
\nTan importante como los casos de uso son los escenarios donde es mejor seguir con el flujo clásico.
\n- \n
- Diseño final de producto: los modelos generativos aún tienen inconsistencias de estilo. Para un hero de landing que verán miles de usuarios, un diseñador humano sigue ganando. \n
- Proyectos con branding estricto: si tu empresa tiene un design system detallado, generar ad-hoc rompe la coherencia visual. \n
- Imágenes con texto legible: todos los modelos fallan con frecuencia renderizando texto. Si necesitas que aparezca un nombre de producto legible, usa un editor gráfico. \n
- Repos con equipos grandes: sin convenciones claras, cada dev genera con prompts distintos y se rompe la consistencia. Aquí definir una skill reutilizable para generación de imágenes soluciona el problema. \n
Alternativas si no usas Cursor
\nSi tu IDE principal no es Cursor, existen rutas equivalentes. En Claude Code puedes llamar a la API de imágenes vía MCP server o una skill personalizada. En VS Code hay extensiones que hacen lo mismo con Copilot. La comparativa entre ambos mundos la cubrimos en el análisis sobre VS Code Agents frente a Cursor 3.
\n\nPreguntas Frecuentes
\n\n¿Image Generation en Cursor funciona sin conexión a internet?
\nNo. Cursor delega la generación a APIs externas (OpenAI, Google), por lo que requiere conexión. Existen opciones locales con Stable Diffusion vía MCP server, pero no están integradas nativamente en el agente y requieren configuración manual.
\n\n¿Puedo editar imágenes existentes o solo generar desde cero?
\nCursor 2.4 soporta edición básica vía prompts tipo \"modifica esta imagen para que sea modo oscuro\". La calidad del resultado depende del modelo subyacente. GPT Image 1 maneja mejor ediciones puntuales que la generación desde cero en algunos casos.
\n\n¿Las imágenes generadas se suben a servidores de Cursor?
\nSolo los prompts viajan a la API del proveedor (OpenAI o Google). La imagen resultante se descarga directamente a tu máquina local. Cursor no almacena copias en sus servidores según su documentación de privacidad de abril de 2026, pero el proveedor sí puede retener prompts para mejora de modelo salvo opt-out explícito.
\n\nCierre
\nLa generación de imágenes dentro del IDE no reemplaza al diseñador ni convierte a un backend en frontend. Sí elimina fricción en tareas intermedias donde el coste de abrir Figma supera al valor del resultado: placeholders, mockups de validación, assets para tests. La clave está en usarlo como herramienta de aceleración del ciclo de feedback, no como sustituto de diseño profesional.
\nSi ya usas Cursor 2.4, merece la pena dedicar diez minutos a probarlo con un caso real de tu proyecto actual. El ahorro por iteración es pequeño, pero se acumula rápido en proyectos con muchos assets de UI.
\n¿Has probado la generación de imágenes dentro de tu IDE o prefieres el flujo clásico con herramientas dedicadas? Cuéntamelo en Twitter @sergiomarquezp_. En el próximo post vamos a ver cómo encadenar esto con un subagent para generar variantes A/B automáticamente.
","contentShort":"Cursor 2.4 integra generación de imágenes directamente en el agente del editor. Guía práctica con casos reales (mockups, placeholders, iconos), costes por modelo en euros, errores comunes del foro oficial y cuándo merece la pena frente a Figma.","contentResume":"Guía práctica de Image Generation en Cursor 2.4: mockups, placeholders e iconos desde el IDE. Costes, errores comunes y cuándo usarlo.","urlSlug":"cursor-2-4-generar-imagenes-mockups-ide","tags":["cursor-2-4","image-generation","ai-mockups","vibe-coding","frontend-workflow","cursor-agent"],"seoTitle":"Cursor 2.4: Generar Imágenes y Mockups desde el IDE","metaDescription":"Aprende a generar imágenes y mockups desde Cursor 2.4 con su agente integrado. Guía con casos reales, costes, errores comunes y alternativas en 2026.","readTimeMinutes":8,"suggestedAngleType":"demo_resultado","faqQA":[{"q":"¿Image Generation en Cursor funciona sin conexión a internet?","a":"No. Cursor delega la generación a APIs externas como OpenAI o Google, por lo que requiere conexión. Hay opciones locales con Stable Diffusion vía MCP server, pero no están integradas nativamente."},{"q":"¿Puedo editar imágenes existentes o solo generar desde cero?","a":"Cursor 2.4 soporta edición básica vía prompts tipo 'modifica esta imagen para modo oscuro'. La calidad depende del modelo subyacente, y GPT Image 1 maneja mejor ediciones puntuales que generación nueva."},{"q":"¿Cuánto cuesta generar imágenes en Cursor 2.4?","a":"Entre 0,005 € (GPT Image 1 Mini Low) y 0,12 € (Nano Banana Pro 4K) por imagen. Para uso ocasional en desarrollo, el gasto mensual ronda los 5-15 €."}]}