Tecnología

Un vistazo a Nano Banana 2, el nuevo modelo de Google para crear imágenes con “IA ultrarrápida”

La herramienta ya está integrada en productos como Gemini, el Buscador y Google Cloud.

Loading...

Cubro historias de Tecnología, Arte y Cultura en la sección Tendencias. Fui editor en Semana, El País de Cali y Blu Radio. Me apasiona explorar cómo el mundo digital moldea nuestra sociedad.

hace 2 horas

La generación de imágenes con inteligencia artificial ya la usan a diario diseñadores, equipos de marketing, desarrolladores y creadores de contenido en todo el mundo.

Pensando en ese foco de mercado especializado, Google presentó Nano Banana 2, su nuevo sistema de generación de imágenes, con la promesa de “producir resultados visuales complejos en menos tiempo”.

Este lanzamiento solo es un escalón más dentro de la evolución acelerada de la IA generativa. En agosto del año pasado, Nano Banana ganó notoriedad por su capacidad de crear y editar imágenes a partir de instrucciones en lenguaje natural. Apenas meses después, Google presentó Nano Banana Pro, orientado a tareas que exigían mayor control creativo y precisión visual.

Ahora, Nano Banana 2 intenta ocupar un punto intermedio con velocidad de respuesta “extrema” y funciones que antes estaban reservadas al modelo Pro.

Este nuevo sistema, que también se identifica como “Gemini 3.1 Flash Image”, traslada la arquitectura de alta velocidad de Gemini Flash al terreno de lo visual. Es decir, el modelo está diseñado para iterar rápido al generar, corregir y volver a generar imágenes sin los tiempos de espera que suelen frenar flujos de trabajo creativos. Por eso, desde la compañía se apunta a un uso más operativo que experimental.

Otro de los elementos que Google destaca es la incorporación de conocimiento avanzado del mundo. Ahora Nano Banana no trabajará solo con patrones visuales entrenados previamente, sino que se apoya en la base de conocimiento del sistema Gemini sumado a información en tiempo real, incluyendo imágenes provenientes de búsquedas web. Esto le permite representar con mayor precisión objetos, contextos y conceptos específicos, no solo escenas genéricas.

Así, el usuario ahora podrá crear infografías, diagramas o visualizaciones de datos con la herramienta. En lugar de limitarse a generar imágenes estéticas, el modelo busca traducir información en representaciones visuales comprensibles, aunque se debe tomar con pinzas ese apartado pues es un terreno en el que la IA tiende a cometer errores de contexto o proporción.

Otro punto técnico clave es la generación y manejo de texto dentro de las imágenes.

Históricamente, la representación de texto legible ha sido uno de los grandes retos de los modelos generativos. En esta actualización, Google mejora ese aspecto al permitir texto más preciso pensando en maquetas de marketing, tarjetas, afiches o prototipos de diseño.

Además, ahora se incorporan funciones de traducción y localización directamente sobre la imagen, lo que facilita adaptar una misma pieza a distintos idiomas.

Coherencia visual

Más allá de la velocidad, Google insiste en que Nano Banana 2 mejora la coherencia visual. El modelo puede mantener la apariencia de hasta cinco personajes y la fidelidad de hasta catorce objetos dentro de un mismo flujo de trabajo.

Ese detalle técnico puede explotarse, por ejemplo, en construir narrativas visuales, como un cómic, sin que los elementos cambien de forma entre una imagen y otra.

El seguimiento de instrucciones también se volvió más estricto. Según la compañía, el modelo se adhiere con mayor precisión a solicitudes complejas y capta matices específicos del pedido del usuario.

En términos prácticos, esto reduce la cantidad de iteraciones necesarias para llegar al resultado esperado, un factor clave en entornos profesionales donde el tiempo es crítico.

Nano Banana 2 promete, además, controlar relaciones de aspecto y resoluciones que van desde 512 píxeles hasta 4K.

Integración en el ecosistema Google

Este lanzamiento de Nano Banana 2 no llega de manera aislada, pues Google ya lo integró de forma transversal en varios de sus productos.

Para empezar, en la app Gemini, el nuevo modelo reemplaza a Nano Banana Pro dentro de los modos Fast, Thinking y Pro. Los usuarios con suscripciones Google AI Pro y Ultra conservan el acceso a Nano Banana Pro para tareas que requieren mayor precisión factual, pudiendo alternar entre modelos.

El sistema también está disponible en el Buscador de toda la vida, tanto en el modo de inteligencia artificial como en el modo Lens, desde la app de Google y navegadores móviles.

La compañía informó que la función se habilitó en 141 nuevos países y territorios, con soporte para ocho idiomas adicionales, ampliando su alcance global.

Para desarrolladores, Nano Banana 2 se ofrece en vista previa a través de AI Studio y la API de Gemini, y también puede usarse desde Google Cloud mediante Vertex AI.

En Flow, una de las plataformas creativas internas de Google, el modelo se convirtió en el generador de imágenes predeterminado y está disponible sin consumo de créditos. Además, Nano Banana ya alimenta sugerencias visuales dentro de Google Ads al crear campañas.

Lea también: Startup paisa crea anuncios con IA en 56 segundos y revoluciona la publicidad digital, ¿cómo lo hace?

Un debate abierto

El vertiginoso avance de la tecnología que hace posible este tipo de generación de imágenes vuelve a poner sobre la mesa la discusión ética de cómo identificar el contenido creado con IA y bajo qué condiciones.

Para ello, Google integró en Nano Banana 2 un sistema llamado SynthID de marcas invisibles, que permite detectar si una imagen fue generada por inteligencia artificial.

A esto se suman credenciales C2PA, un estándar interoperable que aporta contexto sobre el origen del contenido.

Desde noviembre, la función de verificación SynthID dentro de la app Gemini se ha utilizado más de 20 millones de veces, según datos de la empresa. El objetivo, sostiene Google, es ofrecer a los usuarios herramientas para entender no solo si un contenido fue generado con IA, sino cómo y en qué entorno.