📖 Ruta: Ruta para líderes técnicos Paso 6 de 8

El texto ya no es la única vía de entrada

A lo largo de todo el corpus AI100 hemos hablado de la visibilidad en el contexto de las consultas textuales: el usuario escribe una pregunta, el modelo formula una respuesta. Pero el mundo de la búsqueda hace tiempo que no se reduce a teclear palabras en un teclado. El usuario fotografía un producto en una tienda y pregunta: «¿cuánto cuesta esto en línea?». Dice en voz alta: «¿qué modelo es este?», mientras apunta la cámara hacia unos auriculares. Sube una captura de pantalla de Instagram y pide: «encuentra algo parecido, pero más barato». Graba un video y añade una pregunta de texto: «¿de qué material está hecho esto?»

Estos no son escenarios exóticos. Google Lens procesa más de 20 mil millones de consultas visuales al mes, y el 20% de ellas está relacionado con compras [1]. AI Mode está integrado con Google Lens: el usuario puede tomar una foto o cargar una imagen, y el sistema, aprovechando las capacidades multimodales de Gemini, analiza toda la escena —los objetos, su contexto, los materiales, los colores, las formas— y formula una respuesta integral [2]. ChatGPT con GPT-4o procesa imágenes, voz y texto simultáneamente. El 27% de los usuarios móviles ya utiliza la búsqueda por voz [3].

Para la marca, esto significa que la optimización textual es una condición necesaria, pero ya no suficiente para la visibilidad. Si su producto no puede reconocerse en una fotografía, si un video en YouTube no tiene transcripción, si el asistente de voz no puede vincular el nombre pronunciado de la empresa con la entidad correcta, pierde a la audiencia que busca no con palabras.

Cómo la búsqueda visual cambia las reglas

La búsqueda visual funciona de una manera radicalmente distinta de la textual. El usuario no describe lo que busca: lo muestra. Las redes neuronales convolucionales (CNN) transforman la imagen en un vector numérico y la comparan con la base de imágenes indexadas [4]. Esto significa que la calidad, la consistencia y la accesibilidad técnica de las imágenes del sitio influyen directamente en si su producto será encontrado.

Para el e-commerce, las consecuencias son las más evidentes. El comprador ve un vestido en la calle, lo fotografía y Google Lens le muestra en tres segundos productos similares con precios de distintas tiendas online. Si las imágenes de sus productos son de baja calidad, sin textos alt descriptivos, sin Product schema y sin un estilo fotográfico unificado, no entrarán en esa selección. Un competidor con fotos limpias y bien etiquetadas, sí.

La consistencia visual entre plataformas también se convierte en un factor. Google Lens reconoce mejor a las marcas que utilizan el mismo estilo fotográfico en su sitio, en los marketplaces y en las redes sociales. Un repertorio visual heterogéneo dificulta la vinculación con la entidad [5].

Búsqueda por voz y consultas largas

Las consultas por voz se diferencian de las textuales no solo por la modalidad, sino también por su estructura. Una persona que habla en voz alta utiliza frases naturales: «¿Cuál es el mejor café cerca de mí que esté abierto ahora?» en lugar de «café cerca abierto». Las consultas en AI Mode son, en promedio, tres veces más largas que las consultas de búsqueda habituales [6]. Esto significa que el contenido optimizado para frases clave cortas puede no coincidir con la forma en que la gente formula sus consultas por voz.

Para la marca, la consecuencia práctica es clara: las secciones de FAQ escritas en formato «pregunta — respuesta directa» funcionan mejor para la búsqueda por voz que los textos largos de marketing. Los datos estructurados (FAQ schema, HowTo schema) ayudan a los asistentes de voz a extraer una respuesta concreta. El nombre de la marca debe ser pronunciable y unívoco: un modelo que no puede vincular el nombre pronunciado «Exco-Data» con la entidad «ExcoData» perderá la marca en una consulta por voz.

Video y transcripciones

Los sistemas de respuestas utilizan cada vez más contenido en video. Las transcripciones de videos de YouTube se convierten en una fuente de citación: si en su video un experto explica en detalle cómo funciona el producto y la transcripción está disponible, el modelo puede extraer de allí un fragmento para su respuesta. Si no hay transcripción, el video permanece invisible para la parte textual del sistema de respuestas.

Google indica explícitamente que AI Mode utiliza análisis multimodal: el sistema trabaja simultáneamente con texto, imágenes, video y contexto [2]. Para una marca que publica videos formativos, reseñas o demostraciones de producto, una transcripción limpia y precisa no es una opción, sino una condición para la detección.

Qué hacer ya mismo

La optimización multimodal no requiere una revolución. Exige ampliar el trabajo habitual hacia nuevos formatos.

Imágenes: alta calidad, nombres de archivo descriptivos y textos alt, Product schema vinculado a productos concretos, un estilo fotográfico unificado en todas las plataformas.

Voz: secciones de FAQ en formato pregunta-respuesta, HowTo schema para instrucciones, nombre de marca pronunciable y unívoco.

Video: transcripciones para cada pieza en YouTube y en el sitio, VideoObject schema, títulos y metadatos descriptivos.

Capa general: el mismo principio que en la visibilidad textual —datos estructurados, legibilidad de máquina, confirmaciones externas—. La multimodalidad no anula estas bases; añade nuevos canales de entrada.

Qué parece bien establecido

La búsqueda visual ya procesa decenas de miles de millones de consultas al mes. AI Mode integra entrada multimodal (foto + texto + voz). Las transcripciones de video se utilizan como fuente de citación. Las consultas por voz son más largas y más conversacionales que las textuales.

Dónde persiste la incertidumbre

La cuota exacta de respuestas de IA iniciadas mediante entrada visual o por voz sigue estando poco medida fuera de Google Lens. El efecto de la optimización multimodal sobre la citación de la marca en distintas plataformas se ha estudiado de forma fragmentaria.

Qué cambia esto en la práctica

La marca necesita optimizar no solo el texto, sino también las imágenes, el video y la detectabilidad por voz. Las acciones básicas (textos alt, transcripciones, FAQ schema) son simples y pueden empezar a aplicarse ya mismo.

Fuentes

[1] Google / DemandSage. Google Lens: 20 billion visual searches per month, 20% shopping-related. 2025
[2] 9to5Google / Google I/O. Google AI Mode adding multimodal Google Lens search. 2025
[3] Google / Lumar. 27% of global mobile users use voice search. 2025
[4] Xictron / Pinecone. Visual search technology: CNN embeddings and vector matching. 2026
[5] SE Blog. Multimodal Search Optimization: visual consistency and entity recognition. 2026
[6] ALM Corp. Google AI Mode queries average nearly 3x longer than traditional search. 2026

Materiales relacionados

Artículo de investigación 7 min

Infraestructura comercial legible por máquina: marcado, feeds de datos de producto y catálogos como lenguaje comprensible para la IA

La capa de datos y marcado que hace que la marca y sus productos sean comprensibles para las máquinas: catálogos, feeds de productos, descripciones estructuradas y su sincronización.

Abrir material →
Texto fundamental 7 min

SEO y visibilidad en IA: qué se traslada, qué no y dónde la optimización habitual puede perjudicar

Qué del SEO clásico se transfiere al entorno de respuesta IA, qué deja de funcionar y qué nuevos requisitos surgen.

Abrir material →
Guía 8 min

Mapa práctico de acciones: cómo reforzar la distinguibilidad de máquina de la marca

Seis pasos secuenciales para mejorar la visibilidad en IA: desde la verificación de identidad, pasando por la reconfiguración del lenguaje y el contorno de confianza, hasta la observación.

Abrir material →
Artículo de investigación 7 min

Desfase de actualización: con qué rapidez los sistemas de respuestas modifican la representación de una empresa tras una noticia, el lanzamiento de un producto o un cambio de precio

Por qué transcurre un tiempo entre el cambio de un hecho sobre la marca y su aparición estable en las respuestas de la máquina — y cómo observar este desfase en la práctica.

Abrir material →
Siguiente paso

Cómo se relaciona esto con AI100 en la práctica

Si necesita no una visión general sino un diagnóstico específico para su marca, AI100 permite verificar cómo el modelo ve la empresa en escenarios neutrales de elección, qué competidores se posicionan más arriba y qué mejoras tienen mayor probabilidad de aumentar la visibilidad.

Ver informe de muestra