La ilusión de una visibilidad única en IA

El responsable de marketing de una empresa SaaS decide comprobar cómo describe la IA su producto. Abre ChatGPT, escribe «¿Qué herramienta de analítica le conviene a una tienda online mediana?» — y recibe una respuesta alentadora: la marca figura entre las tres primeras, la descripción se ajusta a la realidad, la categoría es correcta. Cinco minutos después, la misma pregunta se envía a Google AI Mode. El panorama cambia: la empresa aparece, pero en quinta posición, descrita como «una solución empresarial con una barrera de entrada alta», y en el podio figuran dos competidores que el responsable consideraba de nicho. Perplexity ofrece una tercera versión: la marca no aparece en absoluto; en su lugar surge un agregador del que el responsable nunca había oído hablar. Una pregunta — tres sistemas — tres mercados diferentes. Y ninguna de las tres imágenes es «correcta» en sentido absoluto. Cada una está ensamblada a partir de sus propias fuentes, con sus propias reglas de selección y con su propia visión de lo que merece ser mencionado.

En la primavera de 2026, los investigadores del estudio Answer Bubbles confirmaron esta observación a gran escala: 11 000 consultas reales en varios sistemas mostraron que no se trata simplemente de diferencias en la calidad de las respuestas, sino de realidades informativas estructuralmente distintas [1]. Las mismas consultas conducían a conjuntos de fuentes diferentes, a tonos de confianza diferentes y a niveles de visibilidad diferentes para distintos tipos de documentos. Además, tras activar la búsqueda, los sistemas comenzaban a sonar más seguros al tiempo que reforzaban sus propios sesgos en la selección de fuentes [1]. Las diferencias aquí no son cuestiones de matiz estilístico. Son diferencias en el diseño de la ventana misma a través de la cual el usuario ve el mercado. Las divergencias, sin embargo, no se detienen en los límites de las plataformas: basta cambiar el idioma de la consulta para que la misma marca, en el mismo sistema, se vea de forma completamente distinta. Esa dimensión lingüística y geográfica se explora en un material aparte.

De qué se compone la «burbuja de respuestas»

¿Por qué ocurre esto? La primera razón es la diferencia entre infraestructuras de búsqueda y de extracción. Google explica de forma explícita que AI Overviews y AI Mode utilizan una descomposición en abanico de la consulta por subtemas y fuentes de datos —lo que la propia compañía llama query fan-out— y pueden mostrar un conjunto más amplio de enlaces de respaldo que la búsqueda clásica [2]. Pero Google también aclara que AI Mode y AI Overviews pueden utilizar modelos y técnicas distintos, y que, por tanto, el conjunto de respuestas y enlaces variará incluso dentro de un mismo ecosistema [2]. Es un matiz importante. La diferencia entre sistemas no pasa solo por la frontera de «Google frente a todos los demás», sino también dentro de cada plataforma, entre distintos modos de respuesta.

La segunda razón es la diferencia en la memoria paramétrica de los modelos, es decir, en el conocimiento que fue asimilado antes de la consulta concreta. El trabajo Navigating the Shift subraya que la divergencia entre la búsqueda tradicional y las respuestas generativas está determinada no solo por la extracción web actual, sino también por el preentrenamiento del modelo, que sigue moldeando la lógica de selección e interpretación de las fuentes [3]. Para la marca, esto significa algo incómodo, pero esclarecedor: su presencia en internet todavía no garantiza que todos los sistemas lean esa presencia de la misma manera. Un sistema se apoya más en la búsqueda viva y en documentos recientes; otro, en patrones de categoría asimilados de antemano; un tercero, en una mezcla de ambos.

La tercera razón son las distintas preferencias de fuentes. Answer Bubbles muestra que en los resúmenes generativos aparecen con una frecuencia desproporcionada Wikipedia y los textos más largos, mientras que las fuentes sociales y con sesgo negativo, por el contrario, quedan subrepresentadas [1]. El trabajo The Rise of AI Search añade otra capa a este cuadro: la búsqueda con IA saca a la superficie, en promedio, menos «cola larga» de la web, remite con más frecuencia a los sitios de mayor tamaño y, en general, ofrece una menor variabilidad de respuestas que la búsqueda clásica [4]. Para el mercado, esto significa que los distintos sistemas no solo encuentran documentos distintos. También resuelven de manera diferente la cuestión de qué tipo de fuente merece siquiera convertirse en parte de la versión pública de la realidad.

La cuarta razón son las distintas decisiones de interfaz y de política. En el ya mencionado trabajo The Rise of AI Search, los autores muestran que la propia aparición de una respuesta de IA depende del tipo de consulta: las preguntas reciben resúmenes de respuesta con mucha más frecuencia que las formulaciones de navegación [4]. Esto puede parecer un detalle menor, pero para la marca las consecuencias son enormes. Una empresa puede ser muy visible en el modo de consulta directa por nombre y casi desaparecer en el modo de pregunta sobre la categoría, donde la decisión se toma antes y sin intención explícita de visitar el sitio de la marca. En la práctica, esto significa que los distintos sistemas no solo responden de forma diferente a una misma pregunta, sino que también deciden de forma diferente si la propia pregunta merece una respuesta generativa.

La quinta razón es la diferencia en los criterios de confianza en la fuente. En Search Arena se observa que los usuarios prefieren con más frecuencia las respuestas con un mayor número de citas, y que el tipo de fuentes citadas también influye en esa preferencia [5]. En SourceBench se subraya que la calidad de las fuentes determina directamente la fiabilidad de la respuesta [6]. Pero la cuestión de qué fuentes deben considerarse de calidad la resuelve cada sistema a su manera. Para uno, importan más los grandes nodos de referencia; para otro, las plataformas tecnológicas y comunitarias; para un tercero, los documentos oficiales o los catálogos comerciales. Por eso, una marca puede ganar en un entorno gracias a una documentación sólida y perder en otro, donde la capa decisiva es la de las reseñas independientes.

Por qué una instantánea aislada es casi inútil

El efecto práctico de estas diferencias se aprecia bien en ejemplos del trabajo cotidiano. Supongamos que una empresa vende un servicio complejo de analítica para comercio electrónico. En una interfaz de respuestas puede presentarse como una «solución para tiendas medianas y grandes» porque el sistema se apoyó en el sitio oficial, en una reseña sectorial y en varios artículos comparativos extensos. En otra interfaz, la misma marca aparecerá como un «producto corporativo caro», porque el modelo recuperó un conjunto de publicaciones externas sobre grandes implantaciones e ignoró el segmento de la pequeña empresa. En una tercera respuesta, desaparecerá por completo, cediendo su lugar a servicios más simples, si la pregunta del usuario se formuló como «con qué empezar rápido y sin una implantación larga». Y en los tres casos no se tratará de una falsedad en el sentido estricto, sino de distintos regímenes de selección, acentuación y generalización.

De aquí se desprende una conclusión metodológica muy importante: una instantánea aislada de la visibilidad es casi inútil. Si la marca se comprobó una sola vez, en un solo sistema, con una sola consulta y en un solo idioma, no midió el mercado: midió el azar. Para entender la situación real, hay que evaluar no solo el resultado medio, sino también la dispersión. ¿Cuántas versiones distintas de la marca surgen en diferentes sistemas? ¿Con qué estabilidad se repiten las propiedades clave? ¿Cómo cambia el conjunto de citas al cambiar la formulación? ¿Aparece la marca en respuestas sobre la categoría sin una mención directa de su nombre? Estas son las preguntas que realmente muestran la posición de la empresa en el entorno de respuestas.

Para la futura base de ai100, aquí casi se impone un esquema natural de observación. Para cada consulta investigada conviene conservar no solo el hecho de la respuesta, sino también el sistema, el modo de respuesta, la fecha, el idioma, el tipo de intención, el conjunto de citas, el tono predominante, el lugar de la marca en la composición de la respuesta y el número de alternativas que se introdujeron automáticamente en la comparación. Entonces la «burbuja de respuestas» dejará de ser una metáfora y se convertirá en una magnitud medible: será posible ver hasta qué punto la marca resiste el cambio de mediador y dónde comienza exactamente la divergencia.

Cómo construir una observación entre sistemas

Hay también una conclusión empresarial más profunda. Si distintos sistemas construyen distintas versiones de la marca, la tarea estratégica de la empresa no es alcanzar una uniformidad absoluta, que en principio es inalcanzable, sino reducir la dispersión caótica y aumentar la cuota de interpretaciones deseables. Esto no se logra con trucos mágicos de «optimización para IA», sino con disciplina del conocimiento: formulaciones coherentes en los propios recursos, confirmaciones externas sólidas, una capa de datos legible por máquina y comprensible, una categorización precisa del producto y atención a aquellos tipos de preguntas en los que la marca hoy desaparece.

En cierto sentido, la «burbuja de respuestas» es una nueva forma de fragmentación del mercado. Antes, las empresas luchaban por un lugar en la página de resultados. Ahora también luchan por la estabilidad de su entidad al pasar de un motor de respuestas a otro. Por eso, una marca madura en 2026 no debería preguntar simplemente «¿qué dice la IA sobre nosotros?», sino «¿qué versiones de nosotros existen en distintos mundos de respuestas y cuál de ellas vence con mayor frecuencia a las demás?». Solo después de esa pregunta comienza un trabajo verdaderamente moderno sobre la visibilidad.

Qué parece bien establecido

Está bien confirmado que los distintos sistemas difieren por su infraestructura de búsqueda, sus preferencias de fuentes, sus decisiones de interfaz y su estilo de síntesis. Por eso, una misma marca recibe versiones de máquina distintas.

Dónde persiste la incertidumbre

La contribución exacta de cada mecanismo —memoria paramétrica, extracción, política de presentación, interfaz— a la divergencia de una respuesta concreta suele permanecer oculta para la observación externa.

Qué cambia esto en la práctica

De aquí se desprende una regla directa: una comprobación en un solo sistema y con una sola formulación casi no dice nada sobre la posición real de la marca. Hace falta una serie de ejecuciones, idiomas y plataformas.

Fuentes

[1] Huang M. et al. Answer Bubbles: Information Exposure in AI-Mediated Search. 2026
[2] Google Search Central. AI Features and Your Website. 2025-2026
[3] Chen M. et al. Navigating the Shift: A Comparative Analysis of Web Search and Generative AI Response Generation. 2026
[4] Ovadya A. et al. The Rise of AI Search: Implications for Information Markets and Human Judgement at Scale. 2026
[5] Search Arena: Analyzing Search-Augmented LLMs. 2025
[6] Zhang Y. et al. SourceBench: Can AI Answers Reference Quality Web Sources? 2026

Materiales relacionados

Artículo de investigación 8 min

Mención, citación e influencia: tres niveles de presencia de la marca en las respuestas de IA

Tres niveles de presencia de marca en respuestas de IA — mención, citación e influencia — y por qué una sola métrica no basta para el diagnóstico.

Abrir material →
Artículo de investigación 7 min

Desfase de actualización: con qué rapidez los sistemas de respuestas modifican la representación de una empresa tras una noticia, el lanzamiento de un producto o un cambio de precio

Por qué transcurre un tiempo entre el cambio de un hecho sobre la marca y su aparición estable en las respuestas de la máquina — y cómo observar este desfase en la práctica.

Abrir material →
Artículo de investigación 7 min

Sustitución de categoría: cómo una marca pierde no solo frente a un competidor, sino también frente a un marco de elección ajeno

Cómo una marca puede perder no ante un competidor sino ante un marco de elección diferente: la IA desplaza la tarea del usuario a otra categoría y reúne un conjunto diferente de alternativas.

Abrir material →
Nota de campo 7 min

Campo lingüístico de visibilidad: por qué una misma marca vive en distintos mundos competitivos

Cuando lanzamos la misma marca en cinco idiomas, esperábamos ver ruido: pequeñas oscilaciones en la puntuación. En cambio, descubrimos que al cambiar de idioma no cambia la puntuación de la marca, sino todo el mercado que la rodea.

Abrir material →
Siguiente paso

Cómo se relaciona esto con AI100 en la práctica

Si necesita no una visión general sino un diagnóstico específico para su marca, AI100 permite verificar cómo el modelo ve la empresa en escenarios neutrales de elección, qué competidores se posicionan más arriba y qué mejoras tienen mayor probabilidad de aumentar la visibilidad.

Ver informe de muestra