Una misma marca, dos estudios, vecinos distintos en la tabla
En abril de 2026 realizamos una auditoría para una marca SaaS de notoriedad media dos veces, con media hora de diferencia. Los mismos modelos, el mismo corpus de prompts, el mismo idioma de consulta. En esa media hora no aparecieron nuevos actores en la categoría, la marca no modificó ni su sitio ni su posicionamiento; incluso las cachés de los proveedores de IA se mantuvieron prácticamente en caliente entre ambas ejecuciones. La marca obtuvo casi la misma puntuación general —una divergencia de unos dos puntos, dentro del ruido habitual de una medición repetida.
Y solo cuando abrimos la segunda tabla —la cuota de menciones dentro de las respuestas— cambió la imagen. En uno de los modelos ese indicador creció casi tres veces en media hora. En otro, aproximadamente el doble. En un tercero, el desplazamiento fue más moderado, pero aun así quedó fuera del rango del ruido razonable.
La explicación resultó decepcionantemente simple: entre una ejecución y otra, la búsqueda automática de competidores reescribió ligeramente la lista de vecinos. Un actor salió del conjunto y otro ocupó su lugar. La marca no se volvió más visible en las respuestas. Simplemente cambiaron los vecinos sobre los que se calculaba su cuota, y la aritmética hizo el resto.
No es una anécdota sobre un sistema roto. Es un efecto típico que aparece siempre que una medición finge medir un solo objeto, cuando en realidad lo mide en relación con otros. Y casi cualquier herramienta de análisis de visibilidad en IA mide precisamente así.
De dónde viene el término
«Conjunto competitivo» —competitive set— apareció entre los investigadores de marketing mucho antes de la visibilidad en IA. En los trabajos de Aaker y Keller sobre brand equity, es un concepto operativo ya de finales de los años noventa: el círculo fijo de marcas frente al cual se mide la marca estudiada. En Kapferer aparece un concepto cercano, frame of reference: el círculo de referencia dentro del cual la marca adquiere sentido.
La idea es simple: ninguna marca existe por sí sola. Siempre tiene vecinos, es decir, aquellas marcas con las que el comprador la compara en el momento de elegir. Y el investigador que mide la fuerza de una marca está obligado a nombrar explícitamente a esos vecinos. De lo contrario, las cifras que obtiene quedan sin una referencia clara.
En un brand tracker clásico, el conjunto competitivo se selecciona manualmente: normalmente, entre dos y cuatro competidores directos más uno o dos actores «indicadores» de categorías vecinas. La lista queda fijada en el diseño de la investigación y, al repetir la medición seis meses o un año después, se utilizan los mismos nombres. Si el investigador decide actualizar el conjunto, eso se convierte en una decisión metodológica aparte que se deja señalada en el informe.
En la visibilidad en IA sucede de otro modo. Con frecuencia es el propio modelo el que busca a los competidores: se le formulan entre quince y veinte prompts del tipo «a quién más conviene considerar en esta categoría», se recopilan las respuestas, se agregan y se obtiene un conjunto. Es cómodo: el investigador no necesita conocer en profundidad el mercado ajeno ni adivinar a quién incluir. Pero esa comodidad tiene un precio: la búsqueda automática da un resultado ligeramente distinto de una ejecución a otra. Y eso convierte el conjunto, que debería ser una parte estable del diseño, en una variable flotante.
Dónde se esconde el conjunto dentro de las métricas
Las métricas de visibilidad en IA se dividen en dos clases según cuánto les afecta la composición de las marcas vecinas. Conviene distinguirlas, porque su lógica es radicalmente distinta, aunque en el informe aparezcan una al lado de la otra y parezcan iguales.
La primera clase son las métricas que describen lo que hace la propia marca. Si apareció o no en la respuesta del modelo. En qué posición quedó. Con qué frecuencia entró en las tres primeras. Si recibió una recomendación explícita. Estos indicadores se calculan a partir del comportamiento del modelo respecto de una sola marca. Si el modelo responde de forma aproximadamente igual, la cifra se mantiene aproximadamente igual, con independencia de quién más haya en el conjunto. La aparición de una nueva empresa en las filas vecinas de la tabla apenas los altera.
La segunda clase son las métricas de cuota. La cuota de menciones de la marca sobre el total de menciones de todas las marcas. La cuota de escenarios en los que la marca apareció sobre el número total de escenarios en los que el modelo nombró al menos a alguien. La cuota de citaciones del dominio de la marca sobre el total de citaciones de los dominios de los competidores. Estos indicadores son relativos por naturaleza. Tienen un numerador —lo que corresponde a la marca medida— y un denominador —lo que corresponde al conjunto completo—. Si al conjunto entra un nuevo actor al que el modelo menciona menos que a los demás, el denominador total se reduce. El numerador no se mueve. La cuota sube.
Es la misma aritmética por la que uno pasa automáticamente a ser más rico si del aula de su colegio se marcha el hijo de un banquero. Su patrimonio no cambió, pero su posición en la distribución sí, y cualquier estadística que calcule «en qué puesto está por ingresos» ahora devolverá otra cifra. No hay ninguna trampa. Simplemente, la medición dependía de la composición del grupo, y el grupo cambió.
Por eso, cuando decimos «la cuota de menciones de la marca creció», hay que tener presentes dos afirmaciones distintas. La primera: el modelo realmente empezó a mencionar la marca con más frecuencia, es decir, cambió el comportamiento. La segunda: cambiaron los vecinos, se recalculó el denominador y la cuota se desplazó; el comportamiento pudo permanecer igual. Sin una fijación explícita del conjunto, estos dos casos se confunden con facilidad. Y si la decisión tomada a partir de la auditoría —poner en marcha una campaña, cambiar el posicionamiento, dedicar presupuesto a una estrategia de contenidos— se basa en la primera interpretación, cuando en realidad se trata de la segunda, el precio del error puede ser alto.
Por qué la búsqueda automática de competidores siempre es ligeramente distinta
Un modelo de IA no responde exactamente igual a un mismo prompt. Incluso cuando el investigador reduce la aleatoriedad al mínimo mediante los ajustes de generación, al modelo le sigue quedando un margen de elección entre varias continuaciones verosímiles de la respuesta, y esa elección puede variar ligeramente de una ejecución a otra. No es un defecto, sino una propiedad del modo en que están construidos los modelos generativos modernos.
Cuando preguntamos «a quién más conviene considerar en la categoría X», la respuesta casi siempre empieza igual: los mismos dos o tres líderes indiscutibles que el modelo devolverá a cualquiera que pregunte. Las diferencias aparecen en el borde de la lista. Cuando llega al octavo, noveno o décimo nombre, el modelo tiene en la cabeza candidatos aproximadamente equiprobables, y el orden entre ellos cambia un poco cada vez.
Si se suman entre quince y veinte respuestas de ese tipo de una ejecución y otras tantas de otra, las listas agregadas coincidirán en la parte alta y divergirán en la baja. Alguna marca que la primera vez reunió justo los votos necesarios para entrar en el grupo final de ocho, la segunda quedará en novena posición y ya no entrará en el conjunto. En su lugar entrará otra, la que la vez anterior había quedado décima.
Desde el punto de vista del diseño de la investigación, esto es una mala noticia: la periferia del conjunto es móvil por construcción, y ningún esfuerzo por parte del sistema la estabiliza por completo. Se puede aumentar el número de prompts con los que se buscan competidores: habrá mejora, pero no radical. Se pueden mantener calientes las cachés de los proveedores: eso reduce el coste, pero casi no cambia el contenido. La oscilación en el borde de la lista permanece.
Desde el punto de vista práctico, esto significa algo simple: mientras el conjunto competitivo se redefina en cada ejecución, comparar ejecuciones entre sí por cualquier métrica que incluya un denominador es técnicamente incorrecto. La puntuación general de la marca resiste, porque se construye sobre todo a partir de métricas de la primera clase. Las cuotas, no.
Qué hacemos en AI100
AI100 resuelve este problema así. En la primera auditoría de una marca, el sistema reúne el conjunto competitivo por la vía habitual: búsqueda automática más la posibilidad de que el cliente añada manualmente los nombres que considera importantes o elimine los que considera irrelevantes. La lista final —la que el cliente aprobó antes de la ejecución— se guarda como la primera versión del conjunto competitivo de esa marca.
En una auditoría repetida de la misma marca, el sistema utiliza por defecto ese mismo conjunto. El cliente ve en el formulario de ejecución un aviso: «esta marca ya tiene un conjunto competitivo de tal fecha, ¿utilizarlo?». Si la respuesta es sí, la medición repetida se realiza frente al mismo círculo de vecinos que la anterior, y las métricas de cuota pasan a ser genuinamente comparables.
Si el cliente quiere revisar el conjunto —añadir un nuevo actor, retirar a uno que salió del mercado, renovar por completo la lista—, eso se convierte en una acción explícita que crea una nueva versión del conjunto competitivo. En el informe, una nota al pie de la sección metodológica muestra qué versión se utilizó, cuándo se creó y cuántas marcas incluye. Esto es necesario para que, al comparar informes entre sí, el cliente vea si se trata de dos ejecuciones con el mismo conjunto de vecinos o de dos ejecuciones con conjuntos distintos.
Una auditoría nueva para una marca que antes no se había investigado busca competidores desde cero, pero el cliente sigue pudiendo intervenir y ajustar el conjunto antes de la ejecución. Aquí el sistema no «recuerda» nada, porque no hay nada que recordar; a cambio, la formación del primer conjunto queda bajo el control del cliente y no permanece como un paso oculto.
Cuándo conviene actualizar el conjunto competitivo
En realidad, las situaciones en las que tiene sentido actualizarlo son pocas.
Han pasado seis o doce meses y en la categoría se ven cambios perceptibles: alguien salió, alguien creció de forma visible, cambió el propio mercado. En ese caso, el conjunto antiguo empieza a mentir sobre la realidad actual y conviene refrescarlo, aunque eso rompa la comparabilidad con las cifras del año anterior. Aquí el valor de una imagen honesta es mayor que el de una dinámica continua.
Ha aparecido un actor relevante que sencillamente no existía en el primer conjunto. Si se trata de uno o dos nombres, es más simple añadirlos manualmente, sin lanzar una revisión completa: la estructura general del conjunto se conservará y la mayoría de las cuotas seguirán siendo comparables. Pero si los nombres nuevos son muchos de una vez, lo más probable es que sea una señal de que conviene actualizar el conjunto en su totalidad.
La marca cambió su posicionamiento o se desplazó a una categoría adyacente. El conjunto competitivo debe seguir a la marca; de lo contrario, la medición empezará a mostrar no la visibilidad real, sino la visibilidad dentro de una categoría a la que la marca ya no pertenece.
En todos los demás casos, es mejor mantener el conjunto anterior. La tentación natural de «actualizar para que sea más reciente» juega aquí contra la utilidad de la investigación: cada actualización pone a cero la posibilidad de comparación con ejecuciones anteriores. La decisión predeterminada de «mantenerlo» es metodología cuidadosa en estado puro, no conservadurismo.
Las métricas de visibilidad en IA cuya fórmula incluye un denominador relativo al conjunto completo de marcas (cuota de menciones, cuota de escenarios, cuota de citaciones) se recalculan cuando cambia la composición del conjunto, incluso si el comportamiento del modelo con respecto a la propia marca analizada no cambió. El efecto está incorporado en la aritmética del cálculo, no en el código del sistema; aparecerá en cualquier herramienta de visibilidad en IA que no fije explícitamente el conjunto.
La frontera exacta entre «el cambio en las cuotas lo provoca el movimiento del conjunto» y «el cambio en las cuotas lo provoca un desplazamiento real de la visibilidad» no puede separarse dentro de una sola ejecución repetida. Para distinguirlas hace falta o bien un conjunto fijo, o bien dos estudios con el mismo desplazamiento del conjunto, o bien un análisis especial de estabilidad: esta es una tarea metodológica independiente que los investigadores aplicados de visibilidad en IA todavía resuelven de formas distintas.
Una auditoría repetida sin fijar el conjunto competitivo no muestra la dinámica de la marca, sino la superposición entre la dinámica de la marca y los desplazamientos en la composición de sus vecinos. Para decisiones basadas en la comparación entre ejecuciones, hay que fijar el conjunto. Para una evaluación fresca del mercado, hay que actualizarlo. Conviene no confundir estos dos regímenes y señalar explícitamente en el informe en cuál de ellos se está trabajando.
Fuentes
Materiales relacionados
Campo lingüístico de visibilidad: por qué una misma marca vive en distintos mundos competitivos
Cuando lanzamos la misma marca en cinco idiomas, esperábamos ver ruido: pequeñas oscilaciones en la puntuación. En cambio, descubrimos que al cambiar de idioma no cambia la puntuación de la marca, sino todo el mercado que la rodea.
Abrir material →«Burbuja de respuestas»: por qué una misma marca se ve de manera distinta en ChatGPT, Google, Copilot y otros sistemas
Por qué no existe una visibilidad IA única: la misma marca puede verse notablemente diferente entre ChatGPT, Google AI Overviews, Copilot y Perplexity.
Abrir material →Cómo se relaciona esto con AI100 en la práctica
Si necesita no una visión general sino un diagnóstico específico para su marca, AI100 permite verificar cómo el modelo ve la empresa en escenarios neutrales de elección, qué competidores se posicionan más arriba y qué mejoras tienen mayor probabilidad de aumentar la visibilidad.
Ver informe de muestra