Один и тот же бренд, два прогона, разные соседи в таблице

В апреле 2026 года мы прогнали аудит для SaaS-бренда средней известности дважды с разницей в полчаса. Те же модели, тот же промптовый корпус, тот же язык запросов. За эти полчаса в категории не появились новые игроки, бренд не менял ни сайт, ни позиционирование; даже кэш ИИ-провайдеров между прогонами оставался почти полностью прогретым. Бренд получил почти ту же общую оценку — расхождение около двух пунктов, что в пределах обычного шума повторного измерения.

И только когда мы открыли вторую таблицу — долю упоминаний внутри ответов, — картина изменилась. У одной из моделей этот показатель за полчаса вырос почти втрое. У другой — примерно вдвое. У третьей сдвиг был умеренным, но всё равно за пределами разумного шума.

Объяснение оказалось разочаровывающе простым: между прогонами автоматический поиск конкурентов чуть-чуть переписал список соседей. Один игрок выпал из набора, другой пришёл на его место. Бренд не стал заметнее в ответах. Просто соседи, по которым считалась его доля, поменялись — и арифметика сделала своё.

Это не анекдот про сломанную систему. Это типовой эффект, который встречается всегда, когда измерение делает вид, что меряет один объект, а на самом деле меряет его в окружении других. И почти любой инструмент анализа ИИ-видимости — измеряет именно так.

Откуда термин

«Конкурентный набор» — competitive set — у маркетинговых исследователей появился задолго до ИИ-видимости. У Аакера и Келлера в работах по brand equity это рабочее понятие конца 1990-х: фиксированный круг брендов, против которых меряют изучаемую марку. У Капферера — близкое понятие frame of reference: круг соотнесения, внутри которого бренд только и получает смысл.

Идея простая: ни один бренд не существует сам по себе. У него всегда есть соседи — те, с кем покупатель его сравнивает в момент выбора. И исследователь, который измеряет силу бренда, обязан явно назвать этих соседей. Иначе цифры, которые он получает, оказываются непонятно к чему привязаны.

В классическом бренд-трекере конкурентный набор подбирается вручную — обычно два-четыре прямых конкурента плюс один-два «индикаторных» игрока из соседних категорий. Список фиксируется в дизайне исследования, и при повторном замере через полгода или год используются те же самые имена. Если исследователь решает обновить набор, это становится отдельным методологическим решением, которое отмечается в отчёте.

В ИИ-видимости получается иначе. Конкурентов чаще всего ищет сама модель: задаём ей полтора-два десятка промптов вида «кого ещё стоит рассмотреть в этой категории», собираем ответы, агрегируем — и получаем набор. Это удобно: исследователю не нужно глубоко знать чужой рынок, не нужно угадывать, кого включить. Но за удобство приходится платить: автоматический поиск даёт чуть разный результат от прогона к прогону. И это превращает набор из стабильной части дизайна в плавающую переменную.

Где набор прячется внутри метрик

Метрики ИИ-видимости делятся на два класса по тому, насколько они чувствительны к составу соседей. Полезно их различать, потому что устроены они принципиально по-разному, хотя в отчёте лежат рядом и выглядят одинаково.

Первый класс — метрики, которые описывают, что делает сам бренд. Появился ли он в ответе модели. На какой позиции встал. Как часто попал в тройку первых. Получил ли явную рекомендацию. Эти показатели считаются по поведению модели в адрес одного бренда. Если модель отвечает примерно так же — цифра остаётся примерно такой же, независимо от того, кто ещё в наборе. Появление новой компании в соседних строках таблицы их почти не меняет.

Второй класс — метрики доли. Доля упоминаний бренда от всех упоминаний всех брендов. Доля сценариев, в которых бренд всплыл, от общего числа сценариев, где модель назвала хоть кого-то. Доля цитирований домена бренда от всех цитирований доменов конкурентов. Эти показатели по своей природе относительны. У них есть числитель — то, что относится к измеряемому бренду. И есть знаменатель — то, что относится ко всему набору. Если в набор приходит новый игрок, которого модель упоминает реже остальных, общий знаменатель уменьшается. Числитель не двигается. Доля растёт.

Это та же арифметика, по которой вы автоматически становитесь богаче, если из вашего класса в школе ушёл сын банкира. Ваше состояние не изменилось, но ваше положение в распределении — изменилось, и любая статистика, считающая «на каком вы месте по доходу», теперь выдаст другое число. Никакой нечестности. Просто измерение зависело от состава группы, а группа поменялась.

Поэтому когда мы говорим «у бренда выросла доля упоминаний», нужно держать в голове два разных утверждения. Первое: модель действительно стала упоминать бренд чаще — поведение изменилось. Второе: соседи поменялись, знаменатель пересчитался, доля поплыла — поведение могло остаться прежним. Без явной фиксации набора эти два случая легко перепутать. И если решение по итогам аудита (запускать ли кампанию, смещать ли позиционирование, тратить ли бюджет на контент-стратегию) принимается под первой интерпретацией, а на самом деле имеет место вторая, цена такой ошибки может быть высокой.

Почему автоматический поиск конкурентов всегда чуть-чуть разный

ИИ-модель отвечает не одинаково на одинаковый промпт. Даже когда исследователь сводит случайность к минимуму через настройки генерации, у модели всё равно остаётся выбор между несколькими правдоподобными продолжениями ответа, и этот выбор может слегка различаться от запуска к запуску. Это не дефект, а свойство того, как устроены современные генеративные модели.

Когда мы спрашиваем «кого ещё стоит рассмотреть в категории X», ответ почти всегда начинается одинаково — те же два-три безусловных лидера, которых модель выдаст любому запросившему. Различия начинаются на границе списка. Когда дело доходит до восьмого, девятого, десятого имени — у модели в голове примерно равновероятные кандидаты, и ранжирование между ними каждый раз чуть-чуть другое.

Если сложить полтора-два десятка таких ответов из одного прогона и столько же из другого, агрегированные списки совпадут в верхней части и разойдутся в нижней. Какой-то бренд, который в первый раз набрал ровно столько голосов, чтобы попасть в финальные восемь, во второй раз окажется девятым и в набор уже не попадёт. На его место придёт другой — тот, что в прошлый раз был на десятом месте.

С точки зрения дизайна исследования это плохая новость: периферия набора подвижна по построению, и никакие усилия со стороны системы её полностью не стабилизируют. Можно увеличить число промптов, через которые ищутся конкуренты, — улучшение будет, но не радикальное. Можно прогревать кэши провайдеров — это снижает стоимость, но почти не меняет содержание. Дрожание на границе списка остаётся.

С точки зрения практики это означает простую вещь: пока конкурентный набор переопределяется при каждом прогоне, сравнивать прогоны между собой по любой метрике, включающей знаменатель, технически некорректно. Общая оценка бренда — устоит, потому что она в основном строится на метриках первого класса. Доли — нет.

Что мы делаем в AI100

AI100 решает эту проблему так. При первом аудите бренда система собирает конкурентный набор обычным путём: автоматический поиск плюс возможность клиенту вручную добавить имена, которые он считает важными, или убрать тех, кого считает нерелевантными. Финальный список — то, что клиент утвердил перед запуском, — сохраняется как первая версия конкурентного набора этого бренда.

При повторном аудите того же бренда система по умолчанию использует тот же самый набор. Клиент видит в форме запуска подсказку: «у этого бренда уже есть конкурентный набор от такой-то даты, использовать его?». Если ответ «да» — повторное измерение проводится против того же круга соседей, что и предыдущее, и метрики долей становятся честно сравнимыми.

Если клиент хочет пересмотреть набор — добавить нового игрока, убрать выпавшего с рынка, целиком обновить список — это явное действие, которое создаёт новую версию конкурентного набора. В отчёте подпись внизу методологического раздела показывает, какая именно версия использовалась, когда она создана и сколько в ней брендов. Это нужно, чтобы при сравнении отчётов между собой клиент видел, идёт ли речь о двух прогонах с одинаковым набором соседей или о двух прогонах с разными.

Свежий аудит для бренда, который раньше не исследовался, ищет конкурентов с нуля — но клиент по-прежнему может вмешаться и подправить набор перед запуском. Здесь система ничего не «помнит», потому что помнить нечего; зато формирование первого набора находится под контролем клиента, а не остаётся скрытым шагом.

Когда стоит обновить конкурентный набор

Ситуаций, в которых обновление имеет смысл, на самом деле немного.

Прошло шесть-двенадцать месяцев, и в категории видны заметные изменения — кто-то ушёл, кто-то заметно вырос, изменился сам рынок. В этом случае старый набор начинает врать о текущей реальности, и его стоит освежить, даже если это разорвёт сравнимость с прошлогодними цифрами. Цена честной картины здесь выше цены непрерывной динамики.

Появился значимый игрок, которого в первом наборе просто не существовало. Если речь идёт об одном-двух именах, проще их добавить вручную, не запуская полный пересмотр — общая структура набора сохранится, и большинство долей останутся сравнимыми. Если же новых имён сразу много, это, скорее всего, сигнал, что стоит обновить набор целиком.

Бренд изменил позиционирование или сместился в смежную категорию. Конкурентный набор должен следовать за брендом — иначе измерение начинает показывать не реальную видимость, а видимость в категории, к которой бренд уже не относится.

Во всех остальных случаях лучше держать старый набор. Естественный соблазн «обновим, чтобы было свежее» здесь работает против пользы исследования: каждое обновление обнуляет возможность сравнения с предыдущими прогонами. Решение «оставить» по умолчанию — это в чистом виде методологическая аккуратность, а не консерватизм.

Что установлено надёжно

Метрики ИИ-видимости, у которых в формуле есть знаменатель по всему набору брендов (доля упоминаний, доля сценариев, доля цитирований), пересчитываются при изменении состава набора — даже если поведение модели в адрес самого исследуемого бренда не изменилось. Эффект встроен в арифметику расчёта, а не в код системы; он будет проявляться в любом инструменте ИИ-видимости, который не фиксирует набор явно.

Где остаётся неопределённость

Точная граница между «изменение долей вызвано подвижкой набора» и «изменение долей вызвано реальным сдвигом видимости» в одном повторном прогоне неотделима. Чтобы их разнять, нужен либо фиксированный набор, либо два прогона с одной и той же подвижкой набора, либо специальный анализ устойчивости — это отдельная методологическая задача, которую прикладные исследователи ИИ-видимости пока решают по-разному.

Что это меняет на практике

Повторный аудит без фиксации конкурентного набора показывает не динамику бренда, а наложение динамики бренда на сдвиги в составе соседей. Для решений, основанных на сравнении прогонов между собой — фиксировать набор. Для свежей оценки рынка — обновлять. Не путать эти два режима и явно отмечать в отчёте, в каком режиме идёт работа.

Источники

[1] Aaker, D. Building Strong Brands. The Free Press, 1996.
[2] Keller, K. L. Strategic Brand Management. 4th edition. Pearson, 2012.
[3] Kapferer, J.-N. The New Strategic Brand Management. 5th edition. Kogan Page, 2012.
[4] AI100. Сравнение двух последовательных прогонов одного бренда (внутреннее наблюдение, апрель 2026).

Связанные материалы

Полевая заметка 7 мин

Языковое поле видимости: почему один и тот же бренд живёт в разных конкурентных мирах

Когда мы запустили один и тот же бренд на пяти языках, мы ожидали увидеть шум — небольшие колебания оценки. Вместо этого мы обнаружили, что при смене языка меняется не оценка бренда, а весь рынок вокруг него.

Открыть материал →
Исследование 7 мин

«Пузырь ответов»: почему один и тот же бренд выглядит по-разному в ChatGPT, Google, Copilot и других системах

Почему единой ИИ-видимости не существует: один и тот же бренд может заметно отличаться между ChatGPT, Google AI Overviews, Copilot и Perplexity.

Открыть материал →
Следующий шаг

Как это связано с AI100 на практике

Если вам нужен не общий обзор, а диагностика именно по вашему бренду, AI100 позволяет проверить, как модель видит компанию в нейтральных сценариях выбора, какие конкуренты оказываются выше и какие доработки вероятнее всего усилят видимость.

Открыть образец отчёта
AI100 Research · Методология v2026.04 · Опубликовано: 2026-04-15