Ваш сайт получает тысячи показов от ИИ-ботов и ноль кликов — и это нормально
noindex не скрывает страницу от ChatGPT. LLM.txt боты не читают. JavaScript рендеринг — слепое пятно для большинства ИИ-краулеров. Пока вы оптимизировали сайт для Гугла, правила изменились.
Команда JetOctopus опубликовала данные серверных логов сотен корпоративных сайтов, описывающие, как именно ИИ-агенты взаимодействуют с веб-контентом в 2026 году, — и разрыв между традиционными SEO-практиками и реальным поведением ИИ-краулеров оказался принципиальным.
Призрачные показы: новая метрика, которую вы игнорируете
Показательная аномалия в данных: рост запросов длиной 10 слов составил 161% год к году при одновременном падении показателя кликабельности до 2,26% — против 8–11% в 2023 году. Такая динамика не характерна для живых пользователей. Это ИИ-агенты, которые разбивают один запрос пользователя на десятки параллельных подзапросов — процесс, который исследователи называют «веерным разворачиванием».
Результат — сайт получает тысячи показов в Гугл Поиске без единого клика. Авторы называют это «призрачными показами»: реальный сигнал того, что контент участвует в рассуждениях ИИ-модели, но трафик не приходит. Если вы фильтруете эти данные из отчетов как нерелевантные — вы работаете вслепую.
Три типа ботов: не путайте их между собой
Главная ошибка технических SEO-специалистов — обращаться с ИИ-краулерами как с единой категорией. На деле их три:
| Тип бота | Что запускает визит | Глубина обхода | Влияние на видимость в ИИ |
| Обучающий бот | Циклы обучения модели | Глубокий, не зависит от количества кликов | Нет прямого влияния — только осведомленность |
| Поисковый бот ИИ | Обнаружение новых страниц и свежего контента | Мелкий — около 1 визита в месяц за пределами 2–3 кликов | Критический привратник: не нашел страницу — пользовательский бот тоже не найдет |
| Пользовательский бот ИИ | Реальный запрос пользователя в ChatGPT, Perplexity или Claude | Избирательный — определяется скоростью и структурой | Высокое: наиболее близкий аналог ИИ-показа |
Сайт может получать массовый обход от обучающих и поисковых ботов и при этом полностью отсутствовать в ответах ИИ-систем.
Что ИИ-боты игнорируют: список устаревших сигналов
Данные логов разрушают несколько устойчивых убеждений:
- noindex и canonical — ИИ-краулеры не строят поисковый индекс, поэтому эти директивы для них не существуют. Страница, скрытая от Гугла через noindex, полностью видна боту ChatGPT
- LLM.txt — данные логов показывают, что крупные ИИ-боты этот файл не читают. Инвестировать время в его создание бессмысленно
- Рендеринг JavaScript — большинство ИИ-краулеров (ChatGPT, Claude, Perplexity) не рендерят JavaScript. Если ключевой контент загружается на стороне клиента, бот читает пустую оболочку. Единственное исключение — Гугл Gemini, использующий тот же сервис рендеринга, что и Googlebot
Что реально влияет на видимость в ИИ
На фоне устаревших сигналов четыре фактора сохраняют значимость:
- Robots.txt — основной инструмент управления доступом. Большинство крупных платформ (ChatGPT, Claude, Gemini) соблюдают его директивы. Исключение: Perplexity-User, пользовательский бот Perplexity, он директивы игнорирует
- XML-карты сайта — используются ChatGPT, Claude и PerplexityBot для обнаружения страниц
- Глубина кликов до 4 — ИИ-поисковые боты резко «отваливаются» за пределами 3 кликов от главной страницы. Самый ценный глубокий контент часто наименее достижим
- Скорость загрузки HTML до 200 мс и серверный рендеринг как единственная универсальная архитектура
Пятишаговый алгоритм аудита
Авторы предлагают конкретный порядок действий:
- Сегментировать логи по типам ИИ-ботов: обучающий, поисковый, пользовательский — по пользовательским агентам (OAI-SearchBot, ChatGPT-User, PerplexityBot, Perplexity-User, Claude-SearchBot, Claude-User)
- Проверить достижимость глубоких страниц: размер HTML-нагрузки, отсутствие ключевого контента в JavaScript, количество кликов от главной, время загрузки, контент за кнопками «Показать еще»
- Провести аудит robots.txt с прицелом на ИИ-доступ: убедиться, что нужные боты не заблокированы случайно
- Построить матрицу возможностей: GSC-фильтр — запросы длиннее 7 слов, показов меньше 50, кликов 0 за последние 3 месяца. Это и есть вопросы, которые ИИ-агенты задают о вашем контенте
- Настроить регулярный мониторинг: ежемесячное сравнение активности ИИ-ботов, Core Web Vitals и показателей ИИ-видимости
Три вывода, которые стоит встроить в любой технический аудит прямо сейчас: первый — проверить robots.txt на предмет случайной блокировки ИИ-краулеров; второй — убедиться, что ключевой контент не прячется за JavaScript; третий — построить в GSC матрицу длинных запросов с нулевыми кликами и понять, какие вопросы ИИ уже задает вашим страницам. Это бесплатно и занимает несколько часов. Остальное — мониторинг и итерации.
Материалы по теме
Вставить свои 5 копеек: