Главная страница Новости Ваш сайт получает тысячи показов от ИИ-ботов и ноль кликов — и это нормально
Ваш сайт получает тысячи показов от ИИ-ботов и ноль кликов — и это нормально

Ваш сайт получает тысячи показов от ИИ-ботов и ноль кликов — и это нормально

noindex не скрывает страницу от ChatGPT. LLM.txt боты не читают. JavaScript рендеринг — слепое пятно для большинства ИИ-краулеров. Пока вы оптимизировали сайт для Гугла, правила изменились.

Содержание статьи

Команда JetOctopus опубликовала данные серверных логов сотен корпоративных сайтов, описывающие, как именно ИИ-агенты взаимодействуют с веб-контентом в 2026 году, — и разрыв между традиционными SEO-практиками и реальным поведением ИИ-краулеров оказался принципиальным.

Призрачные показы: новая метрика, которую вы игнорируете

Показательная аномалия в данных: рост запросов длиной 10 слов составил 161% год к году при одновременном падении показателя кликабельности до 2,26% — против 8–11% в 2023 году. Такая динамика не характерна для живых пользователей. Это ИИ-агенты, которые разбивают один запрос пользователя на десятки параллельных подзапросов — процесс, который исследователи называют «веерным разворачиванием».

Результат — сайт получает тысячи показов в Гугл Поиске без единого клика. Авторы называют это «призрачными показами»: реальный сигнал того, что контент участвует в рассуждениях ИИ-модели, но трафик не приходит. Если вы фильтруете эти данные из отчетов как нерелевантные — вы работаете вслепую.

Три типа ботов: не путайте их между собой

Главная ошибка технических SEO-специалистов — обращаться с ИИ-краулерами как с единой категорией. На деле их три:

Тип бота Что запускает визит Глубина обхода Влияние на видимость в ИИ
Обучающий бот Циклы обучения модели Глубокий, не зависит от количества кликов Нет прямого влияния — только осведомленность
Поисковый бот ИИ Обнаружение новых страниц и свежего контента Мелкий — около 1 визита в месяц за пределами 2–3 кликов Критический привратник: не нашел страницу — пользовательский бот тоже не найдет
Пользовательский бот ИИ Реальный запрос пользователя в ChatGPT, Perplexity или Claude Избирательный — определяется скоростью и структурой Высокое: наиболее близкий аналог ИИ-показа

Сайт может получать массовый обход от обучающих и поисковых ботов и при этом полностью отсутствовать в ответах ИИ-систем.

Что ИИ-боты игнорируют: список устаревших сигналов

Данные логов разрушают несколько устойчивых убеждений:

  • noindex и canonical — ИИ-краулеры не строят поисковый индекс, поэтому эти директивы для них не существуют. Страница, скрытая от Гугла через noindex, полностью видна боту ChatGPT
  • LLM.txt — данные логов показывают, что крупные ИИ-боты этот файл не читают. Инвестировать время в его создание бессмысленно
  • Рендеринг JavaScript — большинство ИИ-краулеров (ChatGPT, Claude, Perplexity) не рендерят JavaScript. Если ключевой контент загружается на стороне клиента, бот читает пустую оболочку. Единственное исключение — Гугл Gemini, использующий тот же сервис рендеринга, что и Googlebot

Что реально влияет на видимость в ИИ

На фоне устаревших сигналов четыре фактора сохраняют значимость:

  • Robots.txt — основной инструмент управления доступом. Большинство крупных платформ (ChatGPT, Claude, Gemini) соблюдают его директивы. Исключение: Perplexity-User, пользовательский бот Perplexity, он директивы игнорирует
  • XML-карты сайта — используются ChatGPT, Claude и PerplexityBot для обнаружения страниц
  • Глубина кликов до 4 — ИИ-поисковые боты резко «отваливаются» за пределами 3 кликов от главной страницы. Самый ценный глубокий контент часто наименее достижим
  • Скорость загрузки HTML до 200 мс и серверный рендеринг как единственная универсальная архитектура

Пятишаговый алгоритм аудита

Авторы предлагают конкретный порядок действий:

  1. Сегментировать логи по типам ИИ-ботов: обучающий, поисковый, пользовательский — по пользовательским агентам (OAI-SearchBot, ChatGPT-User, PerplexityBot, Perplexity-User, Claude-SearchBot, Claude-User)
  2. Проверить достижимость глубоких страниц: размер HTML-нагрузки, отсутствие ключевого контента в JavaScript, количество кликов от главной, время загрузки, контент за кнопками «Показать еще»
  3. Провести аудит robots.txt с прицелом на ИИ-доступ: убедиться, что нужные боты не заблокированы случайно
  4. Построить матрицу возможностей: GSC-фильтр — запросы длиннее 7 слов, показов меньше 50, кликов 0 за последние 3 месяца. Это и есть вопросы, которые ИИ-агенты задают о вашем контенте
  5. Настроить регулярный мониторинг: ежемесячное сравнение активности ИИ-ботов, Core Web Vitals и показателей ИИ-видимости
Awesome image

Три вывода, которые стоит встроить в любой технический аудит прямо сейчас: первый — проверить robots.txt на предмет случайной блокировки ИИ-краулеров; второй — убедиться, что ключевой контент не прячется за JavaScript; третий — построить в GSC матрицу длинных запросов с нулевыми кликами и понять, какие вопросы ИИ уже задает вашим страницам. Это бесплатно и занимает несколько часов. Остальное — мониторинг и итерации.

Чо, как вам статья?

Материалы по теме

Отдельный подпись к каждому слайду карусели: Instagram тестирует функцию, которую просили годами
Один пост — десять слайдов — десять подписей. Instagram тестирует то, что авторы образовательного контента делали в обход через наложение текста на изображение. Скоро это может стать нативной функцией редактора.
N1 SEO Traffic Cup: первый этап завершен — итоги и победители
Завершился N1 SEO Traffic Cup от N1 Partners: 300+ команд лили SEO-трафик на casino и betting-бренды, 14 команд вышли на призовые уровни, а победители поделились стратегиями, результатами и впечатлениями от турнира.
Дублированный контент, PageRank и длина текста: Гугл разрушил семь мифов в одном обновлении
Google обновил SEO Starter Guide, добавив в него целый раздел «Things we believe you shouldn't focus on» — список устойчивых убеждений, которые компания официально называет неактуальными или ошибочными.

Вставить свои 5 копеек:

Awesome image
Awesome image
Awesome image Awesome image Awesome image Awesome image
Awesome image