Искусственный интеллект пишет для ботов: 35% новых сайтов в сети созданы алгоритмами
Учёные из Стэнфорда подтвердили пугающую теорию «Мертвого интернета»: люди в сети оказались в меньшинстве. Нейросети теперь генерируют контент, который индексируется ботами-поисковиками и копируется для спам-каналов.
Конспирологическая теория «Мертвого интернета» (Dead Internet Theory) гласит, что большая часть глобальной паутины уже состоит из ботов и автоматически сгенерированного контента, создавая лишь иллюзию человеческого общения. Новое исследование ученых из Имперского колледжа Лондона, Стэнфордского университета и организации Internet Archive показывает, что эта теория стремительно становится математической реальностью.
Исследователи проанализировали данные Wayback Machine за период с конца 2022 года (момент запуска ChatGPT) до середины 2025 года. Результаты оказались беспрецедентными.
Сколько в интернете искусственного интеллекта
По состоянию на май 2025 года 35,3% всех новых веб-сайтов в интернете были созданы с использованием искусственного интеллекта. Из них 17,6% сайтов полностью сгенерированы нейросетями без значимого участия человека.
Эти данные перекликаются с более ранними отчетами компаний в сфере кибербезопасности:
- В 2024 году компания Imperva зафиксировала исторический рубеж — автоматизированный трафик (боты) впервые превысил активность реальных людей, составив около 50% всех посещений в сети.
- К осени 2025 года доля бот-трафика достигла 51%.
Основная цель массовой генерации сайтов — создание спам-ресурсов для SEO-накрутки, плагиат новостных порталов и запуск мошеннических площадок.
Как изменился сам контент
Помимо подсчета доли ИИ-сайтов, исследователи проверили несколько популярных гипотез о том, как нейросети меняют качество интернета:
- Факты остались (пока): вопреки ожиданиям, сгенерированные сайты оказались не такими лживыми, как предполагалось, и часто содержали ссылки на внешние источники.
- Стилистика не умерла: ИИ не уничтожил индивидуальные стили письма в пользу единого «роботизированного» голоса.
- Разнообразие исчезло: главный негативный эффект подтвердился — с ростом доли ИИ-контента резко сократился «диапазон уникальных идей и разнообразных точек зрения».
- Токсичный позитив: тексты в интернете стали казаться «все более выхолощенными и искусственно жизнерадостными».
Исследователи планируют создать постоянно работающий инструмент мониторинга, чтобы отслеживать, какие именно категории сайтов и языки затапливаются ИИ-контентом быстрее всего.
Для веб-мастеров и арбитражников эти 17,6% полностью сгенерированных сайтов — прямые конкуренты за поисковый трафик. Порог входа в создание информационных сайтов (MFA) упал до нуля, что привело к беспрецедентному замусориванию выдачи. С одной стороны, это заставляет поисковики закручивать гайки и резать трафик всем подряд (как это делает Google). С другой стороны, исследование показывает уязвимость ИИ-контента: он вторичен и «искусственно жизнерадостен». В эпоху, когда треть интернета пишет одинаково гладкие, но стерильные тексты, реальный авторский опыт (даже с опечатками и субъективностью) становится главным фактором ранжирования и доверия аудитории.
Материалы по теме
Вставить свои 5 копеек: