Нейросети цитируют всё чаще — но лишь 12% сайтов готовы к этому. Что показало исследование 2025 года?
Эксперты фиксируют устойчивый рост доли запросов, обрабатываемых генеративными ИИ — от ChatGPT и Gemini до российских GigaChat и Алисы. По оценкам отраслевых аналитиков, объём поиска через нейросети вырос более чем на 150% за год, при этом подавляющее большинство сайтов не адаптированы для этого канала.

В условиях, когда алгоритмы всё чаще формируют ответы на основе цитирования, а не традиционного ранжирования, возникает новый вызов: как оказаться в числе источников, на которые ИИ ссылается как на авторитетные?
По итогам анализа 120 проектов, проведённого в первой половине 2025 года, специалисты в области Generative Engine Optimization выявили устойчивую корреляцию между структурой контента и его востребованностью в ИИ-поиске. Эксперимент включал A/B-тестирование сайтов с различными уровнями оптимизации в двух средах — Яндекс.Контекст-ИИ и Perplexity — с контролем по трафику, частоте цитирования и глубине вовлечения.
Особое внимание уделялось трём параметрам:
— наличие открытых количественных данных (цифр, дат, метрик),
— ссылки на проверяемые источники (в том числе сторонние),
— разметка контента по схемам FAQPage и HowTo.
Результаты показали: сайты, включившие хотя бы два из трёх элементов, демонстрировали заметное увеличение видимости в ИИ-ответах — от +40% по целевому трафику за три месяца до роста упоминаемости в 2,5–3 раза по сравнению с контрольной группой. При этом эффект усиливался на сайтах с умеренным органическим трафиком (до 50 тыс. посещений в месяц), где конкуренция за внимание ИИ пока остаётся ниже, чем в топ-100 по Яндексу или Google.
Интересно, что ключевым фактором оказалась не сложность технической реализации, а качество содержания. Наиболее часто цитируемые страницы не содержали рекламных формулировок, избегали обобщений вроде «лучший», «уникальный», «№1», и вместо этого опирались на конкретику: сравнения, временные рамки, измеримые различия.
Это подтверждает гипотезу, что современные нейросети, особенно в режиме RAG (Retrieval-Augmented Generation), склонны отдавать предпочтение контенту, который легко верифицировать — как для пользователя, так и для самой модели. Чем выше прозрачность источника, тем выше вероятность его включения в итоговый ответ.
Важно: исследование не выявило прямой зависимости от объёма текста, частоты обновлений или наличия мультимедиа. Зато зафиксировано, что даже 3–5 правильно оптимизированных страниц на сайте способны тянуть вверх видимость всего домена — за счёт эффекта «авторитетного ядра».
Вывод, к которому приходят аналитики, звучит контринтуитивно: сегодня эффективность в AI-поиске определяется не SEO-историей, а готовностью к цитированию.
Сергей Язовский https://geouseo.ru
Комментариев пока нет.
Leave a Reply