«Несчастье — это время перемен», — говорил Цицерон. Мы живём именно в такое время — время перемен в поведении людей при поиске информации. И это порождает немало кривотолков, непонятных стремлений и, конечно же, обмана. Поэтому сегодня разберу: что происходит с поиском, куда уходит трафик и зачем — а точнее, надо ли — попадать в нейровыдачу.
Мы сейчас стоим на переходной ступеньке между вчерашней моделью поиска и завтрашней. Причём завтрашняя наступит не календарно завтра, но действительно скоро — а вчерашняя уже действительно осталась в прошлом.
Ступени развития технологий и деградации поиска: вчера, сегодня, завтра
Вчера всё было просто: люди задавали абсолютно все вопросы, — от «что такое любовь» до «купить любовь недорого» в Яндекс или Google, поисковик отдавал десяток ссылок на сайты, пользователь шёл читать, знакомился с брендом ещё на этапе формирования спроса, сайты получали трафик и улучшали поведенческие факторы.
Сегодня мы шагнули на следующую ступень. Одна нога всё ещё стоит во вчерашнем дне — большая часть людей по-прежнему идёт в поисковик и читает сайты. Но уже заметный и растущий процент случаев выглядит иначе: люди либо вообще минуют поисковик и идут напрямую к Алисе, в Perplexity, в ChatGPT или в какой-нибудь бот в Telegram, либо по привычке открывают поисковик, но до сайтов не доходят — читают короткий нейроответ прямо под строкой поиска и получают там всё, что им нужно.
Для пользователя это прекрасно: он экономит время и усилия, быстро получает ответ. Но в этот момент сайт, который предоставлял информационный контент, этот трафик не получил. На сайт зашёл не пользователь — на сайт зашёл ИИ, собрал информацию, сделал выжимку и отдал её человеку. Человек с сайтом не соприкоснулся. Поэтому поисковой трафик по информационным запросам сегодня потихоньку падает — пока не критично, на больших цифрах видна отрицательная динамика, и тренд очевиден.
Завтра большинство информационных запросов — не сто процентов, может, и не девяносто, но больше половины — будут закрываться нейроответами. Люди уже не будут приходить на сайты читать статьи, и это станет вполне ощутимым объёмом потерянного трафика.
Что это значит для владельцев бизнеса, владельцев сайтов, оптимизаторов? Что весь контент, который нарабатывался годами, пропадёт зря и можно больше ничего не писать? Конечно нет. Напомню главную рекомендацию Яндекса — да и Google говорит то же самое, — делайте сайт полезным для человека. Если мы всё это время делали именно так, то мы продолжим получать от этого пользу — но теперь в формате прокси.
Зачем тогда попадать в нейроответы
Сейчас очень хайпится тема попадания в нейроответы — мол, вот мы оказались в нейроответе Яндекса, значит, молодцы. Однако само по себе это минимально несёт какой-либо практический смысл. Пользователь не смотрит на источники нейроответа и за редкими исключениями не переходит по ссылкам из него — прочитал текст, доволен, пошёл дальше.
Но вот в чём дело. Нейросеть, которая формирует эти ответы, параллельно выстраивает внутри себя то, что можно назвать деревом траста — большую структуру, где все сайты по тематикам распределяются по мере нарастания и убывания доверия. Чем чаще ИИ успешно использует контент сайта для формирования нейроответа, тем выше траст этого сайта в данной тематике.
А это уже критически важно. Потому что поисковик теперь должен выдать не десять ссылок, а один собственный ответ — и качество источников, из которых он его формирует, становится определяющим фактором. Ошибётся — отдаст ложный или неполный ответ — потеряет пользователя навсегда. Поэтому попадание в нейроответы — это не самоцель и не прямой источник трафика. Это инструмент накопления доверия.
И вот здесь самое интересное. Коммерческие запросы (те самые «купить...») на завтрашней ступени всё ещё останутся за сайтами — купить через нейроответ по-прежнему пока не получится. И именно на SEO-выдаче по коммерческим запросам фактор доверия — положение сайта в дереве траста нейросети — станет максимальным и определяющим позицию. Все остальные классические факторы — хороший текст, качественные фото, удобная карточка товара — никуда не денутся. Но при прочих равных решать будет именно ИИ-траст.
Получается красивая схема: мы пишем контент для пользователя, но пользователь его сам не читает — его читает нейросеть и отдаёт человеку в виде саммари. Взамен мы получаем продвижение в коммерческом сегменте. Что, собственно, и есть наша настоящая цель, — продажи.
При этом не весь информационный трафик уйдёт в нейросети полностью. Продолжат приносить живых читателей глубокие экспертные статьи, подробно раскрывающие конкретные кейсы — там, где выжимки от ИИ будет недостаточно и пользователь захочет узнать больше. Тогда он либо перейдёт по ссылке из нейроответа, которая его зацепит, либо сам найдёт сайт в поиске — а сайт с высоким трастом окажется там, опять же, на хорошем месте.
Послезавтра: покупки без покупателя
О ступени «послезавтра» пока сложно говорить однозначно, но предпосылки очень серьёзные. Пользователь в обозримом будущем может перестать искать и покупать самостоятельно — даже по коммерческим запросам. Делать это за него будут ИИ-агенты.
Концепция сейчас активно развивается всеми ведущими нейросетями — в том числе у Алисы обещаются и разрабатываются подобные решения. Это автономные специализированные надстройки, которые не просто ищут информацию, но и выполняют действия за пользователя.
Сейчас пользователь гуглит «лучший пылесос 2026» или «купить пылесос Керхер», заходит в магазин и покупает. Завтра он скажет своему ИИ-агенту: «Купи мне лучший моющий пылесос до 40 тысяч, у меня дома ковёр с длинным ворсом». И дальше агент сам просканирует доступные предложения — опираясь всё на ту же поисковую выдачу, ничего принципиально нового здесь не возникает, — отфильтрует по отзывам, цене, актуальности и, самое главное, по уровню доверия к сайту: где этот сайт находится в дереве траста — наверху или закопан где-то в глубине.
Если сайт плохо оптимизирован под парсер и никак не проявляет себя в те моменты, когда ИИ ищет информацию для формирования ответов, — значит, его в дереве траста нет или он там глубоко спрятан. И агент попросту не купит у этого сайта. Продажа без покупателя не состоится.
Хотя я пока что скептически отношусь к модели покупки без покупателя, но даже переход к ней не означает конца seo и бизнеса. Людям всё равно будут нужны новые вещи — просто путь от потребности до покупки пройдёт через агента. И если мы до сих пор делали сайт полезным для человека и продолжим делать так же, это будет работать на нас — просто на новом уровне.
Факторы доверия: как попасть в верхушку дерева траста
Подытожу конкретными факторами, которые важно учитывать для продвижения в GEO и AEO — оптимизации под нейросети, исходя из ступеньки «Завтра» и необходимости завоёвывать доверие.
Присутствие в базе знаний ИИ. Если сущности, связанные с сайтом — бренд, автор, компания — уже присутствуют в базе знаний Яндекса или Google, это даёт базовый уровень доверия. Чем больше узнаваемых и позитивных сущностей связано с сайтом, тем выше этот базовый траст. Одно дело, если нейросети ни о чём не говорит ни название бренда, ни имя автора — и совсем другое, когда и бренд, и директор, и авторы статей уже что-то для неё значат. Именно поэтому мы говорим об усложнении JSON-LD разметки: больше сущностей — больше доверия.
Цитируемость. Наш старый добрый ТИЦ, который у нас отобрали, а потом сказали, что ссылки больше не работают — на самом деле живая цитируемость остаётся важной. Нейросеть тоже учитывает, ссылается ли кто-то на упоминаемый сайт, бренд, автора. Если ссылки идут с позитивной коннотацией — это засчитывается.
Верифицируемость. ИИ сопоставляет данные с сайта с фактами из своей базы. Помните период, когда были модны совершенно странные тексты — намеренно оригинальные, выезжавшие за счёт нестандартных утверждений? Это почти сошло на нет, а фактор верифицируемости добивает подобные кейсы окончательно. Если везде написано, что арбуз зелёный, а на нашем сайте написано, что он фиолетовый — это не оригинальный контент, это ложный контент, что моментально опускает сайт в дереве траста.
Авторитетность автора. Современный E-E-A-T ищет не просто ссылки — он ищет упоминания автора в контексте других экспертных материалов. Смотрит, что за персона указана в JSON-LD, изучает профили в социальных сетях, оценивает, насколько можно доверять человеку именно в этой теме. Сущность автора теперь входит в синергию с сущностью бренда: автор усиливает бренд, бренд усиливает автора. В классическом поиске это тоже было важно — но нейросеть на это смотрит значительно внимательнее.
Семантическая уникальность. Только не та уникальность, которую привычно проверяем антиплагиатом на Etxt — нейросети легко вычисляют рерайт, потому что знают все исходники. Трастом засчитывается тот, кто вводит в оборот новые данные: экспертные мнения, результаты тестов, уникальные кейсы, прогнозы — то, чего ещё не было в обучающей выборке ИИ до момента публикации. Именно такой контент станет этой самой выборкой. Именно поэтому профессия SEO-рерайтера умирает: переформулировать топ-10 статей теперь лучше и быстрее сделает сам ИИ, и ещё один переписанный тот же самый контент ему попросту не нужен. Выживает первичный контент — личный опыт, замеры, эксперименты.
Техническая готовность к парсингу нейросетями. Это уже новый фактор. Если бот-агент наткнётся на ошибки в структуре документа или невалидную микроразметку, он не только может не дочитать ресурс, но и сочтёт источник низкокачественным. Аналогия с метатегами: Google и Яндекс и так видят текст на странице, но если они видят, что мы не потрудились описать страницу метатегом, — делают вывод, что с сайтом поработали недостаточно тщательно. Здесь всё уходит в ещё более техническую плоскость. Schema.org, JSON-LD разметка, чистый код — и ещё раз чистый код. Файл LLMS.txt (аналог старого-доброго robots.txt, но для нейросетей) уже оправдан, есть реальные кейсы, но это скорее костыль по сравнению с качественной технической проработкой каждой страницы.
SEO не умерло — хотя его хоронят с тех пор, как я только пришёл в профессию, и оно тогда ещё даже не успело толком сформироваться. Оптимизация присутствия бизнеса под поиск пользователя существует, трансформируется, усложняется — но остаётся таким же важным инструментом соединения пути пользователя и бизнеса. Просто теперь добавляются GEO или AEO, и правила игры стали сложнее. У нас в агентстве к этому уже наработана серьёзная база решений — но это, пожалуй, тема для отдельного рассказа.