Google IO 2025

Google IO 2025: ИИ трансформирует поиск. SEO на перепутье

📖 13 июня, 2025 | 👁 25


Еще несколько лет назад SEO было предсказуемым. Достаточно было подобрать ключевые слова, создать соответствующий контент, оптимизировать страницу — и вы имели все шансы попасть в топ выдачи Google. Но 2025 год изменил правила игры. На сцену вышел AI Mode — новый режим поиска, в котором традиционное SEO оказалось на грани исчезновения. И это уже не просто апгрейд алгоритма. Это — фундаментальная трансформация самого понятия поиска.

Содержание

В прошлом месяце на SEO Week, во время доклада «Brave New World of SEO», Майкл Кинг еще раз подчеркнул: да, сейчас между органической выдачей и AI Overviews существует значительное пересечение. Но мы совершенно не готовы к тому, что будет, когда к этому добавятся память, персонализация, MCP (Multisearch Central Protocol) и обязательные агентные возможности. С анонсами новых функций в AI Mode все, о чем говорил Майкл Кинг, уже стало частью опыта поиска Google — или станет им до конца года.

 

Как работает AI Mode

 

В этой статье мы разберем:

Доверьте развитие вашего бизнеса сертифицированным специалистам!


    Новая эра поиска — как работает Google AI Mode

    Как AI Mode превращает поиск в диалог

    AI Mode — это не просто еще одна фича Google. Это полностью новый режим, в котором поиск перестает быть списком ссылок и превращается в обобщенный, логически построенный ответ. Вы открываете Google и задаете вопрос, но то, что происходит дальше, уже не похоже на привычный поиск. Нет синих подчеркиваний. Вместо этого — дружественный, контекстно-зависимый абзац, который отвечает даже на то, что вы еще не успели спросить.

     

    Схема, как AI Mode превращает поиск в диалог

     

     

    Под поверхностью то, что выглядит как один ответ, на самом деле является балетом машинного мышления. Пользователь вводит запрос, а Google не просто ищет страницы, а генерирует подзапросы (query fan-out). Каждый подзапрос обрабатывается отдельно, извлекая релевантные фрагменты (passages) из индекса.

    Stateful chat: что Google помнит о нас

    «Stateful chat», или сохранение состояния чата, означает, что Google накапливает фоновую память о вас со временем. Эта память — это агрегированные встраивания, которые представляют прошлые разговоры, темы, которые вас интересовали, и ваши шаблоны поиска. Эта память накапливается и используется для формирования ответов, которые со временем становятся более персонализированными. Запрос — это уже не просто «Какой лучший электрический SUV?», а: «Что означает «лучший» для этого пользователя именно сейчас, с учетом его приоритетов?»

     

    Как работает OAI "Dreams"

     

    AI Mode персонализирует ответы с помощью векторных представлений пользователя (User Embeddings), описанных в патентной заявке «User Embedding Models for Personalization of Sequence Processing Models». Эта персонализация позволяет Google адаптировать ответы AI Mode под каждого пользователя, не переобучая базовую LLM.

     

    Схема как AI Mode персонализирует ответы с помощью векторных представлений пользователя (User Embeddings)

     

    Из чего состоит конвейер AI Mode

    AI Mode — это многоуровневая архитектура, построенная на классическом индексе Google. Вместо обработки каждого запроса изолированно, система сохраняет контекст пользователя: предыдущие запросы, локацию, устройства, поведенческие сигналы. Это все превращается в векторное встраивание, которое позволяет Google понимать намерение не только «сейчас», но и в динамике.

     

    Схема как формируется ответ

     

     

    Как формируется ответ:

    Когда сформирован кастомный корпус, AI Mode вызывает набор специализированных больших языковых моделей (LLM). Каждая из них имеет свое назначение, которое зависит от типа запроса и предполагаемой потребности пользователя (например, обобщающий, сравнитель, валидационная модель). Финальная модель собирает из них «сценарий» ответа.

    Важно: хотя в патенте упоминается LLM, это не классическая архитектура MoE (Mixture of Experts) с одним маршрутизатором. Вместо этого здесь происходит выборочная оркестрация моделей в зависимости от контекста и намерения. Это больше похоже на умную «промежуточную платформу», чем на одну большую модель.

     

    Схема что такое query fan-out

     

    Fan-out-запросы: что Google «на самом деле» ищет

    Что такое query fan-out

    Google больше не ограничивается единственным запросом пользователя. AI Mode использует технику query fan-out, когда один запрос раскладывается на десятки подзапросов. Это изменение всей платформы, где все больше внешнего контекста учитывается. DeepSearch — это фактически расширенная версия DeepResearch, интегрированная в SERP, где могут запускаться сотни запросов и анализироваться тысячи документов.

     

    Типы скрытых запросов (synthetic queries)

     

    Типы скрытых запросов (synthetic queries)

    AI Mode использует технику query fan-out, когда один запрос раскладывается на десятки подзапросов:

    Например, запрос «лучший электрический SUV» трансформируется в: «обзор Tesla Model X», «сравнение Hyundai Ioniq 5 и Mustang Mach-E», «электромобили с 3 рядом сидений для семьи» и т.д. Каждый такой подзапрос имеет собственный фрагмент ответов.

    Хватит «сливать» бюджет, обратитесь к специалистам!


      Как фрагменты вашего контента могут попасть в ответ, даже если запрос вам неочевиден

      Каждый подзапрос обрабатывается отдельно, и именно эти фрагменты могут извлекаться из вашего сайта, даже если вы не в топе по основному ключу. Это означает, что поиск становится генеративным, персонализированным и логически структурированным. Ваша веб-страница может быть процитирована, или нет. Ваш контент может появиться не из-за ключевого слова, а потому что одно предложение совпало с каким-то шагом в машинном рассуждении.

      Reasoning в Google: когда логика важнее ключевых слов

      Как LLM рассуждает шаг за шагом

      Google больше не просто подбирает страницы — он анализирует, рассуждает, формирует логику ответа. В модели reasoning каждый шаг ответа строится как chain-of-thought:

      LLM (большая языковая модель) рассуждает, формирует логику ответа (reasoning chain), подбирает лучшие части. Эта магия происходит в невидимой архитектуре, подпитываемой вашим прошлым.

      Passage-level SEO: контент как система доводов

      Ранее мы оптимизировали страницы. Теперь нужно оптимизировать фрагменты внутри страницы. AI Mode оценивает не всю страницу, а отдельные пассажи:

      Ваш контент должен быть готов поддержать рассуждения ИИ. Если он нечеткий, противоречивый или не дает ответа на фан-аут-запросы — его просто не будет в ответе. AI Mode использует плотное извлечение (dense retrieval) и семантику на уровне фрагментов (passage-level semantics). Вся эта система работает на основе плотного поиска. Каждый запрос, подзапрос, документ и даже отдельный фрагмент текста (passage) преобразуется в векторное представление.

      Получить бесплатную консультацию
      Заполните форму и наши менеджеры проконсультируют вас уже сегодня



        Chain of thought и hybrid reasoning в поиске

        Согласно патенту «Method for Text Ranking with Pairwise Ranking Prompting», Google разработал систему, в которой LLM сравнивает два фрагмента текста и определяет, какой из них более релевантен запросу пользователя. Этот процесс повторяется для множества пар фрагментов, а затем результаты агрегируются, чтобы сформировать финальный рейтинг. Это — сдвиг от абсолютной оценки релевантности к относительной, вероятностной.

        Практически это выглядит так:

        1. плотный поиск находит пул фрагментов-кандидатов;
        2. LLM сравнивает пары фрагментов, выбирая те, что лучше;
        3. финальная модель генерирует ответ на основе этих лучших фрагментов.

        Недостаточно просто ранжироваться. Нужно создавать фрагменты, которые смогут выиграть прямое LLM-сравнение. Потому что рассуждение означает, что Gemini делает серию логических выводов на основе истории взаимодействия с пользователем (памяти).

        Как меняется стратегия контента

        Что такое «AI Mode-Ready» контент

        SEO потратило 25 лет на то, чтобы готовить контент для индексации и ранжирования по конкретному запросу. Теперь мы создаем релевантность, которая должна проникнуть в системы рассуждения по целому спектру запросов.

        AI Mode внедряет новые механизмы, к которым мы не имеем и вряд ли будем иметь доступ, что делает поиск вероятностным. Поэтому даже если мы создадим технически правильные сайты, напишем контент, выстроим ссылочную массу — это будет лишь один из многих входных сигналов, который в итоге может быть вообще невидимым в финальном результате.

        Структура и форматирование под фрагментный отбор

        Чтобы создавать контент, готовый к AI Mode, необходимо:

        LLM Win Rate: новая метрика успеха

        Мы можем сделать вашу компанию лидером рынка, предоставив качественные услуги по продвижению сайтов. Закажите SEO-аудит прямо сейчас и получите 3 дня БЕСПЛАТНОЙ работы над вашим проектом ! Убедитесь лично в высоком качестве наших услуг без каких-либо рисков для вашего бюджета.


          Как измерять новую видимость

          Почему позиция в SERP уже не показатель

          Традиционное позиционное SEO больше не работает. Ваш сайт может быть на 1 месте, но не попасть в ответный. И наоборот — может не быть в топе, но быть выбранным как фрагмент. Текущая SEO-модель больше не соответствует новой реальности, где все руководствуется рассуждением, персональным контекстом и DeepResearch. Google не пытается обеспечить вам трафик, он хочет, чтобы люди получали ответы на свои информационные запросы, и рассматривает трафик как «необходимое зло».

          Новые метрики успеха в генеративном поиске:

          Персонализированные запросы и embedding-контроль

          Персонализация через embedding-профили означает, что выдача зависит от контекста пользователя. Два пользователя, которые задают один и тот же вопрос, могут получить разные ответы. AI Mode теперь — это не просто понимание намерения, а запоминающаяся среда.

          AI Mode персонализирует ответы с помощью векторных представлений пользователя (User Embeddings). Это позволяет Google адаптировать ответы AI Mode под каждого пользователя, не переобучая базовую LLM. User embedding применяется при интерпретации запроса, генерации фан-аут-запросов, извлечении фрагментов и синтезе ответа.

           

          Схема как AI Mode персонализирует ответы с помощью векторных представлений пользователя (User Embeddings)

           

          Проверка через Perplexity (Qforia) как лабораторию SEO

          Используйте Perplexity как тренажер и тестовую зону. Это единственная платформа, которая позволяет видеть, как LLM выбирает контент и почему.

          Последствия для нишевого и коммерческого SEO

          Как AI Mode работает в финансах, e-commerce, медицине

          Коммерческие ниши тоже под ударом: даже в финансах, e-commerce, медицине Google генерирует ответы на основе reasoning. Google уже внедряет кастомную визуализацию данных прямо в выдаче — на основе ваших данных. И если уже сегодня контент может миксоваться на лету с помощью Veo или Imagen, то можно не сомневаться: полноценное ремикширование контента — уже близко.

          Мультимодальное будущее поиска означает, что AI Mode изначально является мультимодальным. Система может работать с видео, аудио и их транскриптами, изображениями. Применяется архитектура Multitask Unified Model (MUM), которая позволяет, например, брать контент на одном языке, переводить его на другой и включать в ответ.

          Что меняется для YMYL-контента

          Авторитетность теперь на уровне фрагментов: важно не только доверие к сайту, но и качество конкретного абзаца. Это особенно критично для YMYL (Your Money Your Life) контента, где точность, экспертиза и доверие являются первоочередными.

          Роль авторитета и точности источника

          Хотя Google годами предостерегает от оптимизации под ботов, новая реальность буквально заставляет нас относиться к ботам как к главным «потребителям» контента. Именно боты теперь интерпретируют информацию от нашего имени. То есть, тезис Джеймса Кадволладера сводится к тому, что очень скоро пользователь вообще не будет видеть ваш сайт. Агенты будут обрабатывать вашу информацию, исходя из своего понимания пользователя и собственного «мышления» относительно вашего сообщения. Это подчеркивает критическую роль авторитета и точности каждого фрагмента контента.

           

          Цитата

           

          Что делать дальше: стратегия на 2025 год

          Мы на распутье. Традиционное SEO еще работает — но чем дальше, тем меньше. Впереди — эпоха семантики, логики, фрагментов и векторов. AI Mode — это вызов, но и возможность для тех, кто умеет мыслить стратегически, строить глубокий контент и не боится адаптации.

          Новый технический стек SEO-специалиста

          Существует глубокий разрыв между тем, что технически нужно, чтобы достичь успеха в генеративном поиске (generative IR), и тем, что реально делает SEO-индустрия сегодня. Большинство инструментов SEO до сих пор работают на основе моделей разреженного поиска (sparse retrieval), вместо плотных моделей поиска (dense retrieval), которые используют векторные встраивания (embeddings).

          У нас нет инструментов, которые:

          Пришло время активизировать наше сообщество, снова начать экспериментировать и учиться. Те из нас, кто сможет — должны начинать с понимания, как работает технология, и уже тогда возвращаться к стратегии и тактике.

          Работа с векторными данными и embedding

          Вся система AI Mode работает на основе плотного поиска, где каждый запрос, подзапрос, документ и отдельный фрагмент текста преобразуется в векторное представление. Google вычисляет сходство между этими векторами, чтобы определить, что будет использовано в генеративном ответе.

          Это значит, что теперь важно не просто «попасть в выдачу по запросу», а насколько ваш документ или даже отдельный абзац семантически совпадает со скрытым набором запросов.

          Оптимизация контента под логику, а не только ключи

          На фото Майкл Кинг рассказывает о том, как работает система AI Mode

           

          Поиск изменился. Теперь очередь за нами.

          ЧАСТО ЗАДАВАЕМЫЕ ВОПРОСЫ

          Google все еще индексирует веб-страницы?

          Да, Google все еще индексирует веб-страницы. AI Mode не заменяет индексацию; наоборот, он активно использует ее. Google извлекает фрагменты ответов именно из индекса, а так называемый «кастомный корпус» формируется из индексированных документов, которые семантически релевантны скрытым подзапросам.

          Однако, стоит помнить, что индексация — это лишь первый шаг. Чтобы ваш контент попал в ответный AI Mode, ему нужно пройти еще несколько «фильтров»:

          1. Соответствие фан-аут-запросам: ваш фрагмент должен быть релевантным не только основному запросу, но и многочисленным скрытым подзапросам, которые генерирует ИИ.
          2. Победа во фрагментном сравнении: ваш фрагмент должен оказаться лучше конкурентов во время прямого LLM-сравнения.
          3. Логическая релевантность в reasoning-chain: ваш контент должен логично вписываться в цепочку рассуждений ИИ, поддерживая его выводы.

          Что будет с Featured Snippets?

          Featured Snippets можно считать предтечей AI Overviews. Их судьба в новой эпохе неоднозначна:

          По текущим наблюдениям, Featured Snippets все еще существуют, но:

          А как насчет авторитетности домена?

          Авторитетность остается важной, но ее фокус смещается. Теперь она имеет значение преимущественно на уровне источника конкретного фрагмента, а не просто домена в целом.

          LLM выбирает фрагменты, которые:

          В патентах Google упоминается «quality scoring» для фрагментов — это отдельная метрика для passage, которая может быть выше или ниже средней оценки страницы или сайта в целом. Это означает, что даже если ваш домен имеет высокий авторитет, качество и точность отдельных фрагментов вашего контента являются критически важными.

          Будет ли AI Mode работать в коммерческих нишах?

          Так, AI Mode уже активно работает в коммерческих нишах и его влияние будет только расти. Google активно тестирует и внедряет AI Overviews в таких сферах, как:

          Однако, есть важные нюансы, особенно для high-risk ниш (YMYL — Your Money Your Life):

          А какие теперь метрики нужно отслеживать в SEO?

          Традиционное позиционное SEO уже не работает так, как раньше. Ваш сайт может быть на 1 месте, но не попасть в AI Mode, или наоборот — не быть в топе, но быть выбранным как фрагмент. Поэтому к привычным метрикам добавляются новые, более релевантные для генеративного поиска:

          Как меняется отчетность?

          Отчетность в SEO также трансформируется, поскольку фокус смещается с абстрактных позиций на фактическую релевантность и цитируемость. Теперь необходимо отслеживать и показывать клиентам не только динамику позиций по ключевым словам (которая остается базовой, но менее критичной), но и:

          Это требует пересмотра привычных дашбордов и внедрения новых инструментов аналитики, способных работать с векторными данными и анализировать генеративные результаты.

          Что нужно сделать, чтобы контент участвовал в сгенерированном ответе?

          Чтобы ваш контент имел высокие шансы быть использованным в сгенерированном ответе AI Mode, необходимо изменить подход к его созданию и оптимизации. Вот ключевые шаги:

          1. Оптимизация на уровне фрагментов (Passage-level SEO): Разделяйте контент на четкие, самодостаточные блоки (абзацы, пункты списков), каждый из которых содержит одну законченную мысль, аргумент, факт или пример. Каждый фрагмент должен быть понятным вне контекста всей страницы.
          2. Четкость и однозначность формулировок: Пишите максимально понятно, избегая двусмысленности, «воды» и излишней витиеватости. Контент должен быть таким, чтобы LLM могла легко распознать его логику, намерение и ключевую информацию.
          3. Включите аргументацию, сравнение, сценарии: Ваш контент должен не просто констатировать факты, а объяснять «почему», «когда» и «как». Предоставляйте доказательства, сравнивайте разные точки зрения, описывайте сценарии использования или решения проблем. Это помогает ИИ формировать «цепочки рассуждений» (reasoning chains).
          4. Прогнозируйте Fan-out запросы: Думайте, какие уточняющие, сравнительные или неявные вопросы могут возникнуть у пользователя или быть сгенерированы ИИ. Ваш контент должен содержать ответы на эти потенциальные подзапросы.
          5. Определите цель каждого фрагмента: Четко понимайте, какую роль выполняет каждый блок текста: это информативный ответ, объяснение термина, сравнительный анализ, экспертное мнение? Логически структурируйте и, по возможности, обозначайте это.
          6. Соответствие E-E-A-T: Убедитесь, что контент демонстрирует опыт, экспертность, авторитетность и надежность. Это особенно важно для YMYL-ниш.
          7. Техническая чистота: Базовая техническая оптимизация (индексация, скорость загрузки, мобильная адаптивность) остается важной, поскольку AI Mode все еще извлекает информацию из индекса.

          Где отслеживать новые метрики для SEO и какие инструменты использовать?

          В эпоху генеративного поиска традиционные SEO-инструменты адаптируются, но возникает потребность в новых решениях, ориентированных на AI Mode. Вот инструменты, которые стоит отслеживать и использовать:

          Инструменты, которые уже эволюционируют / показывают потенциал:

          Дополнительные инструменты и подходы, выходящие за пределы традиционного SEO:

          Адаптация к новой реальности поиска потребует от SEO-специалистов не только обновления знаний, но и освоения новых инструментов и подходов к анализу данных.

          Готовы получить продающий сайт / рекламу / брендинг?
          • Прогнозируемые
          • Системные
          • Стабильные
          Продажи
          через Интернет
          Контакты
          Язык
          Заказать звонок
          Заказать предложение