Что влияет на позиции в google 2024
Разбор документов гугл. Что на самом деле влияет на позиции сайта в поиске? Как поднять свой сайт в поиске и не попасть под ограничения поисковика
Разбор документов гугл. Что на самом деле влияет на позиции сайта в поиске? Как поднять свой сайт в поиске и не попасть под ограничения поисковика
Здравствуйте дорогие друзья! Сегодня расскажем, что на самом деле влияет на продвижение сайтов в гугл. Мы разберём утечку алгоритмов ранжирования и алгоритмы поиска Google.
Важно понимать, что произошло: мы получили информацию о принципиальных факторах, и эти функции и переменные не все относятся к ранжированию (сортировке) результатов поиска. Некоторые связаны с индексированием, сканированием, специфическими функциями поиска. Из тех факторов, что мы получили, мы не знаем их веса. Например, реальный вклад этих факторов в ранжирование по определённым запросам, и скорее всего этот вклад меняется от запроса к запросу. Мы не знаем их формул и как они обучены, если они используют машинное обучение для оценки сайтов или ссылок. В принципе, как они обучены, какие переменные учитываются и чему придаётся большее значение, тоже непонятно. Некоторые функции вообще могут ни на что не влиять, или устарели, как указано в описании.
Есть высокая вероятность, что все они используются или использовались на момент слива. У некоторых факторов нет описания, поэтому об их использовании можно судить только исходя из названия. Тип переменных, таких как строки или специфические типы, также может дать подсказку, но местами всё ещё сложно понять значение конкретной переменной.
В общем, функции — это не факторы ранжирования. В файлах их перечислено 2500, но часть функций связаны с надстройками над поиском, например, выводом панели знаний. Например, по запросу “калитки” можно увидеть справа в выдаче Google запись из панели знаний. Будет ли панель знаний выведена, зависит от отдельных функций поиска, и это не является фактором ранжирования.
То есть если у вас возраст вашего сайта не 5 лет, а 20, то эта переменная будет больше, но какого-то преимущества вам это скорее всего не даст. Но если у сайта Host h0, то есть сайт только что создан, то пессимизация от Google всё-таки, скорее всего, будет. Второе — это локальный авторитет в тематике, то есть есть некоторые особо чувствительные тематики, например пандемия COVID-19 и информация, связанная с этим, или выборы в США. У Google есть своя локальная авторитетность для сайтов, по сути, это белые списки сайтов.
Есть переменные, такие как Election Authority, связанные с сайтами про выборы в США и сайтами, которые публикуют контент про пандемию COVID-19. Когда была пандемия, Google выводил уведомления, что информация может не соответствовать действительности, и показывал оригинальные источники информации. Многие вебмастеры делали сайты, посвящённые COVID-19, и меня спрашивали, почему их сайт не присутствует в поиске Google. Причина в том, что Google составляет белые списки сайтов по этой тематике, и если вы не попали в этот список, то сайт не будет отображаться. Аналогично с выборами в США.
Информация о локальных авторитетах была подтверждена антимонопольным разбирательством, и слив также дополнительно это подтвердил. Когда будете изучать данные таблицы, которую Михаил привёл в начале, обратите внимание на всё, что связано с семантикой.
Следующее — Google использует данные о кликах в поиске. Есть модуль Now Boost, который учитывает данные о кликах в поиске Google для пересортировки результатов. Есть модуль Mustang, связанный с ранжированием. Он производит базовую сортировку результатов поиска, а затем модуль Now Boost учитывает данные о кликах и другие данные, чтобы улучшить ранжирование сайтов, основываясь на дополнительной информации.
На самом деле оказалось, что такой показатель есть, потому что существует переменная Site Authority, и очевидно, что это авторитетность сайта. Судя по тому, в каком модуле и функции она используется, эта переменная учитывается при ранжировании сайта.
Там также есть много различных параметров, связанных со ссылками, и она, скорее всего, основывается на ссылках, но, возможно, не только на них. Ещё один интересный момент, который я нашёл, связан с функциями и переменными, которые есть в поиске. Когда я готовил материал, я изучил много различной документации на русском, английском и немецком языках. Люди разбирают информацию и делают догадки, но иногда говорят неточные вещи. Рекомендую относиться к этому скептически и самостоятельно изучать материалы, не придавая чужим мнениям излишней авторитетности.
Первая находка: источники быстрых ссылок бывают разные. Быстрые ссылки — это ссылки внутри сниппета основной страницы, которые ведут на другие страницы или блоки внутри страницы. Например, если это статья, то ссылки могут быть из оглавления на различные блоки. Эти ссылки могут взяться из вложенных страниц раздела или хлебных крошек.
Google смотрит внутренние страницы, вложенные в раздел, и проверяет, есть ли в хлебных крошках название этого раздела. Если так, то эта ссылка выводится в быстрых ссылках сниппета раздела.
Функция используется для анализа текста и проверки релевантности, а также позволяет парсить, то есть извлекать важные элементы с вашей страницы для дальнейшего отображения в сниппетах. Например, я запускал курс и написал дату старта просто текстом на странице, и Google вывел эту дату в сниппете, хотя она нигде не была размечена. Это благодаря функционалу, который позволяет Google извлекать данные о времени ответа, событиях (например, старт продаж устройства или курса), примечаниях к цене и ограничениях (например, “только от 1000 руб”). Google запоминает и анализирует эти данные.
Если, например, у вас на сайте указано, что больше нет мест в гостинице или только два свободных номера, Google может проанализировать и учитывать это при ранжировании. Он также извлекает денежные суммы и анализирует упоминания брендов, торговцев или товаров по коммерческим запросам.
Существует некоторое снижение веса для нетематических ссылок. Переменная “Anchor Miss Match Demotion” снижает эффективность ссылок при несоответствии тематики сайта донора и акцептора. Если, например, на сайте администрации есть ссылка на ваш стартап, который никак с ним не связан, вес такой ссылки будет снижен.
Также Google учитывает контекст рядом с анкором ссылки. Если, например, в абзаце, где стоит ссылка, упомянуть ключевые термины, по которым продвигается ваша страница, это будет более естественно и эффективно. Такие ссылки считаются менее рисковыми и помогают продвижению.
Существуют переменные, определяющие класс индексации страницы, с которой ставится ссылка, например, homepage info. Она относится к модулю, отвечающему за показатели внешних ссылок и определяет, является ли источником ссылки главная страница другого сайта. Есть несколько параметров, например, полное доверие к главной странице, частичное доверие или отсутствие доверия. Ссылки с главных страниц с полным доверием считаются более ценными
Максимальный эффект от ссылки учитывается, если сайт тематически совпадает с темой ссылки. Существуют переменные Ping и Site, которые выводят рассчитанный вектор тематики для страницы и сайта. Также есть интересные переменные, такие как Site Focus Score — число, отражающее, насколько сайт ориентирован на одну тему, и Site Radius — число, показывающее, насколько тематический вектор сайта отклонён от страницы, на которой стоит ссылка.
Если разместить ссылку на сайте, который посвящён одной теме, на статью, не связанную с основной тематикой сайта, эта ссылка скорее всего не будет работать, так как тематический вектор статьи не совпадает с тематическим вектором сайта. Также у Google есть внутренний архив версий страниц, переменная URL History хранит историю изменений контента на странице, до 20 последних изменений.
Если вы хотите что-то скрыть от Google, после внесения изменений на страницу, нужно 20 раз изменить контент и отправить изменения Google, чтобы он удалил старую версию.
Кроме того, разнообразие присутствует в поиске Google и влияет на ранжирование сайтов. В целом, данные переменные показывают, насколько сайт ориентирован на одну тему и насколько ссылки соответствуют общей тематике.
Новичкам, конечно, стоит использовать весь этот массив информации. Это должно стать своего рода “библией” для них, чтобы понять, как работает ранжирование в Google. Одно дело, когда информация проходит через несколько рук, а другое — когда изучаешь оригинальные данные. Важно читать оригинал, а не полагаться на выжимки, которые могут искажать смысл.
Для меня в своё время стало большим скачком, когда я подал заявку работать в качестве асессора Яндекса и изучил их инструкции. Это дало мне большое понимание, как оцениваются сайты. Поэтому рекомендую новичкам выделить время на изучение оригиналов и использовать эти знания в работе.
Ещё один момент: доверять представителям поисковых систем можно, но с оговорками. Когда, например, был Мэт Катс вместо Джона Мюллера, даже он иногда давал некорректные данные. Важно понимать, что многие советы от представителей поисковых систем могут ограничивать продвижение и направлены на создание более “белого” SEO.
Поэтому, хотя 90% информации от Google достоверна, всё же стоит опираться на оригинальные документы, опыт, аналитику экспертов и оригинальные данные, такие как слив факторов
В целом представители поисковых систем на 90% дают хорошую информацию. Например, в Яндексе Михаил Сливинский очень хорошо объясняет информацию, также у него есть Telegram-канал. Они регулярно проводят трансляции, как и Google, включая разные языки, такие как японский. На 80-90% информация от Google достоверна, особенно для новичков. Однако полностью достоверной является только оригинальная документация.
Если говорить о сливе данных Яндекса и Google, то их можно сравнить. Поисковые системы имеют разные подходы к одной и той же задаче. Например, если есть базовый запрос, который никто не вводил ранее, то Яндекс и Google по-разному подходят к тому, какие данные предложить пользователю. Обе системы используют кликовые данные и показы по запросу, но с некоторыми различиями в подходах.
У Яндекса больше региональных факторов и разбивок по регионам. Google ориентирован на глобальный рынок и имеет меньше таких факторов, поскольку им нужны универсальные алгоритмы, которые работают на разных языках и во всех регионах. В Яндексе больше внимания уделяется коммерческим сайтам, а Google уделяет больше внимания ссылкам.
Что касается накрутки поведенческих факторов в Google после слива, то, скорее всего, те, кто этим занимался, продолжают это делать. Однако Google как сложная инженерная система хорошо определяет источники и реальных пользователей. В отличие от Яндекса, Google не даст резкий подъем по каким-то запросам только за счёт накрутки поведенческих факторов, потому что он учитывает множество других факторов, таких как ссылочные и сторонние.
Для перераспределения результатов учитываются не только поведенческие факторы, но и сторонние показатели. Поэтому накручивать поведенческие факторы в Google я не рекомендую. Можно, конечно, поиграться с этим, но лучше всего заниматься наращиванием ссылочной массы. Это более эффективно по вложениям, чем накрутка поведенческих факторов.
Кроме того, важно правильно накручивать, чтобы не свести всё в ноль. Если ваши действия не вызывают доверия и не похожи на реальные, Google просто не будет учитывать ваши данные. Модули для накрутки часто работают на движке Google, и Google может анализировать эти действия. Поэтому стоит уделить внимание покупке качественных ссылок.
Что касается изменения ранжирования в зависимости от тематики, были факторы, которые учитывали тематику сайта и тематику, связанную с ссылками. Очевидно, что эти факторы оказывают влияние, но насколько оно велико — сложно сказать, поскольку не были предоставлены веса факторов.
Если у вас есть падение трафика, стоит внимательно посмотреть, что происходило на сайте, кто выигрывает в поиске, а кто проигрывает, какие страницы теряют трафик. Возможно, вы что-то меняли на сайте 2-3 месяца назад, и Google постепенно снизил позиции. Если это небольшие изменения, Google обычно не обрывает трафик сразу, а наблюдает некоторое время, и спустя несколько месяцев можно увидеть снижение
Мне очень понравились факторы, связанные с ковидом и выборами. Белые списки сайтов для меня — это что-то действительно взрывающее мозг. Я ещё год назад предполагал, что с ростом контента, создаваемого нейросетями, сайтов и страниц станет в сотни и тысячи раз больше, и Google нет смысла тратить огромные деньги и ресурсы на обработку всей этой информации для ранжирования. Я предположил, что Google будет использовать подход с белыми списками: сначала будет выводить сайты с полным авторитетом, затем — сайты из белого списка, и только потом остальные сайты.
Примерно 90% всех остальных сайтов — это серая база. Они индексируются и ранжируются в последнюю очередь. Именно поэтому возникает проблема со сканированием и индексацией новых сайтов: раньше, 10-15 лет назад, новый сайт добавлялся в индекс автоматически за день-два, а сейчас на это требуется гораздо больше времени.
Наша задача как SEO-специалистов — сделать так, чтобы продвигаемые сайты попадали в золотые и белые списки. Это непросто и требует большого количества хороших ссылок. Также важно, чтобы контент на сайте соответствовал усилиям, потраченным на его создание, и проходил базовую проверку качества.
На сегодня у нас все. В процессе подготовка второй части материала. Оставайтесь с нами!
+7 937 075 53 42
info@b2b-context.ru
Будни: 10:00 - 18:00
Свяжитесь с нами и мы составим для вас план развития проекта, а так же поможем с выбором специалистов