Google советует быть консервативными при создании новых сайтов


Хотя веб-браузеры становятся всё более и более продвинутыми, это не значит, что нужно создавать сайты, используя новейшие функции, поддерживаемые только последними версиями браузеров. Если Googlebot не сможет полностью сканировать и индексировать такой ресурс, то это может негативно отразится на нём с точки зрения поиска. Об этом заявил сотрудник Google Джон Мюллер в Twitter.

«Я бы рекомендовал делать так, чтобы они работали со статус кво, а не ждать более крупных изменений, если вы заботитесь о поиске», — написал он в ответ на вопрос одного из пользователей.

Напомним, ранее в Google заявили, что работают над закрытием разрыва между Googlebot и современными браузерами. Как известно, Googlebot использует устаревшую версию Chrome и не может обрабатывать веб-страницы так же эффективно, как это делают современные браузеры. Особенно, что касается новых JavaScript-фреймворков. Но в будущем эта ситуация должна измениться.

Источник: searchengines.ru


Moz объявил о покупке STAT Search Analytics


Компания-разработчик SEO-инструментов Moz объявила о покупке канадского стартапа STAT Search Analytics. Сумма сделки не раскрывается.

«Объединив SEO-инструменты Moz с экспертизой STAT в области локального поиска и аналитики SERP, мы получим наиболее продвинутое решение для органического поиска в отрасли», — заявила глава Moz Сара Бёрд (Sarah Bird).

Команда STAT подтвердила факт сделки в Twitter, а также опубликовала заявление об этом на своём сайте.

В рамках достигнутых договорённостей бывший глава STAT Роб Буччи (Rob Bucci) занял пост вице-президента по исследованиям и разработкам Moz.

В отрасли сделка между Moz и STAT была воспринята положительно.

Напомним, что компания Moz ранее называлась SEOmoz. В 2013 году SEOmoz переименовалась в Moz, сменила домен и запустила новые продукты. Позже, в 2016 году, компания сократила линейку своих услуг и сосредоточилась на SEO-инструментах.

Источник: searchengines.ru


Google меняет оформление панелей знаний для компаний


Западные вебмастера заметили, что Google меняет оформление панели выдачи Сети знаний для компаний, и это может негативно влиять на их трафик.

Первое изменение было запущено на прошлой неделе. Google передвинул блок «От компании…» (Posts on Google) из центра панели вниз.

Теперь в той части SERP, которая видна без прокрутки, этот блок отсутствует:

По мнению специалистов отрасли, это изменение может приводить к снижению трафика из этих записей, поскольку их видимость уменьшилась:

Anyone notice a drop in GMB Post traffic? I believe it is because Google has pushed the post below the top three reviews when it used to be below the address section… @JoyanneHawkins@mblumenthal @keyserholiday

— Nate Somsen (@somsenater) October 2, 2018

На этой неделе западные специалисты заметили новый тест, который, вероятно, ещё больше сократит переходы из панелей знаний. На этот раз Google переместил блок «Похожие запросы» из нижней части панели в топ поисковой выдачи по брендовым запросам: Данный тест был впервые замечен канадским SEO-специалистом Сергеем Алаковым в мае. По мнению Сергея, сейчас Google или расширяет масштаб тестирования, или же начинает запуск этого изменения.

В поисковой выдаче Google.com.ua блок «Похожие запросы» по-прежнему расположен внизу панели выдачи Сети знаний:

Как отмечает эксперт по локальному поиску Майк Блюменталь (Mike Blumenthal), Google может минимизировать брендовый трафик, чтобы увеличить глубину и разнообразие поисковых запросов, которые начинаются с брендовых поисков, а также чтобы освободить пространство на локальных панелях для большего количества рекламы.

Источник: searchengines.ru

Google: создание качественных ссылок является нарушением рекомендаций для вебмастеров


Google рассматривает «создание качественных ссылок» как нарушение рекомендаций для вебмастеров. Об этом заявил сотрудник поиска Джон Мюллер в обсуждении на форуме Google Webmaster Help.

Один из пользователей форума задал следующий вопрос:

«У меня есть сайт abc.com и отдельный поддомен blog.abc.com. Если я создам несколько качественных ссылок для blog.abc.com, повысит ли это авторитетность корневого домена (abc.com) или же только поддомена?».

Ответ, который Джон Мюллер отметил как «лучший», выглядел так:

«Google не учитывает авторитетность домена (DA). Это гипотетическое значение, присваиваемое определённым инструментом. Если вы хотите создать ссылки, чтобы повлиять на ранжирование в поиске, то это принесёт больше вреда, чем пользы.

Согласно Google: “Ссылки, предназначенные для изменения показателя PageRank или позиции сайта в результатах поиска Google, могут считаться частью схемы обмена ссылками и нарушением рекомендаций Google для вебмастеров”.

Сделайте ваш контент достойным, чтобы вы могли получить естественные ссылки, а не создавали их. Помните о ссылочных схемах, которые нарушают рекомендации Google для вебмастеров».

Мюллер в свою очередь добавил:

«Если вы создаёте качественные ссылки на свой сайт, то это может рассматриваться как нарушение рекомендаций для вебмастеров, и тем самым эти ссылки определённо не будут считаться “качественными”».


Таким образом, Google хочет видеть естественные ссылки, которые не нужно специально зарабатывать и «создавать». В противном случае ссылки могут рассматриваться как искусственные.


Источник: searchengines.ru


Google опубликовал руководство по динамическому рендерингу


Google опубликовал справочное руководство по динамическому рендерингу – новой технологии, которая призвана облегчить сканирование, индексирование и ранжирование JavaScript-страниц.

If you have heard @johnmu mention dynamic rendering at I/O and wonder what it is, when to use it and how to solve common issues, we’ve got you covered with the new 

Get started with dynamic rendering» docs at https://t.co/e4pmAlMBqP 
 pic.twitter.com/MXhigsZPQx

— Google Webmasters (@googlewmc) 3 октября 2018 г.

Динамический рендеринг состоит в переключении между контентом, обрабатываемым на стороне клиента (client-side rendered), и предварительно обработанным контентом (pre-rendered) для определённых агентов пользователя.

Это значит, что с помощью динамического рендеринга можно предоставлять Google HTML-версию страницы, при этом пользователю показывая JavaScript-версию.

В новом руководстве рассказывается, в каких случаях следует использовать Dynamic Rendering и как его внедрить.

Кому нужно это решение

Согласно Google, в настоящее время поисковым системам сложно обрабатывать JavaScript и не все краулеры способны выполнить эту задачу сразу и успешно. В компании полагают, что в конечном итоге эта проблема будет устранена, но на данный момент рекомендуется использовать как рабочее решение динамический рендеринг. То есть, динамический рендеринг относится к той же категории, что и схема сканирования AJAX, которая уже переведена в разряд устаревшей.

При этом в Google отмечают, что динамический рендеринг нужен не всем сайтам. Это решение предназначено для тех страниц, чей контент резко меняется или же использует JS-функции, которые пока не поддерживаются теми краулерами, которые интересуют владельца сайта.

Как работает динамический рендеринг

Это решение требует, чтобы веб-сервер определял краулеров (например, проверяя агента пользователя). Запросы от краулеров передаются рендереру, а запросы от пользователей обрабатываются в обычном режиме. Когда необходимо, динамический рендерер предоставляет ту версию контента, которая подходит для определённого краулера. Например, это может быть статическая HTML-версия.


Динамический рендеринг можно включить для всех страниц или же на постраничной основе.

Пошаговые инструкции по внедрению этого решения (на английском языке) можно найти в этом разделе документации.

Напомним, что Google впервые рассказал о динамическом рендеринге на конференции I/O в мае этого года.


Источник: searchengines.ru


Джон Мюллер о сентябрьских обновлениях алгоритма Google




Во время последней видеовстречи для вебмастеров сотрудник Google Джон Мюллерответил на вопросы касательно сентябрьских обновлений поискового алгоритма, включая апдейт от 27 сентября.

В целом, по словам Мюллера, эти обновления относятся к регулярным апдейтам алгоритма и ничего конкретного для того, чтобы сайт ранжировался лучше, делать не нужно. Важно повышать качество ресурса в целом и продолжать работать над его улучшением.

«Что касается недавних обновлений алгоритма. Я имею в виду конец сентября и примерно его начало. Это, по сути, обычные обновления алгоритма. Это не та ситуация, когда я бы советовал вам смотреть на какие-то уникальные и конкретные моменты. Это необходимые изменения, призванные адаптировать наши алгоритмы к тому, что происходит в экосистеме. Чтобы лучше понимать, что релевантно, немного лучше понимать сайты и убедиться, что мы предоставляем релевантные результаты пользователям. Иногда мы видим, что с течением времени эти вещи требуют изменений. И это не значит, что менее видимые сайты являются плохими. Это лишь признак того, что со временем всё немного меняется».

18:41:

«С этими обновлениями не связано ничего специфичного, чтобы мы могли сказать, что вам нужно сосредоточить своё внимание на определённом метатеге или виде контента… В большинстве своём эти обновления – это обычные апдейты, связанные с релевантностью результатов поиска».

20:23:

«Я не могу посоветовать ничего конкретного. Это вопрос о том, чтобы сделать шаг назад и подумать о том, что бы вы могли сделать, чтобы улучшить сайт в целом». 

Мюллер также принял участие в обсуждении на тему обновления от 27 сентября на Reddit. Пользователь под ником deyterkourjerbs задал ему следующий вопрос:

«У нас есть сайт, который наращивал трафик месяц за месяцем до 1 августа, когда он подскочил на 20-25%. 27 сентября трафик упал на 75% (в фармацевтической отрасли). Могли бы вы что-то посоветовать?».

Мюллер (johnmu) ответил так:

«Всё меняется, это нормально для такой динамической экосистемы как интернет. Не существует такого метатега или HTML-тега, который бы предотвратил изменения, и эти изменения не означают, что ваш сайт плохой. Одна из идей может заключаться в том, чтобы сокращать свою зависимость от единого источника трафика и работать над тем, чтобы превращать новых пользователей в повторных посетителей, чтобы увеличивая трафик из одного источника, вы также наращивали количество повторных посещений – это будет увеличивать вашу независимость от первоначального источника трафика».



Источник: searchengines.ru

GoDaddy: 74% взломанных сайтов были атакованы хакерами в SEO-целях




Согласно новому исследованию регистратора доменов GoDaddy, 73,9% взломанных сайтов по всему миру были атакованы хакерами в SEO-целях – для добавления ссылок, новых страниц или же показа совершенно другого ресурса в Google.

«SEO-спам отпугивает клиентов и повышает риск внесения сайта в «чёрный список». Как показывает диаграмма, это любимая тактика среди хакеров, с помощью которой они перенаправляют пользователей на вредоносные ресурсы», — говорится в отчёте.

Несмотря на то, что игнорирование проблем в этой области влечёт за собой серьёзные последствия, лишь 50% владельцев сайтов используют систему мониторинга для отслеживания угроз безопасности.

Анализ более чем 65 тыс. сайтов показал, что только 6500 из них, т.е. 10%, были забанены поисковыми системами. Поэтому полагаться на Google или другие поисковики в вопросе выявления такого рода изменений, возможно, не стоит.

Напомним, что по данным Google, в 2017 году из результатов поиска было удалено более 80% скомпрометированных сайтов.

Источник: searchengines.ru

Google: старайтесь не использовать несколько языков в тегах Title



На днях сотрудник Google Джон Мюллер (John Mueller) ответил в Reddit на вопрос об использовании нескольких языков в теге Title для одной и той же страницы.

По его словам, в заголовках Title желательно использовать один язык для одной страницы. Однако в некоторых регионах может быть оправданным добавление второго языка. Например, в Индии.

«В большинстве случае я бы ориентировался на один язык на страницу (включая Title) – людям нравится заранее знать, что их ожидает. Кроме того, это облегчает ранжирование страницы по релевантным запросам (для поисковых систем). Тем не менее, в некоторых регионах, например, в Индии, добавление английского языка может быть оправданным. Хотя я подозреваю, что вы знаете Индию и своих пользователей лучше, чем я. Если вы не уверены, попробуйте провести A/B-тестирование, но это будет непросто сделать в случае Title, поскольку мы не всегда показываем в точности то, что содержится в HTML», — написал Мюллер.

Таким образом, желательно использовать один язык, но при этом думать о пользователях и анализировать, что может быть полезно для них.

Напомним, ранее стало известно, что изменение порядка слов в Title не влияет на ранжирование в Google.



Источник: searchengines.ru