Google рассказал о тонкостях работы со ссылочной массой - «Интернет»
«Момент, которого вы так долго ждали»: создатели Pioner открыли запись на закрытую «бету», но зарегистрироваться не так уж и просто - «Новости сети»
«Момент, которого вы так долго ждали»: создатели Pioner открыли запись на закрытую «бету», но зарегистрироваться не так уж и просто - «Новости сети»
Соцсеть X обновила принцип блокировки пользователей — многим это не понравилось - «Новости сети»
Соцсеть X обновила принцип блокировки пользователей — многим это не понравилось - «Новости сети»
Обновлённый PC Manager очистит диск от мусора с помощью нового алгоритма и не только - «Новости сети»
Обновлённый PC Manager очистит диск от мусора с помощью нового алгоритма и не только - «Новости сети»
На фоне надвигающегося сиквела продажи Kingdom Come: Deliverance взяли новую высоту - «Новости сети»
На фоне надвигающегося сиквела продажи Kingdom Come: Deliverance взяли новую высоту - «Новости сети»
Дебютировал электрический кроссовер Zeekr X 2025 — автономность на 420 км и 268 л.с. всего за $21 050 - «Новости сети»
Дебютировал электрический кроссовер Zeekr X 2025 — автономность на 420 км и 268 л.с. всего за $21 050 - «Новости сети»
Теперь клиники могут отвечать на отзывы пользователей о врачах — «Блог для вебмастеров»
Теперь клиники могут отвечать на отзывы пользователей о врачах — «Блог для вебмастеров»
Создан порошок с рекордным уровнем поглощения CO2 из воздуха - «Новости сети»
Создан порошок с рекордным уровнем поглощения CO2 из воздуха - «Новости сети»
Криптовалюты упали после сообщения о расследовании возможных нарушений при использовании Tether - «Новости сети»
Криптовалюты упали после сообщения о расследовании возможных нарушений при использовании Tether - «Новости сети»
Обнаружена уязвимость Windows, позволяющая откатывать обновления безопасности - «Новости сети»
Обнаружена уязвимость Windows, позволяющая откатывать обновления безопасности - «Новости сети»
Тайным получателем чипов TSMC для Huawei оказалась компания, связанная с китайской Bitmain - «Новости сети»
Тайным получателем чипов TSMC для Huawei оказалась компания, связанная с китайской Bitmain - «Новости сети»
Новости мира Интернет » Новости » Новости мира Интернет » Google рассказал о тонкостях работы со ссылочной массой - «Интернет»

Google более подробно разъяснил вебмастерам «тонкости» работы своей поисковой системы. Представитель компании сообщил, что Googlebot не видит ссылки, которые активируются при наведении курсора. А также о том, что удаление значительной части содержимого файла Disavow не приведет к понижению позиций ресурса в поисковой выдаче.

Во время очередной видеоконференции с вебмастерами Джон Мюллер, сотрудник отдела качества поиска компании Google, сообщил, что Googlebot при анализе содержимого сайта не может правильно идентифицировать те ссылки, которые активируются при наведении курсора мыши.

Было отмечено, что ссылки, «спрятанные» от копирования с помощью программного года JQuery, распознаются поисковым роботом так же, как браузером: он их не видит. Это не самый лучший способ защитить ссылки от воровства (автоматического копирования другими ресурсами). Использование jQuery для их «маскировки» может привести к более серьезным проблемам, чем воровство контента, и негативно отразится на позиции ресурса в поисковой выдаче Google.

Также не стоит забывать, что это не единственное известное «ограничение» краулера Google. Напомним, что поисковый робот не может распознавать медленно загружающийся контент на мобильных и «полновесных» версиях сайтов.


Кроме того один из вебмастеров спросил о том, может ли массовое удаление ссылок из файла Disavow (более 1000 URL-адресов и доменов) расцениваться поисковой системой Google как «спамное» действие, если они были ошибочно добавлены более 6 месяцев назад.

В ответ на это было заявлено, что массовое удаление ссылок не приведет к «негативным» воздействиям со стороны поисковой системы.

Редактирование файла приведет лишь к техническим изменениям сайта, поэтому едва ли вызовет «наложение на ресурс ручных санкций».

Вместе с тем было отмечено, что любой вебмастер должен четко понимать, что удаляя ссылки из файла Disavow, он дает понять поисковой системе, какие URL-адреса ей следует учитывать при очередном сканировании ресурса. Негативно повлиять на рейтинг сайта может лишь удаление из этого файла ссылок на «низкокачественные» ресурсы. Поэтому к редактированию содержимого файла Disavow следует относиться весьма серьезно, чтобы собственноручно «не пошатнуть» позиции своего сайта в поисковой выдаче Google.

Также не стоит забывать, что максимальный размер этого файла не может превышать 2 мегабайт. И о том, что функция Disavow Links не действует на все домены, привязанные к определенному IP. Поэтому инструмент отклонит только те входящие ссылки, в href которых прописан адрес веб-страницы, хранящейся на указанном IP.


Google более подробно разъяснил вебмастерам «тонкости» работы своей поисковой системы. Представитель компании сообщил, что Googlebot не видит ссылки, которые активируются при наведении курсора. А также о том, что удаление значительной части содержимого файла Disavow не приведет к понижению позиций ресурса в поисковой выдаче. Во время очередной видеоконференции с вебмастерами Джон Мюллер, сотрудник отдела качества поиска компании Google, сообщил, что Googlebot при анализе содержимого сайта не может правильно идентифицировать те ссылки, которые активируются при наведении курсора мыши. Было отмечено, что ссылки, «спрятанные» от копирования с помощью программного года JQuery, распознаются поисковым роботом так же, как браузером: он их не видит. Это не самый лучший способ защитить ссылки от воровства (автоматического копирования другими ресурсами). Использование jQuery для их «маскировки» может привести к более серьезным проблемам, чем воровство контента, и негативно отразится на позиции ресурса в поисковой выдаче Google. Также не стоит забывать, что это не единственное известное «ограничение» краулера Google. Напомним, что поисковый робот не может распознавать медленно загружающийся контент на мобильных и «полновесных» версиях сайтов. Кроме того один из вебмастеров спросил о том, может ли массовое удаление ссылок из файла Disavow (более 1000 URL-адресов и доменов) расцениваться поисковой системой Google как «спамное» действие, если они были ошибочно добавлены более 6 месяцев назад. В ответ на это было заявлено, что массовое удаление ссылок не приведет к «негативным» воздействиям со стороны поисковой системы. Редактирование файла приведет лишь к техническим изменениям сайта, поэтому едва ли вызовет «наложение на ресурс ручных санкций». Вместе с тем было отмечено, что любой вебмастер должен четко понимать, что удаляя ссылки из файла Disavow, он дает понять поисковой системе, какие URL-адреса ей следует учитывать при очередном сканировании ресурса. Негативно повлиять на рейтинг сайта может лишь удаление из этого файла ссылок на «низкокачественные» ресурсы. Поэтому к редактированию содержимого файла Disavow следует относиться весьма серьезно, чтобы собственноручно «не пошатнуть» позиции своего сайта в поисковой выдаче Google. Также не стоит забывать, что максимальный размер этого файла не может превышать 2 мегабайт. И о том, что функция Disavow Links не действует на все домены, привязанные к определенному IP. Поэтому инструмент отклонит только те входящие ссылки, в href которых прописан адрес веб-страницы, хранящейся на указанном IP.

запостил(а)
Fleming
Вернуться назад
0

Смотрите также

А что там на главной? )))



Комментарии )))