Google рассказал о тонкостях работы со ссылочной массой - «Интернет»
Меню
Наши новости
Учебник CSS

Невозможно отучить людей изучать самые ненужные предметы.

Введение в CSS
Преимущества стилей
Добавления стилей
Типы носителей
Базовый синтаксис
Значения стилевых свойств
Селекторы тегов
Классы
CSS3

Надо знать обо всем понемножку, но все о немногом.

Идентификаторы
Контекстные селекторы
Соседние селекторы
Дочерние селекторы
Селекторы атрибутов
Универсальный селектор
Псевдоклассы
Псевдоэлементы

Кто умеет, тот делает. Кто не умеет, тот учит. Кто не умеет учить - становится деканом. (Т. Мартин)

Группирование
Наследование
Каскадирование
Валидация
Идентификаторы и классы
Написание эффективного кода

Самоучитель CSS

Вёрстка
Изображения
Текст
Цвет
Линии и рамки
Углы
Списки
Ссылки
Дизайны сайтов
Формы
Таблицы
CSS3
HTML5

Новости

Блог для вебмастеров
Новости мира Интернет
Сайтостроение
Ремонт и советы
Все новости

Справочник CSS

Справочник от А до Я
HTML, CSS, JavaScript

Афоризмы

Афоризмы о учёбе
Статьи об афоризмах
Все Афоризмы

Видео Уроки


Наш опрос



Наши новости

       
4-01-2016, 20:20
Google рассказал о тонкостях работы со ссылочной массой - «Интернет»
Рейтинг:

Google более подробно разъяснил вебмастерам «тонкости» работы своей поисковой системы. Представитель компании сообщил, что Googlebot не видит ссылки, которые активируются при наведении курсора. А также о том, что удаление значительной части содержимого файла Disavow не приведет к понижению позиций ресурса в поисковой выдаче.

Во время очередной видеоконференции с вебмастерами Джон Мюллер, сотрудник отдела качества поиска компании Google, сообщил, что Googlebot при анализе содержимого сайта не может правильно идентифицировать те ссылки, которые активируются при наведении курсора мыши.

Было отмечено, что ссылки, «спрятанные» от копирования с помощью программного года JQuery, распознаются поисковым роботом так же, как браузером: он их не видит. Это не самый лучший способ защитить ссылки от воровства (автоматического копирования другими ресурсами). Использование jQuery для их «маскировки» может привести к более серьезным проблемам, чем воровство контента, и негативно отразится на позиции ресурса в поисковой выдаче Google.

Также не стоит забывать, что это не единственное известное «ограничение» краулера Google. Напомним, что поисковый робот не может распознавать медленно загружающийся контент на мобильных и «полновесных» версиях сайтов.


Кроме того один из вебмастеров спросил о том, может ли массовое удаление ссылок из файла Disavow (более 1000 URL-адресов и доменов) расцениваться поисковой системой Google как «спамное» действие, если они были ошибочно добавлены более 6 месяцев назад.

В ответ на это было заявлено, что массовое удаление ссылок не приведет к «негативным» воздействиям со стороны поисковой системы.

Редактирование файла приведет лишь к техническим изменениям сайта, поэтому едва ли вызовет «наложение на ресурс ручных санкций».

Вместе с тем было отмечено, что любой вебмастер должен четко понимать, что удаляя ссылки из файла Disavow, он дает понять поисковой системе, какие URL-адреса ей следует учитывать при очередном сканировании ресурса. Негативно повлиять на рейтинг сайта может лишь удаление из этого файла ссылок на «низкокачественные» ресурсы. Поэтому к редактированию содержимого файла Disavow следует относиться весьма серьезно, чтобы собственноручно «не пошатнуть» позиции своего сайта в поисковой выдаче Google.

Также не стоит забывать, что максимальный размер этого файла не может превышать 2 мегабайт. И о том, что функция Disavow Links не действует на все домены, привязанные к определенному IP. Поэтому инструмент отклонит только те входящие ссылки, в href которых прописан адрес веб-страницы, хранящейся на указанном IP.


Google более подробно разъяснил вебмастерам «тонкости» работы своей поисковой системы. Представитель компании сообщил, что Googlebot не видит ссылки, которые активируются при наведении курсора. А также о том, что удаление значительной части содержимого файла Disavow не приведет к понижению позиций ресурса в поисковой выдаче. Во время очередной видеоконференции с вебмастерами Джон Мюллер, сотрудник отдела качества поиска компании Google, сообщил, что Googlebot при анализе содержимого сайта не может правильно идентифицировать те ссылки, которые активируются при наведении курсора мыши. Было отмечено, что ссылки, «спрятанные» от копирования с помощью программного года JQuery, распознаются поисковым роботом так же, как браузером: он их не видит. Это не самый лучший способ защитить ссылки от воровства (автоматического копирования другими ресурсами). Использование jQuery для их «маскировки» может привести к более серьезным проблемам, чем воровство контента, и негативно отразится на позиции ресурса в поисковой выдаче Google. Также не стоит забывать, что это не единственное известное «ограничение» краулера Google. Напомним, что поисковый робот не может распознавать медленно загружающийся контент на мобильных и «полновесных» версиях сайтов. Кроме того один из вебмастеров спросил о том, может ли массовое удаление ссылок из файла Disavow (более 1000 URL-адресов и доменов) расцениваться поисковой системой Google как «спамное» действие, если они были ошибочно добавлены более 6 месяцев назад. В ответ на это было заявлено, что массовое удаление ссылок не приведет к «негативным» воздействиям со стороны поисковой системы. Редактирование файла приведет лишь к техническим изменениям сайта, поэтому едва ли вызовет «наложение на ресурс ручных санкций». Вместе с тем было отмечено, что любой вебмастер должен четко понимать, что удаляя ссылки из файла Disavow, он дает понять поисковой системе, какие URL-адреса ей следует учитывать при очередном сканировании ресурса. Негативно повлиять на рейтинг сайта может лишь удаление из этого файла ссылок на «низкокачественные» ресурсы. Поэтому к редактированию содержимого файла Disavow следует относиться весьма серьезно, чтобы собственноручно «не пошатнуть» позиции своего сайта в поисковой выдаче Google. Также не стоит забывать, что максимальный размер этого файла не может превышать 2 мегабайт. И о том, что функция Disavow Links не действует на все домены, привязанные к определенному IP. Поэтому инструмент отклонит только те входящие ссылки, в href которых прописан адрес веб-страницы, хранящейся на указанном IP.

Теги: CSS, файла поисковой может Disavow ссылки

Просмотров: 987
Комментариев: 0:   4-01-2016, 20:20
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Мы рекомендуем Вам зарегистрироваться либо войти на сайт под своим именем.

 
Еще новости по теме:



Другие новости по теме: