Мэтт Каттс о главном

Недавно Мэтт Каттс зашел в гости парням из сеомоза и дал им интересное интервью. Парни не растерялись, сняли происходящее на камеру и выложили ролик  в своем блоге, снабдив его развернутой аннотацией в формате «вопрос—ответ». Мы, свою очередь, предлагаем свою выдержку из этого поста, содержащую только то, что непосредственно относится к делу.

Спешите узнать, что думает Мэтт Каттс о порнухе, http-заголовках, последовательных редиректах и прочих интересных штуковинах.

Стоит ли вебмастерам использовать HTTP-заголовки If-Modified-Since?

HTTP-заголовки If-Modified-Since позволяют самостоятельно сообщить Гуглу, меняли вы содержимое страницы, или нет. По словам Мэтта, поддержка опции была внедрена в 2003 г., когда проблема недостаточной ширины каналов стояла довольно остро. Сегодня важность HTTP-заголовков во многом сошла на нет. Мэтт по-прежнему считает их использование полезной и правильной практикой, однако замечает, что она вовсе не обязательно приведет к более оперативному краулингу вашего сайта.

Нужно ли отдавать статус-код 503 в случае даунтайма?

Статус-код 503 помогает избежать нежелательного индексирования тех страниц, которые в данный момент плохо работают или находятся в процессе восстановления. Индексирование таких документов может принести немало вреда, особенно в случае больших и популярных сайтов (Рэнд приводит сайт компании Диснея как пример типичной жертвы). Чтобы обезопасить себя от подобных потерь, Мэтт советует использовать код 503.  Вы не сможете указать Гуглу желаемое время повторного краулинга, однако рано или поздно робот вернется, при этом он не будет индексировать страницу до тех пор, пока она не будет к этому готова.

Влияет ли количество исходящих ссылок на PageRank?

Допустим я хочу минимизировать потери ссылочного веса и/или отдавать вес по возможности более мелкими порциями. Существует ли разница между двумя и тремя исходящими ссылками, размещенными на странице? В изначальной формуле расчета PageRank разница бы присутствовала — в ней отдаваемый вес равнялся сквозному PR (Passable PR), поделенному на количество исходящих ссылок, — однако сейчас для расчета PR применяются куда более сложные алгоритмы, включающие в себя множество хитрых циклов и итераций. Мэтт утверждает, что «на самом деле разница гораздо меньше, чем принято думать». Вообще не стоит пытаться запереть весь ссылочный вес на одной странице. Более того, вы можете даже выиграть за счет добавления внешних ссылок.

Роботы гугла видят триллион адресов. Какие страницы привлекут их внимание?
Поскольку краулеры двигаются в соответствии с приоритетом PageRank, они в попадают в первую очередь на на  «лучшие» страницы и избегают значительной части малоценного мусора. Главная проблема здесь — отсев дублированного и прежде забаненного контента. Мэтт говорит, что 28% всех найденных в сети материалов оказываются копиями. Он также четко разграничивает понятия «качественного» и «популярного» контента и впоследствии поясняет, что траффик сам по себе не является значимым фактором ранжирования: «PR не является показателем популярности, хотя бы потому, что порно крайне популярно, однако никто на него не ссылкается.  PR [порно-сайтов] значительно ниже того значения, которое мы могли бы прогнозировать, исходя из их фактической посещаемости».

Насколько важен закрывающий знак / в url-адресах?
Мелочь, но все-таки: адреса какого типа — url.com/folder или url.com/folder/ — вы используете? Мэтт настоятельно рекомендует ставить закрывающий слеш. Просто потому, что слеш однозначно указывает — перед нами адрес папки, а не адрес документа. При этом Гугл и сам прекрасно отличает одно от другого, поэтому в целом момент следует считать несущественным.

Краулит ли Гугл с разных географических точек?
Стоит ли мне отдавать пользователю специфический контент, предназначенный для конкретной географической местности, основываясь на IP пользователя? Вопрос крайне актуален для сеошников, опекающих большие сайты с многонациональным составом пользователей. Если вы-таки показываете гео-привязанный контент, что именно будет видеть Гугл и как это отразится на ранжировании?

Мэтт подтверждает, что «Гугл собирает данные по всему миру с одного IP, т.к. его индекс является общим для всего мира. Компания не создает отдельный индекс для каждой отдельной страны.»

Следовательно, ситуации, когда пользователям из разных стран показывается сильно различный контент, необходимо избегать. Мэтт говорит: «проблема в том, что если вы начинаете отображать разные тексты разным категориям пользователям (к примеру, французский контент для пользователей с французскими IP), гуглбот может этого не увидеть».

Рекомендация такова: сперва стоит посылать всем пользователям более или менее одинаковый контент, при этом надо позволить им самостоятельно перейти в нужный языковой раздел сайта. Хотя Гугл значительно продвинулся в обработке выпадающих списков, джава-скриптов и т.п., мы настоятельно рекомендуем использовать для навигации между языковыми разделами обычные статические ссылки.

Цепочки из редиректов (например 301–>301–>301) это плохо?

«Да, плохо.»

По словам Мэтта, Google способен успешно обработать один, максимум два редиректа. Цепочка из трех редиректов будет уже явным перебором — дальше бот скорее всего уже не проследует. Мэтт также напомнил, что 302-е редиректы должны использоваться только для временного перенаправления. Впрочем, это вы и сами наверняка знаете.

Источник: www.seomoz.org/blog/whiteboard-interview-googles-matt-cutts-on-redirects-trust-more

Добавить комментарий