Различия

Здесь показаны различия между выбранной ревизией и текущей версией данной страницы.

Ссылка на это сравнение

дубликаты [2012/11/30 04:43]
donc [Борьба с дубликатами]
дубликаты [2012/11/30 04:49] (текущий)
donc [Борьба с дубликатами]
Строка 30: Строка 30:
 Если не используется [[псевдостатические-ссылки|псевдостатика]], или используется, но есть ссылки с GET-параметрами, необходимо обеспечить одинаковый порядок следования параметров в ссылках. Также очень желательно отсутствие пустых параметров и проверка на незначимые (излишние) параметры. Залог успеха в борьбе с дубликатами --- хорошая обработка ошибок в URI. По любой "битой" ссылке движок должен отдавать в заголовке статус [[ошибки-клиента#not-found|404 Not Found]]. Если не используется [[псевдостатические-ссылки|псевдостатика]], или используется, но есть ссылки с GET-параметрами, необходимо обеспечить одинаковый порядок следования параметров в ссылках. Также очень желательно отсутствие пустых параметров и проверка на незначимые (излишние) параметры. Залог успеха в борьбе с дубликатами --- хорошая обработка ошибок в URI. По любой "битой" ссылке движок должен отдавать в заголовке статус [[ошибки-клиента#not-found|404 Not Found]].
  
-Появления в индексе нечетких дубликатов можно избежать, тщательно продумывая ссылочную структуру сайта --- опять-таки на уровне движка. Необходимо исключить индексирование страниц поиска по сайту, различных вариантов сортировки (товаров, объявлений, статей... в общем, любых списков, которые вы собираетесь выдавать в отсортированном виде). Также исключается индексирование различных видов фильтрации товаров (например, по типу и по бренду). Здесь есть два приемлемых варианта: либо [[канонизация]]((О теге canonical http://support.google.com/webmasters/bin/answer.py?hl=ru&answer=139394)) URL, либо мета-тег robots с директивой "noindex,follow". У любого списка (товаров, статей) должен индексироваться только один вариант выдачи. То есть, если товары можно отсортировать по параметрам, и при этом в URL появляется довесок (например ?FILTER[PFROM]=23) - эти страницы в индекс попадать не должны.+Появления в индексе нечетких дубликатов можно избежать, тщательно продумывая ссылочную структуру сайта --- опять-таки на уровне движка. Необходимо исключить индексирование страниц поиска по сайту, различных вариантов сортировки (товаров, объявлений, статей... в общем, любых списков, которые вы собираетесь выдавать в отсортированном виде). Также исключается индексирование различных видов фильтрации товаров (например, по типу и по бренду). Здесь есть два приемлемых варианта: либо [[канонизация]]((О теге canonical http://support.google.com/webmasters/bin/answer.py?hl=ru&answer=139394)) URL, либо мета-тег robots с директивой "noindex,follow". У любого списка (товаров, статей) должен индексироваться только один вариант выдачи. То есть, если товары можно отсортировать по параметрам, и при этом в URL появляется довесок (например из [[1c-bitrix|1c-bitrix]]: ?FILTER[PFROM]=23) - эти страницы в индекс попадать не должны.
  
 Обсудить [[http://webimho.ru/topic/1626/|canonical на форуме]] Обсудить [[http://webimho.ru/topic/1626/|canonical на форуме]]
дубликаты.txt · создано: 2012/02/19 00:45 — Zanuda · Последние изменения: 2012/11/30 04:49 — donc
Наверх
Driven by DokuWiki