Meta Robots Tag

Meta Robots Tag для Shop-Script

Эффективный способ удаления страниц из индекса ПС!

6 оценок

Ваш отзыв
Установок
100+
Разработчик

Плагин «Meta Robots Tag» проставляет метатег robots, который поможет эффективно удалить не нужные и дублированные страницы из индекса поисковых систем.

Удаление дублей и некачественных страниц из индекса ПС еще никогда не было так просто и эффективно!

Метатег "robots" — позволяет задавать на уровне страницы настройки, которые определяют, как эта страница будет индексироваться поисковыми роботами, например, запретить или разрешить индексирование страницы, переходить по ссылкам, размещенным на данной странице, для последующей их индексации.

По умолчанию тег robots учитывается поисковыми роботами всегда, в отличии от атрибута rel="canonical", который формирует плагин «Link canonical». Но лучше комбинировать два метода: тег robots и rel=canonical, так как каждый из них будет дополнять друг-друга и компенсировать недостатки.

Возможности плагина:

1. Поддержка 3 директив

Плагин «Meta Robots Tag» поддерживает настройку трёх директив, которые позволяют управлять индексированием страницы:

  • noindex — не показывать эту страницу в результатах поиска;
  • nofollow — не выполнять переход по ссылкам на странице;
  • noarchive — запрещает показывать ссылку на кеш в результатах поиска.

2. Автоматическое размещение тега

Плагин автоматически размещает тег robots на страницах интернет-магазина по хуку frontend_head при активации соответствующей настройки или можно разместить тег вручную хелпером.

3. Поддержка мультивитринности

Настроить правила для вывода тега robots можно для всех витрин сразу или для каждой индивидуально, а также можно полностью отключить плагин на какой-то из витрин.

4. Рекомендуемые настройки

В плагин встроены рекомендуемые настройки, составленные нашими SEO-специалистами. Данная настройка позволяет вам не вникать в суть работы тега robots, а довериться нам.

5. Совместим с плагинами «SEO-фильтр», «Бренды PRO»

Плагин «Meta Robots Tag» полностью совместим с «SEO-фильтр», «Бренды PRO». Он проставляет тег на страницах плагинов согласно настройкам, но можно отключить добавление тега.

6. Настройки по типу страниц

Предусмотрены гибкие настройки и возможность отключение вывода тега robots на определенных страницах. В частности, можно задать разные правила для скрытых категорий и товаров или для страниц с отзывами, на которых нет отзывов.

7. Раздельные настройки для поисковых ботов

Можно настроить директивы, как для всех поисковых роботов сразу, так и индивидуально для Яндекс или Google.

8. Индивидуальная настройка для категорий и товаров

В настройках редактирования категорий и товаров можно индивидуально указать правила вывода тега robots с возможностью выбрать витрину.

Купить плагин →

Покупая плагин, Вы соглашаетесь с условиями оказания технической поддержки.

С лета 2021 года Яндекс.Вебмастер стал информировать вебмастеров о наличии на сайтах страниц-дублей с GET-параметрами, причем помечается эта проблема как критичная, что многих пользователей приводит в ужас. Мы расскажем что это за проблема и как её решить проще всего.

Читайте в блоге bodysite →

Webasyst 6 декабря 2021

«Отключите индексацию лишних адресов с GET-параметрами — всего одной кнопкой.»

Читайте обзор от Webasyst

Ещё продукты разработчика

Все продукты этого разработчика