Плагин оправдал надежды и функционал на 100%. Отдельно спасибо Анатолию за быстрые ответы и консультации до покупки и после нее. Пользуемся и другими его плагинами. Рекомендую!
Chikurov SEOРазработчик
Спасибо за отзыв.
+1
Евгений Кокорев
22 декабря 2020 00:47
ОЧЕНЬ НУЖНЫЙ плагин. Купил вместе с другим плагином от Анатолия - Link Canonical. Незаменим в некоторых аспектах, для SEO 100% будет не лишним. Особенно в свете "подарка Яндекса 2020" - недостаточно качественных страниц. Всем рекомендую!
Chikurov SEOРазработчик
Спасибо за отзыв.
— Поправлю насчет "подарка Яндекса 2020": термин "недостаточно качественные страницы" был введен Яндексом и стал отображаться в Яндекс.Вебмастере задолго до 2020 года. Возможно, вы имели в виду, что тег "link canonical" стал игнорироваться Яндексом при принятии решении "индексировать или не индексировать страницу"? Это действительно оказалось неприятным "подарком", но произошло в июле 2019 года.
— Соглашусь с тем, что данный плагин 100% необходим для внедрения на каждый интернет-магазин.
+1
taceamus
30 ноября 2020 14:17
Полезный функционал, отзывчивый разработчик.
Chikurov SEOРазработчик
Спасибо за отзыв.
+1
oleg -
30 ноября 2020 07:53
Плагин отличный. Но как показывает практика поддержка бывает поважнее плагина. Здесь поддержка на высоте!
Chikurov SEOРазработчик
Спасибо за отзыв и высокую оценку поддержки.
+1
Hiaolong
28 ноября 2020 11:32
Плагин отличный, спасибо.
Chikurov SEOРазработчик
Спасибо за отзыв.
+1
Дмитрий Олегович Муротьян
27 ноября 2020 11:09
Спасибо Анатолию за отличный плагин!
Chikurov SEOРазработчик
Спасибо Дмитрию за отличный отзыв! =)
+1
Alex
27 ноября 2020 09:59
Этот плагин выполняет часть работы целого агенства по продвижению. Для самостоятельного продвижения сайта - обязателен для установки.
Мне помог избежать глупых ошибок при настройке сайта, и освободил много времени.
Chikurov SEOРазработчик
Спасибо за отзыв.
Прошу вас (и других пользователей, кто занимается продвижением своего сайта самостоятельно) внимательно читать инструкцию к плагину, т.к. при неправильном использовании плагина есть риск сделать сайту только хуже.
Большое спасибо за реализацию данного плагина, очень не хватало такого функционала на движке webasyst. Установил на 4-х проектах, свои функции выполняет отлично.
Из плюсов - маст хев для SEO, достаточно гибкая настройка, грамотный и отзывчивый разработчик + хороший сео специалист.
Рекомендую!
Chikurov SEOРазработчик
Спасибо за отзыв.
+1
yatour
7 августа 2020 15:28
Полезный плагин, денег своих стоит. удивлен, что так долго его не было!
Поддержка на 5+
Chikurov SEOРазработчик
Спасибо за отзыв. Тоже удивлен, что до сих пор не было готового решения для внедрения метатега "robots", ведь это Must Have на всех проектах для корректной индексации страниц поисковыми системами.
+1
Евгений
6 августа 2020 10:40
Хороший плагин, в вебмастере теперь хорошо видно сколько разновидностей мусорных страниц яндекс бот обходит. Рекомендую к покупке
Chikurov SEOРазработчик
Спасибо за отзыв. Если у вас роботы посещают много страниц с GET-параметрами, запретите их все через robots.txt. Например, вот так:
Disallow: *?
Allow: *?page=
Disallow: *?page=*&
или так (если не хотите закрывать артикульные страницы):
Средняя оценка пользователей: 5
Добавить свой отзыв Чтобы оставить отзыв, войдите в Центр заказчика
Плагин оправдал надежды и функционал на 100%. Отдельно спасибо Анатолию за быстрые ответы и консультации до покупки и после нее. Пользуемся и другими его плагинами. Рекомендую!
Спасибо за отзыв.
ОЧЕНЬ НУЖНЫЙ плагин. Купил вместе с другим плагином от Анатолия - Link Canonical. Незаменим в некоторых аспектах, для SEO 100% будет не лишним. Особенно в свете "подарка Яндекса 2020" - недостаточно качественных страниц. Всем рекомендую!
Спасибо за отзыв.
— Поправлю насчет "подарка Яндекса 2020": термин "недостаточно качественные страницы" был введен Яндексом и стал отображаться в Яндекс.Вебмастере задолго до 2020 года. Возможно, вы имели в виду, что тег "link canonical" стал игнорироваться Яндексом при принятии решении "индексировать или не индексировать страницу"? Это действительно оказалось неприятным "подарком", но произошло в июле 2019 года.
— Соглашусь с тем, что данный плагин 100% необходим для внедрения на каждый интернет-магазин.
Полезный функционал, отзывчивый разработчик.
Спасибо за отзыв.
Плагин отличный. Но как показывает практика поддержка бывает поважнее плагина. Здесь поддержка на высоте!
Спасибо за отзыв и высокую оценку поддержки.
Плагин отличный, спасибо.
Спасибо за отзыв.
Спасибо Анатолию за отличный плагин!
Спасибо Дмитрию за отличный отзыв! =)
Этот плагин выполняет часть работы целого агенства по продвижению. Для самостоятельного продвижения сайта - обязателен для установки.
Мне помог избежать глупых ошибок при настройке сайта, и освободил много времени.
Спасибо за отзыв.
Прошу вас (и других пользователей, кто занимается продвижением своего сайта самостоятельно) внимательно читать инструкцию к плагину, т.к. при неправильном использовании плагина есть риск сделать сайту только хуже.
Достойная поддержка. Достойный плагин. Рекомендую.
Спасибо за отзыв.
Большое спасибо за реализацию данного плагина, очень не хватало такого функционала на движке webasyst. Установил на 4-х проектах, свои функции выполняет отлично.
Из плюсов - маст хев для SEO, достаточно гибкая настройка, грамотный и отзывчивый разработчик + хороший сео специалист.
Рекомендую!
Спасибо за отзыв.
Полезный плагин, денег своих стоит. удивлен, что так долго его не было!
Поддержка на 5+
Спасибо за отзыв. Тоже удивлен, что до сих пор не было готового решения для внедрения метатега "robots", ведь это Must Have на всех проектах для корректной индексации страниц поисковыми системами.
Хороший плагин, в вебмастере теперь хорошо видно сколько разновидностей мусорных страниц яндекс бот обходит. Рекомендую к покупке
Спасибо за отзыв. Если у вас роботы посещают много страниц с GET-параметрами, запретите их все через robots.txt. Например, вот так:
Disallow: *?
Allow: *?page=
Disallow: *?page=*&
или так (если не хотите закрывать артикульные страницы):
Disallow: *?
Allow: *?page=
Allow: *?sku=
Disallow: *?page=*&
Disallow: *?sku=*&
Тогда роботы не только не будут индексировать мусорные страницы, но и вообще не будут на них заходить.