Главная / Оптимизация сайта / Как проверить сайт на дубли страниц

Как проверить сайт на дубли страниц

Поиск дублей страниц на сайтеДобрый день, друзья! Уже очень давно меня просили читатели блога сделать пост о том, как избавиться от replytocom. Тема эта актуальна, так как из-за этого в индексе получается огромное число похожих страничек с параметрами коммента. Все дело в том, что многие блоги созданы на CMS WordPress, который грешит дубликацией комментариев. Поэтому я решил дать всю информацию не только о replytocom. В статье я раскрываю понятие дублированного контента, показываю как сделать поиск дублей страниц сайта и поясняю, почему от них нужно избавляться. А в следующем посте я покажу, как нужно их удалять.

Дублированный контент на сайте

Дубли бывают разными — тихими и заразными. 🙂 Если серьезно, то дублированная страница — это документ сайта, который может иметь полностью или частично одинаковый контент. Разумеется, каждый дубль имеет свой адрес (url страницы).

Есть четкие и нечеткие дубли. Четкий дубль страницы может возникнуть по следующим причинам:

  • искусственно создаются владельцем сайта для специальных нужд. Например, страницы для печати, которые позволяют пользователю коммерческого сайта скопировать информацию по выбранному товару / услуге.
  • генерируются движком ресурса, так как это у них заложено в теле. Некоторые современные CMS выдают похожие страницы с другими урлами, размещенные по своим разным дерикториям.
  • появляются за счет ошибок веб-мастера, который управляет сайтом. Например, ресурс обзаводиться двумя одинаковыми главными страницами с разными адресами (например, site.ru и site.ru/index.php).
  • возникают по случаю изменения структуры сайта. Например, при создании нового шаблона с другой системой урлов, новые страницы со старым контентом получают совершенно другие адреса.

Нечеткий дубль получают страницы, которые частично дублируют контент. Такие страницы имеют общую часть шаблона сайта, но отличаются небольшим контентным наполнением.

Например, такими небольшими дублями могут быть страницы ресурса, имеющие результаты поиска или отдельные элементы статьи (например, картинки — такое очень часто бывает во многих шаблонах блогов).

На следующем рисунке я собрал самые частые варианты дублей страниц, которые присущие блогу с движком Вордпресс (без учета различных плагинов и фишек шаблона, которые также частенько создают дублированные документы):

Источники дублированного контента на сайте на движке Вордпресс

Наличие дублей страниц на сайте может говорить о том, что или веб-мастер не знает об их присутствии, или он просто не умеет с ними бороться.  А бороться с ними нужно, так как они приводят к различным ошибкам и проблемам в плане поискового продвижения. Об этом сейчас и поговорим.

Почему нужно удалять дубли страниц

Дублированные страницы — это не какой-то вирусняк или паразитирующий организм. Он конечно тоже плодиться, но не за счет себя или своих функций. То есть он плодиться не по своей воле. Дубли на самом деле — это результат неправильного кода сайта, итог огрехов веб-мастера или блоггера.

Но какими бы не были пассивными дубли страниц, они могут подложить конкретную свинью владельцу любого сайта или блога. Итак, чем же так опасен дублированный контент? Вот основные проблемы, которые возникают при наличии дублей:

Ухудшение индексации сайта. Я называю это проблемой №1. Дело в том, что в зависимости от источника и ошибок веб-мастера, страница сайта может иметь от одного до нескольких или больше дублей. Например, главная может грешить двумя-тремя дупликатами, а посты блогов из-за вездесущего replytocom скопируются по количеству комментариев. И если блог популярный, то и число «левых» страниц будет огромным. А поисковые системы (особенно Google) не любят дубли и поэтому частенько занижают позиции самого сайта.

Замена релевантной страницы. Алгоритм поисковой системы может посчитать дубль более релевантным, чем продвигаемая страница-оригинал (моя статья о понятии релевантности). Тем самым в выдаче будет находиться не целевая страница, а ее клон. Но у этого клона совсем другие незначительные параметры (ссылочный вес, метрики посещаемости), которые со временем пессимизируют сайт в серпе поисковой системы.

Бесполезность естественных ссылок. Представьте себе картину — на Ваш сайт пришел посетитель. Ему понравился Ваш контент и он решился поделиться с друзьями полезным адресом понравившейся страницы. А эта страница — дубль оригинала. В итоге ссылку получит дублированный контент, а не наш реальный документ. Таким образом мы просто теряем настоящую естественную ссылку.

Итак, подытожим вышесказанное. Дубли страниц создают помеху в нормальной индексации сайта, становятся источником неправильного выбора поисковиком релевантной страницы, забирают влияние естественных внешних ссылок. Также дубли неправильно распределяют внутренний ссылочный вес, отбирая силу у продвигаемых страниц и меняя поведенческие показатели:

Основные проблемы, которые возникают из-за дублей на сайте

В общем, дубли — это большое зло в поисковом продвижении и страшный сон оптимизатора. 🙂

Как определить дубли страниц на сайте

Есть разные способы поиска и проверки дублей страниц. Они требуют разного уровня знаний CMS и понимание работы поискового индекса. Я покажу самый простой из способов. Это не значит, что если он простой, то не точный. С его помощью легко находятся дубликаты документов сайта. И самое главное — этот способ не требует особых знаний и не займет много времени.

Для того, чтобы найти и проверить свой сайт на наличие дубликатов страниц, нужно или воспользоваться расширенным поиском Яндекса (Гугла) или сразу ввести в поисковую строку специальный запрос. Сначала рассмотрим первый вариант.

Поиск дублей страниц с помощью расширенного поиска

Расширенный поиск Яндекса позволяет получить более точную выдачу благодаря уточняющим параметрам запроса. В нашем случае нам нужно только два параметра — адрес сайта и кусочек текста той страницы, по которой мы ищем дубли. Сначала мы выделяем текст, который находится на той странице нашего сайта (для примера взят абсолютно чужой ресурс), которую будем проверять на дубли. Затем идет в расширенный поиск Яндекса и вносим в соответствующие позиции кусочек контента и адрес сайта:

Поиск дублей страниц с помощью расширенного поиска в Яндексе

Далее мы нажимаем заветное слово «Найти» и русский поисковик начинает формировать выдачу. Она получится не той, которую мы обычно наблюдаем — она будет состоять полностью из заголовков и сниппетов только нашего ресурса. Причем, если в выдаче будет только один результат поиска, то все хорошо — дублированного контента этой страницы нет. Если же есть в полученном серпе несколько результатов, то придется доставать лопату:

Как проверить сайт на дубли страниц

В моем примере поисковик нашел несколько нечетких дублей — ряд страниц из пагинации по некоторым рубрикам. Сразу видно, что на данном сайте страница с выделенным текстом про рецепт салата явно размещалась сразу в разных рубриках. А так как запрет на индексацию страниц пагинации для этого ресурса не ставился, в индексе вылезли всевозможные дубли.

Теперь рассмотрим те же действия для зарубежного поисковика. Заходим на страницу расширенного поиска Google и совершаем те же самые действия:

Как проверить дубли страниц с помощью расширенного поиска в Google

Заполнив все необходимое на расширенном поиске, получаем индексацию исследуемого сайта согласно  указанному куску текста:

Результаты поиска дублей на сайте по заданной части текста в Google

Как видим, Гугл также проиндексировал неточные дубли исследуемой страницы — в выдаче все те же страницы рубрик.

В принципе получить те же самые результаты можно и не используя расширенный поиск. Для этого нужно в простом варианте Гугла или Яндекса прописать следующий запрос. И в этом заключается второй способ определения дублей документов.

Как найти дубли страниц с помощью специального запроса

С помощью расширенного поиска легко находятся все дубликаты по заданному тексту. Конечно, с помощью данного способа мы не получим дубли страниц, которые не содержат текст. Например, если дубль создается «кривым» шаблоном, который зачем-то показывает на другой странице картинку, которая находится на странице-оригинале. То такой дубликат выше описанным способом найти не получиться. В таком случае придется использовать другой способ.

Его суть проста — с помощью специального оператора мы запрашиваем индексацию всего нашего сайта (или отдельной страницы) и уже вручную смотрим выдачу в поисках дубликаторов. Вот правила синтаксиса этого запроса:

Правила синтаксиса специального запроса для проверки дублей страниц

Когда мы в запросе указываем адрес главной страницы,то получаем просто список проиндексированных страниц поисковым роботом. Если же мы указывает адрес конкретной страницы, то получаем список проиндексированных дублей этой страницы. В Яндексе они сразу видны. А вот в Гугле все немного сложнее — сначала нам покажут те страницы, которые есть в основной выдаче:

Основная выдача Гугла

Как видно на картинке, в основной выдаче у нас находится одна страница сайта и она же является оригиналом. Но в индексе есть и другие страницы, которые являются дублями. Чтобы их увидеть, нужно нажать на ссылку «Показать скрытые результаты»:

Поиск дублей страницы сайта

В итоге нам выдается список дублей, которые Гугл проиндексировал и связал со страницей-оригиналом (цифра 1 на картинке). В моем примере такими дублями стали страницы с позициями 2 и 3.

На второй позиции находится дубль, который является трекбэком данного документа (автоматическое уведомление для других сайтов данной публикации). Вещь конечно нужная, но ее присутствие в индексе не желательно. Хозяин данного сайта это прекрасно понимает и поэтому прописал запрет на индексацию трэкбеков с сайта. Об этом говорит надпись «Описание веб-страницы недоступно из-за ограничений в файле robots.txt». Если посмотреть инструкцию для поисковых систем (robots.txt), то увидим следующую картину:

Фрагмент файла robots.txt с директивами по запрету индексации трэкбеков

Благодаря последним директивам, автор сайта указал на запрет индексации трэкбеков. Но к сожалению, Гугл заносит в свой индекс все, что ему попадется под руку. И здесь уже нужно просто удалять дубли из базы данных. об этом поговорим уже во второй статье, посвященной дублированному контенту.

На третьей позиции показан горячо любимый многими блоггерами replytocom. Он получается путем использования комментирования на блогах и сайтах. И благодаря ему возникает просто огромная куча дублей — обычно это количество примерно равно число комментов на ресурсе. В нашем примере этот атрибут, как и трэкбек закрыты для индексации. Но Гугл и его схавал в свой индекс. Тоже нужно чистить вручную.

Кстати, если мы немного изменим наш запрос, то можем получить те же результаты, что дает расширенный поиск дублей по кусочку текста:

Быстрый вариант проверки контента на дублирование

Проверка дублей страниц с помощью Яндекс Вебмастера

Вариант проверки дублированного контента в вебмастере очень простой и состоит из следующих действий:

1Заходим в панель инструментов Яндекса в раздел меню «Индексирование» и открываем отчет «Страницы в поиске». В нем показывается статус проиндексированных страниц сайта в русском поисковике.

На этой странице нас интересует кнопка «Исключенные страницы»:

Инструмент Яндекс Вебмастера, показывающий статус проиндексированных страниц
2Нажав на эту кнопку, вебмастер показывает список документов, которые Яндекс исключил из поискового индекса (не путать с обычным индексом) и по каждой странице указывает причину удаления:

Статус страниц, которые Яндекс исключил из поиска
3В этом списке каждый столбец имеет свой фильтр. Нас интересует «Статус». Нажимаем его и получаем перечень всех вариантов, по которым Яндекс исключил данные документы:

Перечень всех вариантов, по которым Яндекс исключил страницы сайта (в моем примере)

Если в этом списке есть вариант о дублировании страниц, выбираем его и получаем перечень документов-дублей. В моем примере такого варианта нет, но такие данные вебмастер может предоставить.

Вот фрагмент таблички с вариантами исключения страниц из поиска с исключением дублей:

Причины, по которым Яндекс может исключить страницу из своего поиска.

Получив перечень страниц с дублированным контентом, остается только проверить эти страницы и выбрать вариант решения проблемы.

Как выявить дубли страниц с помощью seo-программ

Наряду со стандартными сервисами поисковых систем по оценке статуса сайта в поиске, существует множество различных источников с инструментарием по поиску дублей страниц на сайте.

Но также есть и ряд seo-программ, решающих проблему поиска дублированного контента. Принцип их работы практически одинаковый, что и у онлайн-сервисов, поэтому выбор может быть обусловлен по другим параметрам (скорость работы, стоимость продукта, дружелюбность интерфейса и т.д.).

Поэтому я не буду показывать подробно перечень действий каждого такого seo-инструмента, а просто дам следующий список самых популярных на мой взгляд программ:

  • Netpeak Spider

  • Xenu’s Link Sleuth

  • Screaming Frog SEO Spider

Объемная seo-программа от фирмы Netpeak Software.

Плюсы: мощный функционал с рекомендациями использования по многим seo-вопросам. Большое сообщество пользователей программы

Минусы: платная (есть с 7-ми дневный триал)

Очень древняя программа, которая специализируется на поиске битых ссылок на сайте.

Плюсы: бесплатный рабочий софт с простым интерфейсом

Минусы: давно не обновлялась. К тому же дубликаты может искать только по заголовкам и описаниям страниц.

Более современная версия бесплатного Xenu c обновлениями.

Плюсы: понятный интерфейс, хорошая скорость работы.

Минусы: Условно-бесплатная программа (проверка до 500 страниц без оплаты). Дубли только по заголовкам и описаниям.

Итак, друзья, в этой статье я приоткрыл занавес над понятием дублей страниц и их успешным нахождением и проверкой. Надеюсь, что мои способы поиска дублированного контента в вашей деятельности не понадобятся. Но если такое случится, адрес этого поста на всякий случай сохраните. 🙂

В следующей статье Вы узнаете, как можно убрать дубли страниц. До встречи!

== Часто задаваемые вопросы по теме (FAQ) ==

Что такое дубли страниц на сайте?

Это документ сайта со своим уникальным адресом, который имеет полностью/ частично одинаковый контент, копируемый с исходной страницы.

Чем плохи и опасны ли дубли страниц для сайта?

Поисковой системе трудно выбрать из двух одинаковых страниц релевантную, чтобы показать ее в своей выдаче. Не тот документ может ухудшить видимость сайта в поиске.

Как найти дубли страниц на сайте?

С помощью расширенного поиска и оператора site в поисковых систем, соответствующими инструментами в сервисах по анализу сайта, путем использования специализированных программ.

Как удалить дубли страниц на сайте?

Использовать редирект 301, установить тег «rel=canonical» для страниц, запретить в файле robots.txt, корректировать вручную. Более подобно в этой практической инструкции.

С уважением, Ваш Максим Довженко

Автор: Максим Довженко

Максим Довженко
Seo-специалист, веб-аналитик, блоггер. Совладелец кулинарного портала и видеоканала "Твой Поваренок". Специалист по работе с информацией, руководитель с 15-ти летним стажем. = Счастливый отец дочки Валерии. = :)

58 комментариев

  1. Аватар

    Максим, ты поднял довольно злободневную тему, она актуальна для многих блоггеров, просто некоторые думают, что их это не коснется и зря…
    Я с ноября 2013 удаляю дубли в Гугл и с 3100 индексируемых страниц у меня осталось на май 2014 всего 970. Улетает они из индекса Гугл очень долго, это факт, с Яндексом всё в порядке.
    Я бы хотел дать простой совет, как определить, есть ли у вас на сайте дубли:
    установите бесплатную программу Site Auditor, введите свой URL и нажмите «Проверить»/
    Если напротив Проиндексировано напротив Яндекса будет стоять цифра 12, а напротив Google 120 или 1000, то это повод задуматься.
    2. Если разница в цифрах будет велика, установите программу Xenu Link Sleuth и проверьте дубли.
    3. Обязательно отключите древовидные комментарии в админке (реализовать их можно по-разному в будущем) и примите меры для удаления дублей, но это уже совсем другой разговор, правда, Максим?

    • Paladin

      Привет, Николай!
      Я тоже очень плотненько столкнулся с дублями. Сначала спрашивал у коллег по seo и блоггингу. Но потом в итоге сам стал разбираться. Тогда еще, год назад не было того инструмента, который сейчас позволяет отметить дубли и удалить их с Гугла. Мне пришлось сломать свой мозг и свой файл robots.txt, чтобы во всем разобраться. И как результат из 15 000 страниц в Гугле мой блог сейчас имеет около 600 и процесс удаления еще не закончился.
      Для быстрого просмотра данных индексирования в Гугле и Яндексе я использую плагин RDS bar. Советую! Он намного эффективнее Аудитора.
      Древовидные комментарии на моем блоге включены. Я не советую их отключать, так как читателям неудобно их прочитывать и следить за ходом событий. Можно просто или найти хороший плагин для древовидных комментариев, у которого не возникают проблемы с replytocom, или найти спеца, который подшаманит код. Или есть еще один вариант — перенести комментарии отдельно на другую страницу (так сделано на моем блоге).
      Через пару дней я напишу о том, как удалять дубли.

      • Аватар

        У меня RDS бар установлен, удобная штука, но он не всегда корректно отображает количество страниц в индексе Яндекс и Google, часто знаки вопроса отображаются в этих полях, поэтому мне Site Auditor удобней.
        По поводу древовидных комментариев, я их реализую при помощи плагина WordPress Thread Comment довольно удобно, хотя нагрузка лишняя идет, согласен.

      • Аватар

        Я читала у одного товарища, что древовидные комментарии можно закрыть от индексации в роботсе. И даже видела, как это надо сделать. Но у меня почему-то никак руки до этого не доходят…

        • Paladin

          Я уже писал об этом — закрытие древовидных в роботс не спасет их от робота Гугла — он все съест и не подавится. 🙂

  2. Аватар

    Спасибо, Максим. Вечером статью внимательно прочитаю, сейчас ухожу на работу. У меня есть свой опыт борьбы с дублями. Надеюсь, что он будет положительным.

    • Paladin

      Привет, Василий! Обязательно поделись своим опытом удаления дублей в комментариях в следующей статье (выйдет в четверг).

      • Аватар

        Напишу, правда не знаю, комментарий может быть слишком большим.
        Я кажется, практически, избавился от replytocom. Максим, если не трудно, бегло проверь мой сайт по этому параметру, и напиши не заблуждаюсь ли я, думая так.
        Я не отказываюсь от древовидных комментариев. Это моя принципиальная позиция, так будет удобно посетителям сайта, все другое — неудобно. Также не хочу использовать для этого плагин (точнее два плагина).
        Теперь на очереди удаление tag, feed, page.

  3. Аватар

    Привет, Максим! По дублям хочу уточнить, «вред» происходит только от тех страниц , что попадают в индекс или от всех виртуально существующих? Т.е. насколько актуально бороться не только с их индексацией, но и с причинами появления? Растекается ли так называемый вес страниц по дублям которые не в индексе? Или поисковик просчитывает этот показатель только по своей индексной базе.
    Вопрос возникает потому, что для поиска дублей использую Netpeak Spider (еще раз спасибо, что в свое время подсказал о её существовании 🙂 . ) так вот там дублей показывается огромное количество, не зависимо от того, что для поисковиков они исключены и в индексе не отражаются. Т.е. он показывает, ВСЕ что существует, а поисковики все таки учитывают исключения в robots.txt и другие
    PS поправь ссылки на страницы расширенного поиска

    • Paladin

      Привет, Сергей! Вред от тех, какие попали в индекс. Поэтому мы и создаем запреты на индексацию. Но бороться нужно со всем мусором на сайте. Вес конечно растекается, но его не видно поисковыми системами, если страницы не в индексе.
      PS. Спасибо за отмеченные неработающие ссылки — все исправил. 🙂

  4. Аватар

    Привет, Максим. С нетерпением ждала этой темы.
    Вопрос: получается, что каждую статью нужно проверить через расширенный поиск?

    • Paladin

      Привет, Ольга! Нет, не каждую. Достаточно бегло посмотреть весь список проиндексированных страниц (как это сделать я это показал во втором ролике) и выбрать архетипы дублей. А потом задать команду и все. Об этом я расскажу в следующей статье.

  5. Аватар

    С нетерпением жду следующую статью. Почему-то думала, что раз описываешь, как найти, то тут же описываешь, и как убрать. 🙂
    Потому что у меня дублей… Порой нахожу и вижу, сколько их, но как убрать не знаю.
    И древовидные закрывать не хочется, тогда нечитабельно получается. И неудобно для вопросов-ответов…

    • Paladin

      Я думал все вместить в одну статью. Но вышло более 3000 знаков и море картинок. Пришлось разделить текст на части.

  6. Аватар

    Привет Максим!
    Изучаю статью, это то, что мне очень нужно, потому что дублей у меня много и видимо именно они тормозят весь процесс, а не оптимизация. По ссылке «расширенный поиск Яндекса» ошибка 404. Изучаю дальше…

  7. Аватар

    Максим, а если пишут «По вашему запросу ничего не нашлось» это значит статья не попала в индекс?

    • Paladin

      Точно, не страницы в индексе с этим контентом.

      • Аватар

        и что делать с такой статьей, ей уже больше 2-ух лет она небольшая. Удалить, как бесполезную или в адурилку закинуть?

        • Paladin

          Аддурилка не поможет. Нужно пересмотреть ее концепцию, придется переписать контент. Подбери поисковые запросы, составь хороший план и напиши заново статью. Полезную! И тогда со временем все будет ок.

          • Аватар

            Понятно, мне проще ее удалить, чем переписать, не такая уж и тема важная и полезная, мне она сразу не понравилась 🙂

          • Paladin

            А вот удалять не стоит, потому что новая статья будет иметь маленький возраст. А старый урл — большой и значит та страница старая будет более трастовой. Проще что-то на тему урл той страницы написать, чем удалять. Ломать, не строить…

          • Аватар

            Верно, не подумала я о последствиях.

          • Аватар

            А я все не соберусь начать переделывать старые статьи. Как представлю сколько предстоит работы, мурашки по телу начинают бегать. Да и веры как то нет что это поможет((((( И жалко старый блог забрасывать, столько времени на него потратила и денег (в основном в обучение). Но вера на первом месте стоит, из за ее потери блогом заниматься не хочется. Возможно, если бы была какая-нибудь надежда…

          • Paladin

            Я помню слова одного великого философа — «Я бы убил того, кто придумал Надежду, так как из-за нее многие люди сидят до последнего и верят не в свои силы, а в чудо». Мой совет, Нонна — прямо сегодня начни с первой старой статьи. И каждый второй день делай следующий пост. Пройдет время и ты все сделаешь. 🙂

          • Аватар

            Да ты прав (как и философ) нужно начать действовать

  8. Аватар

    Проверять на дубли нужно каждую статью вручную?

  9. Аватар

    Максим, я не поняла, написано Мы скрыли некоторые результаты…… (352), нажимаю показать и не могу понять где дубли, открываются мои статьи на блоге в обычном режиме.

    • Paladin

      Посмотри мое второе видео — я там все в примерах показал.

      • Аватар

        я все посмотрела, у меня дубли только с обозначением страниц получается. Вообщем не знаю, что-то я запуталась и чем больше делаю исправлений, тем хуже все становится((((

      • Аватар

        Статьи переписывала, не все конечно, но прошло больше месяца а толку нет, наняла фрилансера, который больше 10 плагинов кодами заменил, надо перелинковкой заниматься, так дубли эти выявились. Позиции упали, еще и тИЦ снизился, вообщем все на месте, продвижения ноль.

        • Paladin

          Ну, так это нормально. Все потому, что у тебя идет полная переделка структуры и появляются новые статьи вместо старых. Ясно, что уже завоеванные позиции будут падать. Наберись терпения, Татьяна, все будет хорошо. 🙂

  10. Аватар

    Спасибо за подробные способы определения дубликатов ссылок. Вот этим способом «Поиск дублей страниц с помощью специального запроса» — можно определять любую ссылку в индексе, полезная вещь. Я же использую вот этот способ http://genri.biz/web-master/google

  11. Аватар

    Отличная статья

  12. Аватар

    Ура, я наконец то знаю где просмотреть проиндексированные Гуглом страницы =)))) Меня это интересовало, но все как-то на потом решение вопроса откладывалось =)

  13. Аватар

    Ох, на сегодняшний день еще осталось 11 тысяч реплютуконов (было 36 тыс). Максим, а если блоггер забросил свое творение и практически им не занимается, это может стать причиной падения посещаемости?

    • Paladin

      Конечно, может. Конечно, от такого поисковый трафик сильно не упадет (если он был конечно), но зато упадет прямой и ссылочный.

  14. Аватар

    Очень хорошая статья, так пошагово и понятно сказано что нужно сделать. Большое спасибо.

  15. Аватар

    Paladin, ответьте, пожалуйста, очень хочу узнать. С помощью специального запроса на 4 и 5 десятке проиндексированных страниц выдаётся ссылка на одну и ту же страницу (урл одинаковый). Почему так и что делать?

    • Paladin

      Добрый день, Игорь. Пришлите мне тот запрос, которым Вы проверяете индексацию. Я посмотрю, что там Гугл выдает.

  16. Аватар

    Максим, здравствуйте! У меня вопрос немножко в сторону от темы. Как Вы думаете, возможен ли перенос нескольких статей с одного сайта на другой (чужой, я хочу «подарить» соседке по инету не тематические для меня статьи). Технически можно сделать редирект 301 на каждую статью. На статьи есть внешние ссылки — получится, что они тоже будут вести на «редиректнутые» адреса. Вопрос — как такой финт будет воспринят поисковиками? Не сочтется ли это за плагиат? И можно ли избежать этой опасности?

    • Paladin

      Добрый день, Надежда!
      Как я понял, Вы даете своей соседке по тематике свои скопированные статьи — оригинал в любом случае остается на Вашем сайте. Если так, то лучшим вариантом будет на скопированных статьях сделать ссылку на оригинал.

      • Аватар

        Нет-нет, Максим. Если бы так, то понятно. Я хочу их передать в полное владение, а у себя убрать — мне они не в тему. А «убивать» жалко — хорошие статьи, старые, даже в ТОПе висят…

        • Paladin

          В таком случае стоит удалить Ваши страницы с этим контентом, дождаться выпадения их из индекса поисковой системы и после этого создать их на том сайте.

  17. Аватар

    Слава Богу, у меня в роботс закрыты дубли, а по началу такая проблема была и удаляла их долгоооооооооо.

  18. Аватар
    eroticpro.ru

    Стоит ли мне копаться в движке что бы удалить эти страницы и даже если я их удалю, что я улучшу, если дубли и так не проиндексированы, да и ссылок со страниц в индексе на дублирующие нету?

    • Paladin

      Если Вы уверены, что страниц в индексе нет и они точно не появятся в дальнейшем, то не нужно делать лишние движения по их удалению.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *