Дубльований контент - як вчасно знайти та знешкодити дублі

Чому це важливо

Дубльований контент - це дві і більше сторінки сайту, що містять однаковий контент (найбільш поширений елемент контенту - це текст). При цьому порядок тексту може бути різним: тобто, навіть якщо на сторінці виконане сортування блоків і абзаців, все одно контент цієї сторінки - дубльований. Велика кількість дубльованих сторінок в індексі пошукових систем може бути причиною виключення сайту з пошукових систем або зниження якості дубльованих сторінок, що спричинить за собою загальне погіршення ранжирування сайту в пошукових системах.

Причини виникнення

Є кілька різновидів сторінок з дубльованим контентом.

Перший - це другорядні дубльовані сторінки (якщо мова йде про інтернет-магазини), як правило, це сторінки сортування товарів.

ris.1_sortirovka

Мал. 1 Приклад сортування товарів на сайті

У результаті всі сторінки сортування можуть потрапити в індекс пошукових систем:

ris.2_ryezul'tatyi

Мал. 2 Сторінки сортування потрапляють в індекс пошукових систем

Якщо мова йде про тематичні сайти (новинні портали), то сторінки друку на такому сайті також можуть бути дубльованими.

ris.3_vyidacha

Цей новинний сайт містить 47100 дубльованих сторінок, що негативно відбивається на загальній якості сайту з точки зору пошукових систем.

Ще один різновид сторінок з дубльованим контентом - технічні дубльовані сторінки. Даний тип сторінок виникає при неправильній розробці (або налаштуванні) CMS для сайту. Найчастіше такі помилки допускаються на етапі створення сайту.

Цей тип дубльованих сторінок може потрапити в пошукову систему, якщо на таку сторінку є посилання на сайті (наприклад, якщо ваша карта сайту генерується автоматично і в неї включаються абсолютно всі сторінки).

страницы).

Виявлення дублів

Виявити наявність дубльованого контенту на вашому сайті можна, скориставшись: інструментами Google для вебмайстрів - розділ «Оптимізація» - «Оптимізація HTML». На сторінці показано кількість повторюваних мета-описів і заголовків TITLE.

Також можна скористатися функцією розширеного пошуку. Для цього в рядку пошуку Google необхідно ввести:

site:http://вашсайт.ру -site:http://вашсайт.ру/&

Де site: http: //вашсайт.ру - покаже сторінки вашого сайту, що знаходяться в загальному індексі Google, а site: http: //вашсайт.ру/& - сторінки, що беруть участь в пошуку.

Також можна скористатися сторонніми програмами, наприклад, Xenu.

Приклади дублів і шляхи вирішення

Приклад №1: дублювання індексних файлів

Головна сторінка:

http://intinity.org/

Сторінка-дубль:

http://intinity.org/index.php

Рішення: налаштування 301-го редиректу зі сторінки дубля на основну.

 

Приклад №2: дублювання за допомогою «/» (слеша)

Головна сторінка:

http://www.limenet.kiev.ua/page3/

Сторінка-дубль:

http://www.limenet.kiev.ua/page3

Рішення: налаштування 301-го редіректу з усіх сторінок пагінації без «/» наприкінці на сторінки з «/» в кінці.

 

Приклад №3: дублювання розділів

Головна сторінка:

http://for-ua.com/world/

Сторінка-дубль:

http://for-ua.com/world/world/

Рішення: в залежності від ситуації може використовуватися 301-й редирект або тег «canonical». 

 

Приклад №4: дублювання доменів

Головна сторінка:

http://whiteseo.com.ua/

Сторінка-дубль:

http://www.whiteseo.com.ua/

Рішення: налаштування 301-го редіректу з усіх сторінок з «www» на аналогічні без «www».

 

Приклад №5: дублі пошуку товарів

У деяких інтернет-магазинах існують приклади популярних товарів в рядку пошуку:

ris.4_vnutrpoisk

Мал.4 Приклад популярного товару в рядку пошуку

Необхідно пам'ятати, що в даному випадку «Наприклад» - це посилання, по якому пройде пошуковий робот, і він з великою ймовірністю включить сторінку в індекс пошукової системи. Як ми бачимо, дубльованих сторінок в індексі пошукової системи в такому випадку може виявитися кілька тисяч:

ris.5

Мал. 5 Дубльовані сторінки в індексі пошукової системи

Рішення: вказівка ​​директиви в robots.txt для закриття сторінок, що утворюються при пошуку користувачем на сайті.

Необхідно пам'ятати, що пошук усередині сайту слід закривати від пошукових систем за допомогою robots.txt. Читайте більш докладно про те, що таке robots.txt.

Також всі дубльовані сторінки необхідно закрити в robots.txt за допомогою директиви:

Disallow: *print

Disallow: *sort

Якщо карти сайтів «XML» і «HTML» формату генеруються автоматично, необхідно простежити, щоб карти не містили дубльованих сторінок.

Висновок

Враховуючи той факт, що наявність дубльованого контенту на сайті негативно позначається на його позиціях в результатах пошукової видачі, варто проводити ретельну перевірку і вчасно усувати дублі тими способами, які були перераховані вище.

Якщо ви хочете працювати з нами,
давайте почнемо з обговорення завдання

Отримати консультацію

Отримуйте новини інтернет-маркетингу

Тільки корисна інформація від експертів Promodo

Якщо ви хочете працювати з нами,
давайте почнемо з обговорення завдання

Отримати консультацію

Отримуйте новини інтернет-маркетингу