محتوای تکراری چیست؟

محتوای تکراری چیست؟

سرفصل محتوا

  • محتوای تکراری چیه؟
  • مشکلاتی که محتوای تکراری نوع اول (محتوای تکراری تو یه سایت) بوجود میاره

    مشکلات

    • واسه موتورهای جستجو
    • واسه صاحبان وب سایتا
  • چیجوری میشه مشکل محتوای تکراری رو برطرف کرد؟
    • ریدایرکت ۳۰۱
    • به کار گیری تگ “Rel=Canonical”
    • به کار گیری کد noindex, follow
    • مدیریت متغیرها در گوگل وبمستر
    • روشای دیگه واسه حل مشکل محتوای تکراری
  • نکاتی در مورد محتوای تکراری از نوع دوم (محتوای تکراری در چند سایت)
      • محتوای تکراری و غیر اصلی به اعتبار و رتبه دامنه سایت شما آسیب جدی وارد می کنه
      • اسکرپر( Scrapers) به سایت شما آسیب میزنن
      • پیشنهاد اول – گزارش دادن اسکرپر به گوگل باعث افزایش رتبه سایت شما می شه
      • پیشنهاد دوم – واسه محتوای خود امضای دیجیتالی در گوگل بذارین
      • دیجیتال

    • پیشنهاد سوم – اقدام جدی و قانونی علیه سارقان ادبی انجام بدین
    • انتشار دوباره پستای بلاگ مهمون به سایت شما آسیب میرسونه
    • از Evil Twin استفاده کنین

محتوای تکراری چیه؟

محتوای تکراری رو میشه از دو زاویه بررسی کرد:

۱٫ محتوای تکراری یا Duplicate Content محتواییه که بیشتر از یه بار در سایت منتشر می شه. وقتی که تعداد زیادی محتوای به طور کاملً برابر تو یه سایت وجود داشته باشه، اراده کردن واسه موتورهای جستجوگر کمی سخت می شه. در این شرایط موتور جستجوگر نمی تونه تصمیم بگیره کدوم نسخه از محتوا مربوط به کوئری جستجوئه.

اراده کردن

واسه اینکه کاربران تجربه کاریری بهتری داشته باشن، موتورهای جستجوگر با احتمال خیلی کم محتوای تکراری رو نشون میدن و مجبور هستن از بین نسخه های موجود، نسخه اصلی (یا نسخه بهتر) رو پیدا کنن و در اختیار کاربران بذارن.

۲٫ محتوای تکراری، در واقع محتواییه که در بیشتر از یه مکان یا همون نشانی صفحه در اینترنت قرار داده می شه. وقتی که محتواهای دست کم دو سایت یه جوره، واسه موتورجستجو سخته که تصمیم بگیره که کدوم سایت از نظر موضوع با عبارت مورد جستجو در گوگل، یکی بودن داره.

همونطور که میدونید، براساس آخرین الگوریتمای گوگل، سایتایی که مطالب دیگر سایتا به صورت مشابه در سایت خود قرار میدن، مورد جریمه قرار می گیرن. موتور جستجو واسه تشخیص دقیق محتوای تکراری، تاریخ ایندکس شدن اونو بررسی می کنه و هر کدوم زودتر ایندکس شده باشه رو به عنوان منبع قرار میده ( البته به عوامل دیگری هم بستگی داره مانند موضوع سایت و چیزای دیگه ای به جز اینا).

عبارت “جریمه محتوای تکراری” همیشه یه ترس رو دل بازاریابان اینترنتی قرار میده. همیشه کارشناسان سئو روی این قضیه تاکید زیادی دارن، مخصوصا اینکه امروز گوگل برروی تولید محتوا ناب تاکید زیادی داره و از این رو سایتایی که مبادرت به تولید محتوای جدید می کنن رو همیشه در رتبه های برتر گوگل قرار دارن.

بدیش اینه بیشتر آدمایی که در بخش تولید محتوا و سئو فعالیت می کنن، راهنمای محتوای تکراری گوگل رو اصلا جدی نمی گیرن و فرض می کنن که با کمی تغییر در کلمات، می تونن از دست جریمه گوگل فرار کنن.

مشکلاتی که محتوای تکراری نوع اول (محتوای تکراری تو یه سایت) بوجود میاره

واسه موتورهای جستجو

وجود محتوای تکراری می تونه باعث بروز سه مشکل اساسی واسه موتورهای جستجو شه:

موتورهای جستجوگر نمی دونن چه نسخه ای رو باید از یافته های جستجوی خود حذف کنن یا نمایش بدن.
موتورهای جستجوگر نمی دونن که باید معیارهای مربوط به لینک (مثل اعتماد، Authority، انکر تکست و … ) رو به یه صفحه اختصاص بدن یا اونو بین نسخه های زیادِ محتوا تقسیم کنن.

موتورهای جستجوگر نمی دونن چه نسخه ای رو باید واسه یه کوئری جستجو خاص، رتبه بندی کنن.

واسه صاحبان وب سایتا

وقتی که محتوای تکراری وجود داشته باشه، صاحبان وب سایتا با مشکلاتی مانند از دست دادن ترافیک و افت رتبه سایت در یافته های جستجو روبرو می شن. دو عامل مهم باعث بروز این مشکلات می شن:

جهت ارائه بهترین تجربه کاربری، موتورهای جستجو با احتمال خیلی کم چندین نسخه از یه محتوا رو نمایش میدن. به خاطر همین، موتورهای جستجو مجبور می شن که بهترین نتیجه رو خودشون حدس بزنن. همین موضوع باعث کاهش دیده شدن هر کدوم از صفحات می شه.

توازن لینک دهی به سایت دچار مشکل می شه، چون دیگه وب سایتا هم نمی تونن بین محتواهای برابر شما، فرق قائل شن. اینطوری، به جای اینکه همه لینکا به یه صفحه اشاره کنه، هر لینک به یکی از صفحات شما داده می شه. از اونجایی که لینک بیلدینگ یکی از فاکتورهای مهم رتبه بندی وب سایته، این موضوع در دیدن شدن محتواهای سایت تون در یافته های جستجو تاثیر منفی داره.

، نتیجه چی می شه؟ اینکه یه صفحه از سایت، اون طور که باید دیده نمی شه.

چیجوری میشه مشکل محتوای تکراری رو برطرف کرد؟

وقتی که محتوای موجود تو یه سایت در آدرسای زیادی یافت شه، باید واسه موتورهای جستجوگر معمولی سازی (Canonicalized) شه.

اینک ار رو میشه از راه ریدایرکت ۳۰۱ به نشانی (URL) درست انجام داد. ریدابرکت کردن اینجور صفحه ای از راه تگ rel=canonical یا در بعضی از موارد با به کار گیری وسایل موجود در گوگل وبمستر هم انجام می شه.

ریدایرکت ۳۰۱

در بیشتر موارد بهترین روش واسه مقابله با محتوای تکراری، تنظیم ریدایرکت ۳۰۱ از صفحه شامل محتوای تکراری به صفحه اصلیه.

وقتی که صفحات زیاد با پتانسیل رتبه بندی با همدیگه ترکیب می شن، نه فقط با همدیگه رقابت نمی کنن بلکه رابطه عمیق تر و قوی تری با همدیگه ایجاد می کنن و سیگنالای محبوبیت بیشتری واسه موتورهای جستجوگر ارسال می کنن. این موضوع میشه به پیشرفت رتبه شما در یافته های جستجو هم کمک کنه.

به کار گیری تگ “Rel=Canonical”

گزینه دیگه واسه حل مشکل محتوای تکراری به کار بردن تگ “Rel=canonical” است. این تگ مثل ریدایرکت ۳۰۱ قدرتمنده و در بیشتر موارد ایجاد اون به زمان کمتری نیاز داره. تگ “Rel=Canonical” در قسمت هد HTML سایت قرار میگیره.

این تگ متا زیاد هم جدید نیس، اما مثل تگ nofollow، خیلی راحت از پارامترهای rel استفاده می کنه. مثلاً به کد زیر توجه کنین:

<link href="http://www.example.com/canonical-version-of-page/" rel="canonical" />

این تگ به موتورهای جستجوگر بینگ و گوگل میگه که صفحه مورد نظر باید به شکلی رفتار شه که کپی نشانی http://www.example.com/canonical-version-of-pageه و همه معیارهای مربوط به لینک و محتوای اونا باید به سمت نشانی جدید منتقل شه.

مونهای زیر نشون میده که چیجوری خطاهای مربوط به حروف بزرگ، می تونه منتهی به ایجاد محتوای تکراری شه:

http://www.simplyhired.com/a/jobs/list/q-software+developer
http://www.simplyhired.com/a/jobs/list/q-Software+developer
http://www.simplyhired.com/a/jobs/list/q-software+Developer
تنها فرقی که بین این آدرسا هست، بزرگ یا کوچیک نوشته شدن کلمات “software” و “developer” است. موتور جستجوگر، همه این نشانیا رو به عنوان یه صفحه متفاوت می بینه و اونو به عنوان محتوای تکراری می شناسه. با به کار گیری تگ rel=canonical در دومین و سومین مورد و اشاره کردن اون به مورد اول، موتور جستجوگر می دونه که باید با اون دو صفحه تکراری مانند صفحه اول رفتار کنه.

تگ rel=canonical به شکل زیر در هدینگ HTML سایت قرار میگیره.

به کار گیری کد noindex, follow

رباتای متا تگ با مقادیر noindex, follow رو میشه تو یه صفحه مورد استفاده قرار داد. این گزینه نشون میده که صفحه مورد نظر نباید در موتورهای جستجوگر ایندکس شه. اینکار به رباتای موتورهای جستجوگر اجازه میده لینکای موجود در صفحه مشخص شده رو Crawl کنن اما اونو ایندکس نکنن. اینکار با مشکلات مربوط به صفحه بندی کمک می کنه.

مدیریت متغیرها در گوگل وبمستر

گوگل وبمستر تولز به شما اجازه میده دامنه مورد نظر خود رو تنظیم کنین و نسخه های خیلی از پارامترهای URL رو به صورت متفاوت، مدیریت کنین. اصلی ترین عیب این روش اینه که فقط واسه گوگل کار می کنه. هر تغییری که از راه این وسیله انجام می شه تاثیری روی بینگ یا بقیه موتورهای جستجوگر نداره.

این موضوع باید واسه همه سایتا تنظیم شه. این یه روش ساده س! که به گوگل میگه سایت ارائه شده باید به همراه www یا بدون اون در موتورهای جستجوگر نشون داده شه.

روشای دیگه واسه حل مشکل محتوای تکراری

  1. وقتی که در حال لینک سازی داخلی در سایت هستین، پایدار و کامل عمل کنین. مثلا؛ اگه وبمستر تعیین کنه که نسخه معمولی یا همون نسخه canonical یه دامنه به صورت example.com باشه، پس همه لینکای داخلی باید از این روش پیروی کنن (به نبود www در اول نشانی دقت کنین).
  2. در زمان لینک گرفتن واسه صفحه خود دقت کنین که لینک به نشانی اصلی سایت داده شده باشه، نه به یکی از متغیرهای نشانی!
  3. به کار بردن محتوای مشابه در سایت خود رو به کمترین حد ممکن برسونین. مثلا به جای اینکه یه صفحه در مورد “کفش واسه آقایون” و یه صفحه دیگه واسه “کفش واسه بانوان” داشته باشین که ۹۵% محتوای تکراری دارن، تلاش کنین این صفحات رو به یه صفحه واحد تبدیل کنین و همه اطلاعات لازم رو در اون بذارین. هم اینکه، می تونین این صفحات رو به شکلی پیشرفت بدین که شامل محتوای در رابطه و جدا از هم واسه هر URL باشه.
  4. با به کار گیری گزینه noindex, follow، محتوای تکراری رو از موتورهای جستجوگر خط بزنین. شما می تونین این کار رو از راه ربات متا یا وبمستر تولز انجام بدین.

نکاتی در مورد محتوای تکراری از نوع دوم (محتوای تکراری در چند سایت)

محتوای تکراری و غیر اصلی به اعتبار و رتبه دامنه سایت شما آسیب جدی وارد می کنه

تا حالا سایتی مشاهده نشده که از محتوای تکراری استفاده کرده باشه اما رتبه خوبی در گوگل بدست آورده. یه جمله از بیل گیتس داریم که میگه من واسه کارای مهم آدمای تنبل استخدام می کنن، چونکه سریع ترین روش رو واسه انجام کارا دنبال می کنن.

این گفته خیلی زیباست اما نه همه جا مخصوصا در تولید محتوا. شما اگه یه کارمند تنبل رو واسه بخش محتوای سایت خود استخدام کنین، اون به جای تولید محتوای ناب، مطالب دیگر سایتا رو کپی کرده و مثل در بخش بلاگ سایت شما قرار میده.

وقتی این اتفاق میفته، زنگ خطر گوگل به صدا در میاد و خیلی سریع علاوه بر جریمه گوگل، اونو در بلک لیست (بلک لیست (لیست سیاه)) خود قرار میده. دیگه بیرون اومدن از این بلک لیست (بلک لیست (لیست سیاه)) اصلا راحت نیس.

موضوعی که دیگه زمان بندی پست گذاریه. پستاتون نباید تو یه زمان مشخص و متوالی پشت سرهمدیگر قرار بگیره. اینم ممکنه که بر اعتبار سایت شما، آسیب برسونه.

البته بعضی از سایتای معروف دنیا، بلاگ خود رو در دیگه جاها مثل قرار داده و براشون مهم نیس که اون دامنه جریمه شه یا خیر که میشه گفت هدف اونا بیشتر گرفتن بک لینکه.

بک لینک

اسکرپر( Scrapers) به سایت شما آسیب میزنن

بیشتر بلاگ نویسان، وسیله گوگل وبسمتر تولز رو همیشه بررسی می کنن و سایتای اسکرپر که محتوای سایت اونا رو کپی می کنن، خیلی سریع لینک شون رو به اون سایت رد می کنن. در واقع میشه گفت که بیشتر وبلاگ نویسان قوانین محتوای تکراری گوگل یا راهنمای رد کردن رو نمی دونن.

در واقع باید گفت که اسکرپر سایتایی که محتوای سایت شما دقیقا کپی می کنن، هیچ سود یا ضرری براتون ندارن. این سایتا میشه گفت که چون از محتوای تکراری استفاده می کنن، هیچ گونه بازدیدکننده ای ندارن، پس لازم نیس که اینقدر خود رو نگران اینجور مسائلی کنین.

اجازه بدین که یه نکته ای رو بگم. اینجور سایتایی چون مطالب و لینکای داخلی رو کلمه به کلمه ورمیدارن، اگه شما قوانین سئو داخلی که یکی از اونا لینک دهی بین صفحات(داخلی) است رو رعایت کرده باشین، لازم نیس که نگران این موضوع باشین، چون لینکای داخلی براساس کلمات کلیدی انجام می شه، پس اون به کار بردن اون کلمه در اون سایت هم می تواندبک لینکی واسه شما باشه.

ما به هر حال واسه در امان موندن از زیان محتوای تکراری اینجور موردی، بهتره که چند پیشنهاد زیر رو جدی بگیرین.

پیشنهاد اول – گزارش دادن اسکرپر به گوگل باعث افزایش رتبه سایت شما می شه

اسکرپر به گوگل در محتوای تکراری
گوگل همیشه وقتی با محتوای تکراری مواجه می شه، کمی گیج می شه که کدوم مطلب کپی شده دیگه ایه. پس به تاریخ ایندکس سایت نگاه می کنه، اما شما می تونین که با معرفی لینک سایتای اسکرپر به گوگل این موضوع رو بگید و اونو خبر دار کنین. در واقع این نکته واسه شما یه بک لینک و مزیت می شه. واسه انجام این کار می تونین از وسیله گزارش اسکرپر استفاده کنین.

پیشنهاد دوم – واسه محتوای خود امضای دیجیتالی در گوگل بذارین

واسه همه محتوای سایت خود یه امضای دیجیتالی مخصوص نویسنده تولید کنین تامطلب هر جا که استفاده گردید، کاربران خیلی سریع متوجه محتوای تکراری اون شن یعنی اینکه این مطلبی الان در اون سایت مطالعه می کنن، کپی شده از یه سایت دیگه ایه.

پیشنهاد سوم – اقدام جدی و قانونی علیه سارقان ادبی انجام بدین

فرق اسکرپر با دزد محتوا در اینه که اسکرپر محتوای شما به نام خود ثبت نمی کنه اما دزد محتوا که دزد ادبی تلقی می شه، محتوا رو به نام خود ثبت می کنه و به فروش میرسونه. پس این دسته از آدما که میخوان با محتوای تکراری و در واقع دزدیدن زحمت شما واسه خود هویتی بخرن، جدی بگیرین و در برابر اونا هر گونه اقدام امنیتی رو که میدونید، به کار ببرین.

انتشار دوباره پستای بلاگ مهمون به سایت شما آسیب میرسونه

ممکنه که شما پست بلاگ مهمون در سایت خود بذارین وبعد از چند وقت، کاربران از شما بخوان که اون پست رو دوباره منتشر کنین یا اینکه در بلاگ سایت بزرگ، مطلبی نوشته اید و کاربران از شما درخواست می کنن که اونو درسایت خود هم بذارین، این موضوع باعث ایجاد محتوای تکراری می شه واگر اصول اونو رعایت نکنین، مورد جریمه گوگل قرار میگیرین. بهتره که تو تگ در HTML استفاده کنین تا گوگل فهمیده باشه که سورس اصلی مطلب در کجاس تا دامنه شما رو به خاطر محتوای تکراری جریمه نکنه.

از Evil Twin استفاده کنین

Evil Twin به معنی مخالف در تولید محتوا هستش. فرض کنین که سایت اصلی در مورد ” چیجوری انجام شدن ” هستش، حال شما مخالف اون بنویسین، یعنی ” چیجوری انجام نشدن” بنویسین و مثالا رو به صورت مخالف به کار ببرین. این موضوع که دیگه به صورت محتوای تکراری تلقی نمی شه و حتی گوگل شما رو مورد جریمه قرار نمیده وهیچ کسی هم نمی تونه به شما به خاطر این کار ایراد بگیره.

منبع:   novin.com- seokar.com

Share