پنهان سازی در سئو سیاه. آیا ارزش استفاده دارد؟ cloaking چیست و چگونه در منابع مختلف cloaking انجام می شود؟ آیا باید از یک تبلیغ کننده یا برنامه وابسته پنهان شوم؟

ما کتاب جدیدی با عنوان بازاریابی محتوا در در شبکه های اجتماعی: چگونه به ذهن مشترکین خود وارد شوید و آنها را عاشق برند خود کنید."


پنهان کاری یک روش نیمه قانونی است بهینه سازی موتور جستجو. ماهیت آن کاربران و روبات ها هستند موتور جستجووقتی از آنها پرسیده شد دو نفر را می بینند نسخه های مختلفهمان صفحه

ویدیوهای بیشتر در کانال ما - بازاریابی اینترنتی را با SEMANTICA یاد بگیرید

این اصطلاح از انگلیسی ترجمه شده به معنای "نقاب، پوشش" است. این هدف از این روش ارائه اطلاعات در شبکه را توضیح می دهد. دریافت متن خوب و متناسب با همه چیز دشوار است کلید واژه ها. بنابراین، بهینه سازها دو نسخه از صفحات سایت را ایجاد می کنند - یکی که کاربران به راحتی می توانند آن را بخوانند و دیگری که حاوی تمام کلمات کلیدی برای روبات ها است.

مزیت آشکار این تکنیک این است که سایت به سرعت به موقعیت های بالایی در نتایج جستجو می رسد و همه به آنچه می خواهند می رسند: روبات ها صفحه ای بهینه می کنند و کاربر متنی قابل خواندن بدون هرزنامه و زباله های کلامی دریافت می کند.

پنهان سازی اغلب در. توزیع مجدد می شود و مطالب مختلفی را برای مدیران تبلیغات باز می کند و مخاطب هدف. این کار به منظور تطبیق متن مورد نیاز با قوانین انجام می شود شبکه تبلیغاتی- فقط با استفاده از یک پیوند، دو سایت مختلف را نشان دهید.

فکر نکنید که پوشش و درگاه یک چیز هستند. تفاوت این است که روش اول کاربر را به صفحه دیگری هدایت نمی کند.

چرا پوشش نیاز است؟

Cloaking نه تنها برای فریب موتورهای جستجو، بلکه برای ساده تر و ساده تر استفاده می شود کار راحتدر سایت ها نمونه ای از پنهان کاری سیاه می تواند صفحاتی باشد که برای کلمات کلیدی برتر رتبه بندی می شوند، اما در واقع حاوی تبلیغات یا پیوندهایی هستند که به درخواست های کاربر مرتبط نیستند.

همچنین دلایل بی ضررتری برای استفاده از cloaking وجود دارد:

  • محافظت از محتویات در برابر سرقت کدی که مالک آن را از کپی محافظت می کند، برای کاربران قابل مشاهده نیست.
  • وب سایت ها را به زبان مورد نیاز ارائه دهید. برای این کار از تنظیمات مرورگر استفاده می شود.
  • مکان کاربر را با آدرس IP شناسایی کنید.
  • طراحی صفحه را با استفاده از روش هایی که ربات های جستجوگر هنگام افزودن صفحات به سیستم خود در نظر نمی گیرند، حفظ کنید. گزینه ای که برای موتورهای جستجو ایجاد شده است، از نظر ساختار و محتوا، در مطلوب ترین حالت برای آنها ارائه می شود.

نحوه عملکرد cloaking

برای ایجاد صفحات کپی، نه تنها به دانش برنامه نویسی نیاز دارید، بلکه به توانایی بهینه سازی متن برای موتور جستجو نیز نیاز دارید. همچنین باید اطلاعاتی در مورد IP یا User-agent داشته باشید.

فرآیند پنهان سازی با استفاده از اسکریپت هایی که روی سرور وب اجرا می شوند انجام می شود. آنها درخواست را دریافت می کنند و فیلمنامه را برای یافتن منبع هدایت می کنند. وظیفه آنها این است که بفهمند چه کسی با آنها تماس گرفته است - یک ربات یا یک کاربر، و نشان می دهد گزینه مناسبصفحات پارامتر تعیین منبع درخواست آدرس IP یا User-agent است.

با استفاده از User-agent

این نام روش بررسی داده های درخواست عامل کاربر در سرور است. نام ربات جستجوگر مشخص شده است، اسکریپت به دنبال این نام در پایگاه داده خود می گردد. اگر سرور نام این ربات را برگرداند، صفحه بهینه شده نشان داده می شود. اگر نام در لیست نباشد، گزینه ای برای نمایش صفحه برای کاربر داده می شود.

این یک تکنیک مقرون به صرفه و موثر است، اما دارای معایبی است:

  • حتی در سطح کاربر به راحتی قابل تشخیص است. کافی است یک برنامه خاص نصب کنید و با استفاده از یک نام جعلی به نسخه مربوط به روبات ها دسترسی پیدا کنید.
  • موتور جستجو با تغییر نام ربات به نامی که در پایگاه داده اسکریپت نیست، صفحه ای را باز می کند که برای افراد ایجاد شده است.

استفاده از آدرس های IP

این روش از نظر عملکرد بسیار شبیه به روش User-agent است اما موثرترین روش محسوب می شود. ماهیت آن در تشخیص یک آدرس IP است که نمی توان آن را جعلی کرد. هر کاربر یا ربات آدرس فردی خود را دارد. اسکریپت IP کاربر را با داده های موتور جستجوی خود بررسی می کند. پس از این بررسی، یک صفحه در نظر گرفته شده برای هر یک باز می شود: کاربر صفحه خود را دارد، ربات نیز صفحه خود را دارد.
با داشتن آدرس این IP ها، می توانید به راحتی نه تنها یک ربات، بلکه افراد واقعی را نیز فریب دهید - کارگران موتورهای جستجو که گاهی اوقات به صورت دستی سایت ها را بررسی می کنند. همان صفحه ای که در مقابل عنکبوت در مقابل آنها باز می شود.

مطمئن ترین راه برای جلوگیری از شناسایی در هنگام استفاده از cloaking این است که هر دو روش را به طور همزمان ترکیب کنید. وظیفه این اسکریپت ها بررسی داده های User Agent و آدرس های IP در صورت درخواست است.

موتورهای جستجو در برابر cloaking

تقریباً همه موتورهای جستجو مخالف چنین روش های کاری هستند. آنها معتقدند که پنهان کاری، مانند هرزنامه، پایگاه داده ها را مسدود می کند و در عملکرد عادی موتورهای جستجو اختلال ایجاد می کند. وقتی ربات‌ها چنین سایت‌هایی را می‌شناسند، جریمه‌هایی را برای آن‌ها اعمال می‌کنند.

Yandex در حال مبارزه با این روش محبوب کردن سایت ها با استفاده از بدبینی است - سایت موقعیت های خود را در نتایج جستجو برای عبارات جستجوی خاص از دست می دهد. بنابراین، موتور جستجو در تلاش است تا منابع با محتوای مفید را در TOP 10 قرار دهد.

نه تنها Yandex، بلکه سایر موتورهای جستجو نیز در حال مبارزه با پنهان کردن و متوقف کردن آن هستند راه های مختلف. اغلب اتفاق می افتد که نسخه های صفحات سرور نه تنها در کیفیت متن بهینه شده، بلکه در تفاوت مطلق آن با متن اصلی نیز متفاوت است. ربات با کلمات کلیدی به متن نگاه می کند و کاربر تبلیغات و لینک هایی را می بیند که مرتبط با درخواست نیستند.

اما اجازه دهید یک بار دیگر به شما یادآوری کنیم که پنهان کاری همیشه شیطانی نیست. به عنوان مثال، گوگل نسخه صفحه اصلی سایت را بر اساس منطقه و زبان کاربر انتخاب می کند.

اگر قصد استفاده از cloaking یا روش های مشابه را دارید، به یاد داشته باشید که این ممکن است زمینه ای برای مسدود کردن سایت باشد. اما اگر بتوانید ثابت کنید که از چنین تکنیکی به نفع کاربران استفاده می کنید، آنها به شما نرمش نشان می دهند.

پنهان کاری(از انگلیسی "cloaking" - برای پنهان کردن) - یکی از روش های جستجوی سیاه بهینه سازی وب سایت. هدف اصلی آن نشان دادن موتور جستجوگر است htmlکد صفحه، اما برای بازدیدکننده متفاوت است. در نتیجه، ما دو نسخه از یک سایت را در همان سایت دریافت می کنیم URL. یکی به سمت بازدید کننده و دیگری به سمت ربات جستجوگر است.

ممکن است این سوال را بپرسید که این برای چیست؟ پاسخ بسیار ساده است: برای حداکثر درآمد برنامه های وابسته برای سایت.

به عنوان مثال، اگر صفحه ای حاوی تعداد زیادی تبلیغات در یک مکان برجسته باشد، احتمال اینکه کاربر روی آن کلیک کند بسیار زیاد است. اما تبلیغ یک صفحه فقط با تبلیغات احمقانه خواهد بود، زیرا موتور جستجو از محتوای صفحه اطلاع دارد و احتمال اینکه چنین صفحه ای در بالای صفحه باشد ناچیز است.

مورد دیگر یک صفحه کاملاً بهینه شده برای یک موتور جستجو است که در آن تبلیغاتی وجود ندارد، بلکه فقط یک صفحه بهینه شده خوب است. محتوا، که در زیر تیز می شود کلید واژه ها. سایتی مانند این بسیار قدردانی خواهد شد رتبهدر موضوع با این حال، این روش فریب بسیار خطرناک است. اگر موتور جستجو متوجه این موضوع شود، سایت حداقل موقعیت های خود را از دست می دهد و به احتمال زیاد به طور کامل از سایت خارج می شود. فهرست مطالب.

نحوه انجام cloaking

من چند کلمه در مورد نحوه انجام cloaking به شما می گویم. این کار با استفاده از یک اسکریپت خاص انجام می شود که کاربران را از روبات ها متمایز می کند. توزیع بر اساس هر کدام است عامل کاربر، یا آدرس های IP.

  • User-Agent هر موتور جستجو برای همه شناخته شده است، اما این روش بدیهی است که شکست خورده است، زیرا ربات می تواند برای کاربر رمزگذاری شود.
  • آدرس IP روش قابل اعتماد تری است، اما ایده آل نیست. اولا، ارزیابانمی تواند از طریق یک سرور پروکسی یا به طریق دیگری به سایت شما دسترسی داشته باشد و محتوای واقعی سایت را مشاهده کند. دوم اینکه آدرس های IP موتورهای جستجو دائما در حال تغییر هستند و برای دریافت اطلاعات به روز باید هزینه خوبی پرداخت کنید.

با وجود تمام روش های کثیف استفاده از cloaking، مزایای خود را نیز دارد. بیایید ببینیم که چگونه می توان از آن برای خوبی استفاده کرد.

مزایا پنهان کاری

  • بسته به تنظیمات مرورگر، محتوای خروجی را در کدگذاری مورد نیاز تولید کنید.
  • بهبود طراحی با جایگزینی بسیاری از عناصر از عناصر مختلف با نمایه ضعیف، به عنوان مثال، AJAX یا جاوا اسکریپت و غیره. کاربر همان محتوا را در یک فرم مناسب می بیند و موتور جستجو به راحتی همان محتوا را فهرست می کند، اما به شکل ساده تر.

با وجود مزایا، cloaking معمولا نه برای راحتی کاربر، بلکه به منظور افزایش ترافیک و در نهایت کسب درآمد استفاده می شود. من طرفدار سئو کلاه سیاه نیستم، بنابراین cloaking را توصیه نمی کنم. اما اگر رقبای شما در این مورد مقصر هستند، به شما توصیه می کنم از طریق فرم از آنها شکایت کنید بازخورددر Yandex و

پوشش (از شنل انگلیسی - ماسک، پوشش)یکی از روش های سئو سیاه، زمانی که ربات جستجوگر و کاربر نشان داده می شود انواع مختلفهمان صفحه

بهینه سازی متون قابل خواندن برای همه کلمات کلیدی دشوار است، بنابراین مدیران وب سایت ها 2 نسخه از صفحات سایت را برای کاربر و برای ربات توسعه می دهند.

Cloaking کمی شبیه به روش درگاه است، اما از تغییر مسیر خودکار یا دستی کاربر استفاده نمی کند. صفحه مورد نظر، که احتمال دزدیده شدن صفحه بهینه شده شما توسط رقبا را کاهش می دهد. اما ایجاد کپی از صفحات کار پر زحمتی است، زیرا نه تنها به اصول اولیه برنامه نویسی نیاز دارد، بلکه به در دسترس بودن داده هایی مانند آی پی یا عامل کاربر ربات ها نیز نیاز دارد.

پوشش، مانند درها، را می توان به موارد زیر تقسیم کرد:

  1. مشکی غیرقانونی است، متنی به کاربر نشان داده می‌شود که با درخواست مطابقت ندارد، و به روبات متن بهینه‌سازی شده برای افزایش رتبه نشان داده می‌شود.
  2. خاکستری. گاهی اوقات می توان مطالب ارائه شده در سایت را به صورت متنی چاپ یا نمایش داد، به همین دلیل است که همان مطالب را می توان در 2 نسخه یا بیشتر ارائه کرد. پیوند به چنین متونی از سایت‌های دیگر ممکن است باعث نمایه‌سازی و طبقه‌بندی آن‌ها به عنوان غیر منحصر به فرد شود. برای جلوگیری از این اتفاق، یک تغییر مسیر روی پیوندهای ثانویه نصب می شود که آب پیوند را به مقاله منبع اصلی هدایت می کند. این روش به کاربران آسیبی نمی رساند و مستلزم اعمال فیلتر نمی باشد.
  3. سفید پوشش قانونی است. وب سایت ها کاربران را هدایت می کنند تا استفاده از سایت را آسان تر کنند. هدف گذاری جغرافیایی به این صورت است.

چگونه ایجاد کنیم؟

کاربر را می توان با استفاده از آدرس IP و عامل کاربر از یک ربات جستجوگر متمایز کرد. ربات به طور خودکار یک صفحه بهینه شده نشان داده می شود و به کاربر محتوای استاندارد سایت نشان داده می شود. برنامه های زیر در توسعه چنین سایت هایی استفاده می شود:

  1. User Agent ساده ترین راه برای پوشاندن است. مدیر وب‌سایت داده‌های عامل کاربر را مشاهده می‌کند که حاوی نام ربات جستجوگر است. یکی از الگوریتم‌های Yandex با نام Yandex/1.01.001 (سازگار؛ Win16; I) شناخته می‌شود، با دانستن نام روبات‌ها، می‌توانید تابعی برای مقایسه نام ربات‌ها و User Agent بازدیدکنندگان بنویسید و به هر یک از آنها موارد مورد نیاز را نشان دهید. محتوا. به راحتی شناسایی می شود - برای این، با استفاده از برنامه های ویژه، فقط باید به سایت تحت نام ربات بروید و صفحه سایت "تصحیح شده" را دریافت کنید. بیشتر اوقات، پنهان کاری به این روش توسط رقبا تعیین می شود تا یک سایت جعلی را به یک سرویس موتور جستجو "گزارش" کند که متخلفان را مجازات می کند.
  2. آدرس IP بیشترین است روش موثرپنهان کردن، ربات های جستجو توسط آدرس های IP شناسایی می شوند و جعل آنها بسیار دشوار است. شما می توانید با انتخاب صفحات آن از یک پایگاه داده خاص، استاندارد سایت را به کاربران نشان دهید - یک ربات نمی تواند چنین طرحی را به صورت دستی تشخیص دهد. اما این روش نیاز به دسترسی به یک پایگاه داده از آدرس ها دارد.
  3. پنهان سازی ترکیبی - ترکیبی از بررسی نماینده کاربر و آدرس های IP. این روش بالاترین نتایج را نشان می دهد، اما بیشترین کار را انجام می دهد.

Cloaking و موتورهای جستجو

تقریباً همه موتورهای جستجو پنهان کاری را غیرقانونی می شناسند و به هر طریق ممکن آن را سرکوب می کنند. گاهی اوقات صفحات وب سایت نه تنها در کیفیت بهینه سازی محتوا، بلکه در کل تفاوت آن با نسخه اصلی متفاوت است. به عنوان مثال، یک ربات می تواند مطالب متنی را با کلمات کلیدی ببیند و یک کاربر می تواند تبلیغات را ببیند. همانطور که در بالا ذکر شد، همه پنهان کاری ها کلاهبرداری نیستند.

Cloaking توسط Amazon.com استفاده می شود (محصولات را بسته به موارد قبلی نشان می دهد باز کردن صفحات)، Yelp.com، برخی خدمات گوگل، NYTimes.com (فقط پس از 5 کلیک می توانید ثبت نام کنید)، ComputerWorld.com (کاربران تبلیغات را می بینند و ربات متن html را می بیند) و Forbes.com (برای دسترسی به صفحه نخست، باید یک تبلیغ را تماشا کنید).