Zamaskiranje u crno SEO. Isplati li se koristiti? Što je prikrivanje i kako prikrivati ​​u različitim izvorima? Trebam li se sakriti od oglašivača ili pridruženog programa?

Izdali smo novu knjigu “Content Marketing in u društvenim mrežama: Kako ući u glave svojih pretplatnika i natjerati ih da se zaljube u vaš brend.”


Prikrivanje je polulegalna metoda optimizacija pretraživača. Njegova bit su korisnici i roboti pretraživač na pitanje vide dva različite verzije ista stranica.

Više videa na našem kanalu - naučite internet marketing uz SEMANTICA

U prijevodu s engleskog ovaj izraz znači "maska, pokrivač". Ovo objašnjava svrhu ove metode prezentiranja informacija na mreži. Teško je dobiti dobar tekst koji odgovara svemu ključne riječi. Stoga optimizatori stvaraju dvije verzije stranica web stranice - jednu koju korisnici mogu lako čitati i onu koja sadrži sve ključne riječi za robote.

Očita prednost ove tehnike je da stranica brzo doseže visoke pozicije u rezultatima pretraživanja i svatko dobije ono što želi: roboti dobiju optimiziranu stranicu, a korisnik čitljiv tekst bez spama i verbalnog smeća.

Cloaking se često koristi u. Redistribuira se i otvara različite sadržaje za moderatore oglašavanja i ciljanu publiku. Ovo se radi kako bi se traženi tekst prilagodio pravilima reklamna mreža– koristeći samo jednu poveznicu, prikažite dvije različite stranice.

Nemojte misliti da su prikrivanje i vrata ista stvar. Razlika je u tome što prva metoda ne preusmjerava korisnika na drugu stranicu.

Zašto je maskiranje potrebno?

Prikrivanje se koristi ne samo za zavaravanje tražilica, već i za jednostavnije i ugodan rad na stranicama. Primjer crnog maskiranja bile bi stranice koje su rangirane prema ključnim riječima, ali zapravo sadrže oglase ili poveznice koje nisu relevantne za korisničke upite.

Postoje i bezopasniji razlozi za korištenje prikrivanja:

  • Zaštitite sadržaj od krađe. Šifra koju vlasnik štiti od kopiranja nije vidljiva korisnicima.
  • Osigurajte web stranice na traženom jeziku. Za to se koriste postavke preglednika.
  • Prepoznajte lokaciju korisnika prema IP adresi.
  • Održavajte dizajn stranice koristeći metode koje roboti za pretraživanje ne uzimaju u obzir prilikom dodavanja stranica u svoj sustav. Verzija koja je stvorena za tražilice, ista po strukturi i sadržaju, nudi se u najpovoljnijem svjetlu za njih.

Kako funkcionira prikrivanje

Za izradu kopiranih stranica nije vam potrebno samo znanje programiranja, već i sposobnost optimiziranja teksta za tražilicu. Također morate imati informacije o IP-u ili korisničkom agentu.

Proces maskiranja izvodi se pomoću skripti koje se pokreću na web poslužitelju. Oni primaju zahtjev i usmjeravaju skriptu da pronađe izvor. Njihov zadatak je otkriti tko ih je kontaktirao - robot ili korisnik, i pokazati prava opcija stranice. Parametar za određivanje izvora zahtjeva je IP adresa ili korisnički agent.

Korištenje korisničkog agenta

Ovo je naziv metode za provjeru podataka zahtjeva korisničkog agenta na poslužitelju. Ime robota za pretraživanje je navedeno, skripta traži to ime u svojoj bazi podataka. Ako poslužitelj vrati ime ovog robota, prikazuje se optimizirana stranica. Ako ime nije na popisu, daje se opcija za prikaz stranice za korisnika.

Ovo je pristupačna i učinkovita tehnika, ali ima niz nedostataka:

  • Lako se prepoznaje čak i na korisničkoj razini. Dovoljno je instalirati poseban program i pod lažnim imenom pristupiti verziji za robote.
  • Tražilica, mijenjajući ime robota u ono koje nije u bazi podataka skripte, otvorit će stranicu stvorenu za ljude.

Korištenje IP adresa

Ova metoda je vrlo slična metodi User-agent u smislu rada, ali se smatra najučinkovitijom. Njegova bit je u prepoznavanju IP adrese, koja se ne može lažirati. Svaki korisnik ili robot ima svoju individualnu adresu. Skripta provjerava korisnikov IP s podacima svoje tražilice. Nakon ove provjere otvara se stranica namijenjena svakome: korisnik ima svoju, robot ima svoju.
Posjedujući adrese tih IP-ova, lako možete prevariti ne samo robota, već i stvarne ljude - radnike tražilice koji ponekad ručno provjeravaju stranice. Ispred njih će se otvoriti ista stranica kao i pred paukom.

Najpouzdaniji način da izbjegnete otkrivanje pri korištenju maskiranja jest kombinirati obje metode odjednom. Skripte imaju zadatak provjeravati podatke korisničkog agenta i IP adrese na zahtjev.

Tražilice protiv prikrivanja

Gotovo sve tražilice su protiv takvih metoda rada. Vjeruju da maskiranje, kao i spam, začepljuje baze podataka i ometa normalan rad tražilica. Kada botovi prepoznaju takve stranice, primjenjuju ih kazne.

Yandex se protiv ove metode popularizacije stranica bori pesimizacijom - stranica gubi pozicije u rezultatima pretraživanja za određene upite pretraživanja. Stoga tražilica nastoji uključiti resurse s korisnim sadržajem u TOP 10.

Ne samo Yandex, nego i druge tražilice bore se protiv maskiranja i zaustavljaju ga različiti putevi. Često se događa da se verzije poslužiteljskih stranica razlikuju ne samo u kvaliteti optimiziranog teksta, već iu njegovoj apsolutnoj različitosti od izvornog. Robot gleda tekst s ključnim riječima, a korisnik vidi reklame i poveznice koje nisu vezane uz zahtjev.

No podsjetimo vas još jednom da prikrivanje nije uvijek zlo. Na primjer, Google odabire verziju početne stranice web-mjesta na temelju regije i jezika korisnika.

Ako namjeravate koristiti prikrivanje ili slične metode, zapamtite da to može biti razlog za blokiranje stranice. Ali ako možete dokazati da koristite takvu tehniku ​​za dobrobit korisnika, oni će vam pokazati popustljivost.

Maskiranje(od engleskog "cloaking" - sakriti) - jedna od crnih metoda pretraživanja optimizacija web stranice. Glavna mu je svrha prikazati tražilicu html kod stranice, ali drugačiji za posjetitelja. Kao rezultat toga, dobivamo dvije verzije iste stranice na istoj URL. Jedan je usmjeren na posjetitelja, a drugi na robota za pretraživanje.

Možda se pitate čemu ovo služi? Odgovor je vrlo jednostavan: za maksimalnu zaradu affiliate programi za stranicu.

Na primjer, ako stranica sadrži puno reklama na istaknutom mjestu, tada su šanse da korisnik klikne na nju vrlo velike. No promovirati stranicu samo s oglašavanjem bilo bi glupo, budući da tražilica zna za sadržaj stranice i vjerojatnost da će takva stranica biti na vrhu je zanemariva.

Druga stvar je savršeno optimizirana stranica za tražilicu, u kojoj nema oglašavanja, već samo dobro optimizirana stranica sadržaj, koji je izoštren pod ključne riječi. Ovakva stranica bit će vrlo cijenjena rang u broju. Međutim, ova metoda prijevare je vrlo opasna. Ako tražilica sazna za to, stranica će barem izgubiti pozicije, a najvjerojatnije će biti potpuno izbačena sa stranice. indeks.

Kako napraviti prikrivanje

Reći ću vam nekoliko riječi o tome kako napraviti maskiranje. To se radi pomoću posebne skripte koja razlikuje korisnike od robota. Distribucija se temelji na bilo kojem Korisnički agent, ili IP adrese.

  • Korisnički agent svake tražilice poznat je svima, ali ova metoda je očito neuspjeh, jer robot se može šifrirati za korisnika.
  • IP adresa je pouzdanija metoda, ali nije idealna. Prvo, procjenitelji može pristupiti vašoj stranici putem proxy poslužitelja ili na neki drugi način i vidjeti pravi sadržaj stranice. Drugo, IP adrese tražilica stalno se mijenjaju i da biste dobili ažurne informacije, morat ćete dobro platiti.

Unatoč svim prljavim metodama korištenja prikrivanja, ono ima i svojih prednosti. Pogledajmo kako se to može koristiti za dobro.

Prednosti prikrivanja

  • Ispis sadržaja u potrebnom kodiranju ovisno o postavkama preglednika;
  • Poboljšanje dizajna zamjenom mnogih elemenata raznih slabo indeksiranih elemenata, na primjer, AJAX ili javascript itd. Korisnik vidi isti sadržaj u prikladnom obliku, a tražilica lako indeksira isti sadržaj, ali u lakšem obliku

Unatoč prednostima, prikrivanje se obično ne koristi zbog pogodnosti korisnika, već kako bi se povećao promet i na kraju dobio novac. Nisam pobornik black hat SEO-a, stoga ne preporučam maskiranje. Ali ako su vaši konkurenti krivi za to, savjetujem vam da se žalite na njih putem obrasca Povratne informacije u Yandexu i

Cloaking (od engleskog cloak - maska, pokrivač)jedna od metoda crnog SEO-a, kada se prikazuju robot za pretraživanje i korisnik različite varijante ista stranica.

Čitljive tekstove teško je optimizirati za sve ključne riječi, pa webmasteri razvijaju 2 verzije stranica web stranice, za korisnika i za robota.

Maskiranje je pomalo slično metodi vrata, međutim, ne koristi automatsko ili ručno preusmjeravanje korisnika na željenu stranicu, što smanjuje vjerojatnost da vašu optimiziranu stranicu ukradu konkurenti. Ali stvaranje kopija stranica je mukotrpan posao, jer zahtijeva ne samo osnove programiranja, već i dostupnost podataka kao što su IP ili korisnički agent robota.

Prikrivanje, kao i vrata, može se podijeliti na:

  1. Crna je nezakonita, korisniku se prikazuje tekst koji ne odgovara zahtjevu, a robotu se prikazuje optimizirani tekstualni materijal za povećanje ranga.
  2. Sivo. Ponekad se sadržaj prikazan na stranici može ispisati ili prikazati u tekstualnom obliku, zbog čega se isti materijal može prezentirati u 2 ili više verzija. Veze na takve tekstove s drugih stranica mogu uzrokovati njihovo indeksiranje i klasificiranje kao nejedinstvene. Kako bi se spriječilo da se to dogodi, preusmjeravanje je instalirano na sekundarnim vezama, koje preusmjerava sok veze na originalni izvorni članak. Ova metoda ne šteti korisnicima i ne podrazumijeva nametanje filtara.
  3. Bijelo je legalno maskiranje. Web stranice preusmjeravaju korisnike kako bi olakšale korištenje stranice. Ovako radi geografsko ciljanje.

Kako stvarati?

Korisnik se može razlikovati od pretraživačkog robota pomoću IP adrese i korisničkog agenta. Robotu se automatski prikazuje optimizirana stranica, a korisniku standardni sadržaj stranice. Za izradu takvih stranica koriste se sljedeći programi:

  1. Korisnički agent je najlakši način maskiranja. Webmaster pregledava podatke korisničkog agenta koji sadrže naziv robota za pretraživanje. Jedan od Yandex algoritama poznat je kao Yandex/1.01.001 (kompatibilan; Win16; I), znajući imena robota, možete napisati funkciju za usporedbu imena robota i korisničkog agenta posjetitelja i pokazati svakom od njih tražene sadržaj. Lako se otkriva - za ovo, korištenjem posebni programi, samo trebate otići na stranicu pod imenom robota i dobiti "ispravljenu" stranicu stranice. Najčešće, prikrivanje na ovaj način određuju konkurenti kako bi "prijavili" lažnu stranicu usluzi tražilice, koja će kazniti prekršitelje.
  2. IP adresa je najviše učinkovita metoda cloaking, roboti za pretraživanje prepoznaju se po IP adresama i prilično ih je teško krivotvoriti. Korisnicima možete pokazati standard web mjesta odabirom njegovih stranica iz posebne baze podataka - robot ne može ručno prepoznati takvu shemu. Ali ova metoda zahtijeva pristup bazi podataka adresa.
  3. Kombinirano maskiranje - kombinacija provjere korisničkog agenta i IP adresa. Metoda pokazuje najviše rezultate, ali je najintenzivnija.

Prikrivanje i tražilice

Gotovo sve tražilice prepoznaju maskiranje kao nezakonito i suzbijaju ga na sve moguće načine. Ponekad se stranice web stranica razlikuju ne samo u kvaliteti optimizacije sadržaja, već iu ukupnoj različitosti od originala. Na primjer, robot može vidjeti tekstualni materijal s ključnim riječima, a korisnik može vidjeti reklame. Kao što je gore spomenuto, nije svako prikrivanje prijevara.

Maskiranje koristi Amazon.com (prikazuje proizvode ovisno o prethodnom otvorene stranice), Yelp.com, neki Google usluge, NYTimes.com (registrirati se možete tek nakon 5 klikova), ComputerWorld.com (korisnici vide oglase, a robot vidi html tekst) i Forbes.com (da biste došli do početna stranica, trebate pogledati jednu reklamu).