Skydd i svart SEO. Är det värt att använda? Vad är cloaking och hur cloakar man i olika källor? Behöver jag gömma mig för en annonsör eller ett affiliateprogram?

Vi har släppt en ny bok "Content Marketing in i sociala nätverk: Hur du kommer in i dina prenumeranters huvuden och får dem att bli kära i ditt varumärke."


Cloaking är en semi-laglig metod sökmotoroptimering. Dess essens är användare och robotar sökmotor på frågan ser de två olika versioner samma sida.

Fler videor på vår kanal - lär dig internetmarknadsföring med SEMANTICA

Översatt från engelska betyder denna term "mask, lock." Detta förklarar syftet med denna metod för att presentera information på nätverket. Det är svårt att få till bra text som passar till allt nyckelord. Därför skapar optimerare två versioner av webbplatssidor – en som användarna enkelt kan läsa och en som innehåller alla sökord för robotar.

Den uppenbara fördelen med denna teknik är att sajten snabbt når höga positioner i sökresultaten, och alla får som de vill: robotarna får en optimerad sida, och användaren får läsbar text utan spam och verbalt skräp.

Cloaking används ofta i. Den omdistribueras och öppnar olika innehåll för annonsmoderatorer och målgrupp. Detta görs för att anpassa texten till reglerna annonsnätverk– med bara en länk, visa två olika webbplatser.

Tro inte att cloaking och dörröppning är samma sak. Skillnaden är att den första metoden inte omdirigerar användaren till en annan sida.

Varför behövs cloaking?

Cloaking används inte bara för att lura sökmotorer, utan också för enklare och bekvämt arbete på sajter. Ett exempel på svart cloaking skulle vara sidor som rankas för de bästa sökorden, men som faktiskt innehåller annonser eller länkar som inte är relevanta för användarnas frågor.

Det finns också mer ofarliga skäl för att använda cloaking:

  • Skydda innehållet från stöld. Koden, som ägaren skyddar från kopiering, är inte synlig för användarna.
  • Tillhandahålla webbplatser på det språk som krävs. Webbläsarinställningar används för detta.
  • Känn igen användarens plats genom IP-adress.
  • Underhåll siddesign med metoder som inte beaktas av sökrobotar när de lägger till sidor i deras system. Den version som skapades för sökmotorer, samma i struktur och innehåll, erbjuds i det mest gynnsamma ljuset för dem.

Hur cloaking fungerar

För att skapa kopieringssidor behöver du inte bara programmeringskunskaper, utan också förmågan att optimera text för en sökmotor. Du behöver också ha information om IP eller User-agent.

Maskeringsprocessen utförs med skript som körs på webbservern. De tar emot förfrågan och styr manuset för att hitta källan. Deras uppgift är att ta reda på vem som kontaktat dem – en robot eller en användare, och visa rätt alternativ sidor. Parametern för att fastställa källan till begäran är IP-adressen eller User-agent.

Använder User-agent

Detta är namnet på metoden för att kontrollera User-agent request-data på servern. Namnet på sökroboten anges, skriptet letar efter detta namn i sin databas. Om servern returnerar namnet på den här roboten visas den optimerade sidan. Om namnet inte finns i listan ges ett alternativ att visa sidan för användaren.

Detta är en prisvärd och effektiv teknik, men den har ett antal nackdelar:

  • Det är lätt att känna igen även på användarnivå. Det räcker att installera ett speciellt program och, med ett falskt namn, komma åt versionen för robotar.
  • Sökmotorn, som ändrar robotens namn till ett som inte finns i skriptdatabasen, kommer att öppna en sida skapad för människor.

Användning av IP-adresser

Denna metod är mycket lik User-agent-metoden när det gäller drift, men anses vara den mest effektiva. Dess kärna är att känna igen en IP-adress, som inte kan fejkas. Varje användare eller robot har sin egen individuella adress. Skriptet kontrollerar användarens IP med dess sökmotordata. Efter denna kontroll öppnas en sida avsedd för var och en: användaren har sin egen, roboten har sin egen.
Genom att äga adresserna till dessa IP-adresser kan du enkelt lura inte bara en robot, utan också riktiga människor - sökmotorarbetare som ibland manuellt kontrollerar webbplatser. Samma sida öppnas framför dem som framför spindeln.

Det mest pålitliga sättet att undvika att bli upptäckt när du använder cloaking är att kombinera båda metoderna samtidigt. Skripten har till uppgift att kontrollera User Agent-data och IP-adresser på begäran.

Sökmotorer mot cloaking

Nästan alla sökmotorer är emot sådana arbetsmetoder. De tror att cloaking, som spam, täpper till databaser och stör sökmotorernas normala funktion. När botar känner igen sådana webbplatser utsätter de straff för dem.

Yandex bekämpar denna metod för att popularisera webbplatser genom att använda pessimisering - webbplatsen förlorar positioner i sökresultaten för vissa sökfrågor. Därför strävar sökmotorn efter att inkludera resurser med användbart innehåll i TOP 10.

Inte bara Yandex, utan även andra sökmotorer kämpar mot cloaking och stoppar den olika sätt. Det händer ofta att versioner av serversidor skiljer sig inte bara i kvaliteten på den optimerade texten, utan också i dess absoluta skillnad från den ursprungliga. Roboten tittar på texten med nyckelord, och användaren ser annonser och länkar som inte är relaterade till förfrågan.

Men låt oss återigen påminna dig om att cloaking inte alltid är ont. Till exempel väljer Google versionen av webbplatsens startsida baserat på användarens region och språk.

Om du tänker använda cloaking eller liknande metoder, kom ihåg att detta kan vara skäl för att blockera sidan. Men om du kan bevisa att du använder en sådan teknik till förmån för användarna, kommer de att visa dig mildhet.

Cloaking(från engelskan "cloaking" - att dölja) - en av de svarta sökmetoderna webbplatsoptimering. Dess huvudsakliga syfte är att visa sökmotorn en html sidkod, men en annan för besökaren. Som ett resultat får vi två versioner av samma webbplats på samma URL. Den ena riktar sig till besökaren, den andra mot sökroboten.

Du kanske ställer frågan, vad är detta till för? Svaret är ganska enkelt: för maximal inkomst affiliate-program för webbplatsen.

Till exempel, om en sida innehåller många annonser på en framträdande plats är chansen att en användare klickar på den mycket stor. Men att marknadsföra en sida med bara reklam skulle vara dumt, eftersom sökmotorn känner till sidans innehåll och sannolikheten att en sådan sida skulle hamna i toppen är försumbar.

En annan sak är en perfekt optimerad sida för en sökmotor, där det inte finns någon reklam, utan bara en bra optimerad sida innehåll, som är skärpt under nyckelord. En sådan sida kommer att uppskattas mycket rang i numret. Denna metod för bedrägeri är dock mycket farlig. Om sökmotorn får reda på detta kommer sajten åtminstone att förlora positioner och, med största sannolikhet, kommer den att kastas ut helt från sajten. index.

Hur man gör cloaking

Jag ska berätta några ord om hur man gör cloaking. Detta görs med hjälp av ett speciellt skript som skiljer användare från robotar. Fördelningen baseras på antingen Användaragent, eller IP-adresser.

  • Användaragenten för varje sökmotor är känd för alla, men denna metod är uppenbarligen ett misslyckande, eftersom roboten kan krypteras för användaren.
  • En IP-adress är en mer pålitlig metod, men den är inte idealisk. För det första, bedömare kan komma åt din webbplats via en proxyserver eller på annat sätt och se det verkliga innehållet på webbplatsen. För det andra förändras sökmotorernas IP-adresser ständigt och för att få aktuell information måste du betala bra.

Trots alla smutsiga metoder för att använda cloaking har det också sina fördelar. Låt oss titta på hur det kan användas för gott.

Fördelar med cloaking

  • Mata ut innehåll med den kodning som krävs beroende på webbläsarinställningar;
  • Förbättra designen genom att ersätta många element av olika dåligt indexerade element, till exempel AJAX eller javascript, etc. Användaren ser samma innehåll i en bekväm form, och sökmotorn indexerar enkelt samma innehåll, men i en enklare form

Trots fördelarna används cloaking vanligtvis inte för användarens bekvämlighet, utan för att öka trafiken och i slutändan få pengar. Jag är inte en anhängare av svart hatt SEO, så jag rekommenderar inte cloaking. Men om dina konkurrenter gör sig skyldiga till detta, råder jag dig att klaga på dem genom formuläret respons i Yandex och

Cloaking (från engelska cloak - mask, cover)en av metoderna för svart SEO, när sökroboten och användaren visas olika varianter samma sida.

Läsbara texter är svåra att optimera för alla sökord, så webbansvariga utvecklar 2 versioner av webbplatssidor, för användaren och för roboten.

Cloaking påminner lite om dörröppningsmetoden, men den använder inte automatisk eller manuell omdirigering av användaren till önskad sida, vilket minskar sannolikheten för att din optimerade sida blir stulen av konkurrenter. Men att skapa kopior av sidor är mödosamt arbete, eftersom det inte bara kräver grunderna i programmering, utan också tillgången på data som ip eller användaragent för robotar.

Maskering, som dörröppningar, kan delas in i:

  1. Svart är olagligt, användaren visas text som inte motsvarar förfrågan och roboten visas optimerat textmaterial för att öka rankningen.
  2. Grå. Ibland kan innehållet som presenteras på sajten skrivas ut eller visas i textform, varför samma material kan presenteras i 2 eller flera versioner. Länkar till sådana texter från andra webbplatser kan göra att de indexeras och klassificeras som icke-unika. För att förhindra att detta händer installeras en omdirigering på sekundära länkar, som omdirigerar länkjuicen till den ursprungliga källartikeln. Den här metoden skadar inte användarna och medför inte införande av filter.
  3. Vitt är laglig cloaking. Webbplatser omdirigerar användare för att göra det enklare att använda webbplatsen. Så här fungerar geotargeting.

Hur skapar man?

En användare kan särskiljas från en sökrobot med hjälp av en IP-adress och User Agent. Roboten visas automatiskt en optimerad sida och användaren visas standardwebbplatsinnehåll. Följande program används i utvecklingen av sådana webbplatser:

  1. User Agent är det enklaste sättet att dölja. Webbmastern visar User Agent-data, som innehåller namnet på sökroboten. En av Yandex-algoritmerna är känd som Yandex/1.01.001 (kompatibel; Win16; I), genom att känna till namnen på robotar kan du skriva en funktion för att jämföra namnen på robotar och användaragent för besökare och visa var och en av dem de nödvändiga innehåll. Lätt upptäckt - för detta, med hjälp av specialprogram, du behöver bara gå till webbplatsen under robotens namn och få en "korrigerad" webbplatssida. Oftast bestäms cloaking på detta sätt av konkurrenter för att "rapportera" en bedräglig webbplats till en sökmotortjänst, som kommer att straffa överträdarna.
  2. IP-adressen är den mest effektiv metod cloaking, sökrobotar identifieras av IP-adresser, och det är ganska svårt att förfalska dem. Du kan visa användarna webbplatsstandarden genom att välja dess sidor från en speciell databas - en robot kan inte känna igen ett sådant schema manuellt. Men denna metod kräver tillgång till en databas med adresser.
  3. Kombinerad cloaking - en kombination av kontroll av användaragent och IP-adresser. Metoden visar de högsta resultaten, men den är mest arbetskrävande.

Cloaking och sökmotorer

Nästan alla sökmotorer erkänner cloaking som olagligt och undertrycker det på alla möjliga sätt. Ibland skiljer sig webbsidor inte bara i kvaliteten på innehållsoptimering, utan också i dess totala skillnad från originalet. Till exempel kan en robot se textmaterial med nyckelord och en användare kan se annonser. Som nämnts ovan är inte all cloaking en bluff.

Cloaking används av Amazon.com (visar produkter beroende på tidigare öppna sidor), Yelp.com, vissa Googles tjänster, NYTimes.com (du kan registrera dig först efter 5 klick), ComputerWorld.com (användare ser annonser och roboten ser html-text) och Forbes.com (för att komma till startsida, du måste se en reklam).