Googles nya algoritm är KBT. Hur fungerar Google-sökning? På grund av ändringar i Googles sökalgoritmer

Teknologier

Google-sökning fungerar baserat på en algoritm. Datorer bearbetar data, letar efter signaler om att en viss sida är mer eller mindre intressant och relevant. denna förfrågan. PageRank tar en stor del i denna process, genom vilken Google och väljer externa länkar, samt texter relaterade till dem. Men Google använder också många andra signaler för att avgöra sidans relevans, annars skulle PageRank söka oändligt.

Inkommande länkar klassificeras för olika webbsidor. Om vi ​​tar hänsyn till dessa länkar ger sökningen ganska bra resultat. Det var därför Google var unikt och unikt 1999, när resultaten var mindre som ett oändligt spel och mindre mänskligt ingripande.

Men idag har allt förändrats. Googles algoritm allt mer föremål för motiverade människor och företag som kämpar för det. Hur kommer det sig "kapprustning", där Google förlorar.

En annan händelse som inträffade häromdagen spelar inte till förmån för själva sökmotorn - ändringar har dykt upp i Googles algoritm som syftar till att bekämpa några av de mest irriterande Internetförorenare - "innehållsgårdar", till exempel. "Vapningskapplöpningen" fortsätter.

Google insisterar på att det inte direkt använder den nyligen lanserade funktionen Användare blockerar irrelevanta resultat V Chrome webbläsare. Men när det kommer till hur algoritmen fungerar liknar Googles nya lösning ett användarförbud.

"Om du tar de några tiotal webbplatser som Chrome-användare blockerade oftast, nedgraderas 84 procent av dem i den nya algoritmen", säger företaget.

Ett märkligt uttalande dock. När allt kommer omkring kan detta vara ett stort incitament för att manipulera blockeringen. Glöm innehållsgårdar, anställ bara tusentals människor som helt enkelt vill blockera konkurrenters webbplatser. En annan sida av "kapprustningen".

Google, som trollkarlen från Oz, gömmer sig bakom dess kraftfulla och mystiska sökalgoritm. Om bra sökningär så enkelt som att klicka med en mus på en webbsida, all magi kan försvinna.

Och om du på något sätt kan ta bort så mycket skräppost som möjligt, gör det baserat på demografiska eller geografiska indikatorer eller till och med användarens personliga data, så kan saker verkligen vara ganska obehagliga. Särskilt om Google inte kommer att ha tillgång till någon av dessa uppgifter. Och Facebook kommer att ha det.

Ett av de mest intressanta experimenten pågår nu, oroar det Möjlighet att söka på länkar du gillar på Facebook. Sökresultaten bestäms av vad dina vänner gillade på Facebook, och denna data lagras under en riktigt lång tid.

Socialt nätverk används av mer än femhundra miljoner människor, varav hälften kollar profilen varje dag. Dessa människor spenderar 700 miljarder minuter på sajten och delar trettio miljarder delar av innehåll. De delar länkar och folk klickar på "gilla"-knappen för att rösta på innehållet. Sammantaget är detta ganska intressant sökexperiment med Blekko.

Föreställ dig nu vad Google kan göra med all denna data, och du kommer att förstå varför sociala medier är så viktiga för det nu. Inte för att "döda" Facebook, utan för att försöka "neutralisera" hotet så att nästa stora steg i sökmotorutvecklingen inte sker utan dem. Där Google tenderar att komma till kort är inom handel och turism, varför en väns förslag på ett hotell i till exempel Paris kan vara en bra sak i sökresultaten.

Det kan ta mer än ett år innan Facebook kommer faktiskt att vara intresserad av sökning fullt. Det finns så mycket i den här branschen reklamintäkter, att det inte heller kommer att gå att ignorera det i det oändliga. Detta är faktiskt det som borde skrämma Google mest.

Vi känner alla till de befintliga algoritmerna för sökmotorerna Yandex och Google. Det är för att följa deras "ständigt uppdaterade" regler som alla optimerare fyller sina hjärnor med fler och fler nya sätt att komma till TOPPEN av sökresultat. Bland de senaste innovationerna som webbplatsägare har känt från PS:s sida är kraven på mobilitet för internetresurser och en minskning av sökningen efter dessa webbplatser som inte vet hur man köper länkar. Vilka algoritmer, som hittills introducerats i sökningar, har avsevärt påverkat rankningen av webbplatser? Faktum är att inte alla optimerare vet vilka tekniker, när och varför som skapades för att ge den mest rättvisa positionen till varje webbplats i sökningen och rensa sökresultaten från "skräp". Vi kommer att titta på historien om skapandet och utvecklingen av sökalgoritmer i den här artikeln.

Yandex: typer av algoritmer från befruktning till idag

Algoritmerna skapades inte alla på en dag, och var och en av dem gick igenom många stadier av förfining och transformation. Huvuddelen av namnen på Yandex-algoritmer består av stadsnamn. Var och en av dem har sina egna driftsprinciper, interaktionspunkter och unika funktionella egenskaper som harmoniskt kompletterar varandra. Vi kommer att överväga ytterligare vilka algoritmer Yandex har och hur de påverkar webbplatser.

Förutom information om sökalgoritmer finns en artikel om . Jag föreslår att du läser tips om hur du skapar högkvalitativt SEO-innehåll lämpligt för Google och Yandex sökmotorer.

Magadan

Magadan-algoritmen känner igen förkortningar och identifierar substantiv med verb. Den lanserades först i testläge i april 2008, och den andra permanenta versionen släpptes i maj samma år.

Egenheter

"Magadan" förser användaren som skrev förkortningen med webbplatser och utskrifter. Till exempel om i sökruta angav inrikesministeriets begäran, så kommer listan förutom webbplatser med ett sådant nyckelord också att innehålla de som inte har en förkortning, men har avkodningen "Inrikesministeriet". Translittereringsigenkänning gav användarna möjlighet att inte tänka på vilket språk de skulle skriva namn korrekt, till exempel Mercedes eller Mercedes. Utöver allt detta inkluderade Yandex nästan en miljard utländska sajter i indexeringslistan. Igenkänning av orddelar och igenkänning av dem som likvärdiga sökfrågor gjorde det möjligt för webbplatser med olika nyckelfraser att inkluderas i en sökning. Det vill säga, nu, för sökordet "webbplatsoptimering" visas också webbplatser med frasen "optimera webbplats" i sökresultaten.

resultat

Efter lanseringen av Magadan-algoritmen blev det svårare, främst för sajter med låg auktoritet. I rankningen minskade positionerna för relevanta frågor av lågbesökta och unga resurser, och auktoritativa, även med lågkvalitativt innehåll, flyttade till de första platserna, med hänsyn till sökordens morfologi och utspädning. På grund av inkluderingen av translitterering kom även utländska resurser in i TOPPEN av Runet. Det vill säga, optimerad text om ett ämne kan visas på den andra sidan, bara för att det förmodligen finns en mer besökt webbplats om samma ämne eller en liknande utländsk. På grund av detta har konkurrensen om lågfrekventa sökord och utländska fraser ökat kraftigt. Reklam har också blivit dyrare - priserna har ökat, eftersom webbplatser tidigare bara konkurrerade på en specifik begäran, och nu konkurrerar de också med "kollegor" med morfologiska fraser, translitteration, ord som ändras till en annan del av tal.

Nakhodka

"Nakhodka"-algoritmen är en utökad synonymordbok och noggrann uppmärksamhet för att stoppa ord. Släpps in i ringen direkt efter Magadan. Rangordnar de viktigaste sökresultaten sedan september 2008.

Egenheter

Detta är ett innovativt tillvägagångssätt för maskininlärning – rankningen har blivit tydligare och mer korrekt. Den utökade ordboken över anslutningar och uppmärksamhet för att stoppa ord i Nakhodka-algoritmen påverkade sökresultaten i hög grad. Till exempel var begäran "SEO-optimering" nu associerad med nyckeln "SEO-optimering", och kommersiella webbplatser späddes ut informationsportaler, inklusive utökade utdrag med svar dök upp i listan, och Wikipedia visades på ett speciellt sätt.

resultat

Kommersiella sajter har lagt större vikt vid försäljningsfrågor, eftersom konkurrensen har ökat flera gånger om informativa, ospecifika fraser. I sin tur kunde informationsplattformar utöka sin intäktsgenerering med hjälp av rekommendationssidor genom att delta i affiliate-program. Toppinformationssajter, som främjas av kommersiella förfrågningar, började sälja länkar till beställning. Konkurrensen har blivit hårdare.

Arzamas

Algoritmen "Arzamas" - lexikal statistik över sökfrågor introducerades och en geografisk referens för webbplatsen skapades. Den första versionen av "Arzamas" (april 2009) utan geoberoende släpptes omedelbart i huvudsökresultaten, och "Arzamas 2" med en klassificerare för att länka webbplatsen till regionen tillkännagavs i augusti 2009.

Egenheter

Att ta bort länken till homonymer gjorde livet lättare för användaren, för nu returnerade frasen "American pie" bara webbplatser med filmtema, utan några dessertrecept, som kunde ha varit fallet tidigare. Att länka till regionen gjorde ett genombrott, ändrade nyckelfraser med tillägget av staden flera punkter ner. Nu kunde användaren helt enkelt skriva in ordet "restauranger" och se i ledarna endast platser från staden där han befinner sig. Om du kommer ihåg skulle du tidigare ha behövt ange en mer specifik fras, till exempel "Restauranger i St. Petersburg", annars kunde Yandex ha returnerat svaret "ange förfrågan - för många alternativ hittades." Geooberoende sökord returnerade endast webbplatser som var relevanta för begäran från någon region, utan referens.

resultat

Hurra! Slutligen har sajter från små regioner slutat konkurrera med stora städer. Det är nu mycket lättare att nå TOPPEN i din region. Det var under denna tidsperiod som tjänsten "regional främjande" erbjöds. Armazas-algoritmen gjorde det möjligt för små företag att utvecklas snabbare i sitt område, men haken kvarstod ändå. Yandex kunde inte bestämma geolokaliseringen för alla webbplatser. Och som du själv förstår, utan anknytning, fanns resurserna milt uttryckt kvar på en inte särskilt trevlig plats. Behandlingen av en ansökan om geoberoende kunde pågå i flera månader, och unga sajter utan trafik och länkmassa (det fanns en begränsning för TIC) kunde i allmänhet inte lämna in en begäran om att tilldela dem en regionalitet. Det är ett tveeggat svärd.

Snezhinsk

Snezhinsk-algoritmen stärker geoberoendet och förtydligar frågornas relevans för sökresultat med hjälp av Matrixnets maskininlärningsteknik. Tillkännagivandet ägde rum i november 2009, och den förbättrade modellen under namnet "Konakovo" togs i drift i december samma år.

Egenheter

Sökresultaten har blivit mer korrekta för de frågor som ställts in. Geolokaliseringsbindning spelar nu en speciell roll - kommersiella webbplatser associerades inte med regioner av Snezhinsk-algoritmen, så de hoppade av sökresultaten. Nyckelord som inte är knutna till en plats identifieras med informationsresurser. Den komplexa arkitekturen för att beräkna relevans komplicerade livet för optimerare avsevärt, som märkte att med den minsta förändringen i en av indikatorerna ändrades webbplatsens position i sökresultaten omedelbart.

resultat

Vid den tidpunkten noterades att köpet externa länkar på unga sajter var inverkan på prestandan för nya resurser för trög om vi jämför ett liknande köp med en sajt som har funnits på internetmarknaden länge. Nya metoder för att fastställa innehållets relevans för sökfrågor tog bort webbplatser vars texter var övermättade med nyckelfraser från sökresultaten. En ny era av kvalitetstext hade börjat, där det måste finnas ett mått på allt, utan det skulle webbplatsen helt enkelt kunna falla under sanktioner för spam. Kommersiella resurser började få panik, eftersom det var nästan omöjligt att nå TOPPEN med geooberoende sökord (och de var de högsta frekvensen). I detta avseende publicerades ett inlägg på Yandex-bloggen som vi helst skulle vilja se på de första sidorna kommersiella organisationer som inte skriver vackert, men gör sitt jobb bra, men för detta måste vi lära oss algoritmer för att utvärdera kvaliteten av de tjänster som erbjuds. Sedan på det här ögonblicket detta visade sig vara en omöjlig uppgift, ryktet om kommersiella internetresurser spelade en nyckelroll i sökresultaten, både online och offline.

Obninsk

Algoritmen "Obninsk" förbättrar rankningen och utökar den geografiska basen för webbplatser och minskar effekten av artificiella SEO-länkar på webbplatsens prestanda. Lanserades i september 2010.

Egenheter

Populariteten för att köpa länkmassor minskar, och konceptet med en "länkexplosion" dyker upp, som alla nu var rädda för. Konkurrenter kan skada varandra genom att vilseleda algoritmen genom att köpa ett stort antal länkar från "dåliga källor" till sin "kollega". Efter detta hoppade konkurrenten ur sökresultaten och kunde inte ta sig dit på länge. Geokänsliga ord läggs ofta till på olika sidor på kommersiella webbplatser för att uppmärksamma roboten på att arbeta med denna region.

resultat

Kommersiella sajter är nu mer försiktiga med sitt rykte, vilket är goda nyheter, men många tog fortfarande till smutsiga metoder (artificiellt blåsa upp trafik och köpa recensioner). Efter lanseringen av Obninsk-algoritmen blev inköp mer populärt eviga länkar och artiklar, det vanliga köpet av länkar påverkade inte längre rankningen lika mycket som tidigare, och om källan till bakåtlänken faller under sanktioner kan det leda till en kedjereaktion. SEO-texter av hög kvalitet är ett obligatoriskt attribut för alla resurser. En ung sajt med unikt och korrekt optimerat innehåll kan komma till TOPPEN.

Krasnodar

Algoritm "Krasnodar" - implementering av "Spectrum"-tekniken för att späda ut sökresultat, utöka utdrag och indexera sociala nätverk. Lanseringen ägde rum i december 2010.

Egenheter

"Spectrum"-tekniken skapades för att klassificera frågor i kategorier och användes i de fall där icke-specifika nyckelfraser angavs. "Krasnodar" spädde på sökresultaten och erbjöd en sådan användare fler olika alternativ. Till exempel, med frasen "foto av Moskva" i sökningen, kunde man se inte bara allmänna landskap, utan också fotografier efter kategorier som "attraktioner", "kartor", "restauranger". Tonvikten lades på unika namn på något (sajter, modeller, produkter) - detaljerna började sticka ut. Rich snippets gjorde det möjligt att omedelbart visa användarnas kontakter och annan organisationsdata i sökresultat.

resultat

Rangordningen av kommersiella webbplatser har förändrats avsevärt; särskild uppmärksamhet ägnas åt detaljer (produktkort, separation av den korta beskrivningen från den allmänna). Det sociala nätverket på VK har börjat indexeras och deltagarnas profiler är nu lika synliga direkt i sökresultaten. Inlägg i forum skulle kunna rankas först om de hade ett mer omfattande svar på användarens fråga än andra webbplatser.

Reykjavik

"Reykjavik"-algoritmen - personalisering av sökresultat har skapats och "Wizards"-tekniker har lagts till för att visa preliminära resultat av frågan. Förbättrad ingångstipsformel. Algoritmen lanserades i augusti 2011.

Egenheter

Mottot för det personliga sökresultatet är "Varje användare har sina egna resultat." Systemet för att komma ihåg sökarnas intressen fungerade genom cookies, så om användarens frågor oftare var relaterade, till exempel till utländska resurser, nästa gång de visades i ledarna för sökresultat. Tips i sökfältet uppdateras varje timme och utökar därmed möjligheterna för en specifik sökning. Konkurrensen om högfrekventa frågor ökar med otrolig kraft.

resultat

Ansedda nyhetssajter når oftare TOPPEN på grund av deras utökade semantiska kärna (närvaron av ett stort antal olika lågfrekventa nyckelfrågor). Ökningen av antalet sidor för specifika sökfrågor på informationssajter började spela en stor roll efter lanseringen av Reykvik-algoritmen. Varje sida försökte komma in i användarens bokmärken för att bli en del av personaliseringssystemet; för detta användes metoder för att prenumerera på RSS-flödet och popup-bannertips för att bokmärka webbplatsen. Internetresurser började ägna mer uppmärksamhet åt ett individuellt tillvägagångssätt, snarare än att sätta press på massorna.

Kaliningrad

"Kaliningrad"-algoritmen är en global personalisering av sök- och söksträngar, med fokus på beteendefaktorer. Lanseringen av Kaliningrad i december 2012 ökade kostnaderna för SEO-tjänster avsevärt.

Egenheter

Användarens intressen vände upp och ner på hela sökresultatet - webbplatsägare, som tidigare inte brydde sig om bekvämligheten med besökarens vistelse på webbplatsen, började tappa trafik med blixtens hastighet. Nu delade Yandex upp sina intressen i kortsiktiga och långsiktiga, och uppdaterade sina spiondatabaser en gång om dagen. Detta innebar att idag och imorgon, för samma förfrågan, kunde samma användare få ett helt annat resultat. Intressen spelar nu en speciell roll för en användare som tidigare var intresserad av resor när han skrev in frasen taxi - taxitjänster visas, och för någon som ständigt tittar på film - de kommer att få allt om komedifilmen "Taxi" i sökresultaten . I sökfältet för varje person "hungrig att hitta information" visas nu tips om tidigare intressen i de första positionerna.

resultat

Optimerare började täcka fler och fler sätt att behålla användaren: användbarhet och design förbättrades, innehåll skapades mer mångsidigt och av högre kvalitet. När du avslutar kan fönster som "Är du säker på att du vill lämna sidan" dyka upp och användaren skulle bli stirrad på av någon varelse. Genomtänkt sidlänkning och en alltid tillgänglig meny förbättrade användaraktivitetsindikatorerna, vilket ökade sajternas positioner i sökresultaten. Webbplatser som var oklara för ett brett spektrum av internetanvändare degraderades först helt enkelt i positioner och hängde sedan i allmänhet i slutet av listan med föreslagna resultat.

Dublin

Dublin Algorithm - Förbättrad personalisering genom att identifiera nuvarande mål. Denna moderniserade version av "Kaliningrad" släpptes till världen i maj 2013.

Egenheter

Tekniken innehåller en funktion för att spåra användarnas föränderliga intressen. Det vill säga om det finns två helt olika sökvyer under en viss tidsperiod kommer algoritmen att föredra den senare och ta med den i sökresultaten.

resultat

För webbplatser har praktiskt taget ingenting förändrats. Kampen fortsätter inte bara för trafiken, utan för att förbättra beteendeindikatorerna. Gamla webbplatslayouter börjar överges eftersom det är lättare att göra en ny än att försöka fixa något på den gamla. Utbudet av webbmalltjänster ökar och konkurrensen om bekväma och vackra webbresurslayouter börjar.

öar

Algoritmen "öar" - teknik har introducerats för att visa interaktiva block i sökresultat, vilket gör att användaren kan interagera med webbplatsen direkt på Yandex söksida. Algoritmen lanserades i juli 2013, med ett förslag till webbansvariga att aktivt stödja betaversionen och använda mallar för att skapa interaktiva "öar". Tekniken testas just nu bakom stängda dörrar.

Egenheter

Nu, när du söker efter information som kan hittas direkt från sökningen, erbjuds användaren "öar" - formulär och andra element som kan arbetas med utan att besöka webbplatsen. Till exempel letar du efter en specifik film eller restaurang. För filmen i sökningen och till höger om den kommer block att visas med filmens omslag, dess titel, skådespelare, visningstider på biografer i din stad och en blankett för att köpa biljetter. Restaurangen kommer att visa sitt foto, adress, telefonnummer och bordsbokningsformulär.

resultat

Inget väsentligt förändrades i rangordningen av sajter till en början. Det enda som har blivit märkbart är uppkomsten av webbresurser med interaktiva block i första hand och till höger om sökresultaten. Om antalet sajter som deltog i betatester var betydande, kunde de ersätta vanliga sajter på grund av deras attraktivitet och catchy för användarna. SEO:are funderar på att förbättra synligheten för sitt innehåll i sökresultaten genom att lägga till fler foton, videor, betyg och recensioner. Livet är bättre för onlinebutiker - korrekt konfigurerade produktkort kan vara en utmärkt interaktiv "ö".

Minusinsk

Algoritmen "Minusinsk" - när man identifierade SEO-länkar som sådana, som köptes för att förvränga sökresultaten, applicerades ett filter på webbplatsen, vilket avsevärt förstörde webbplatsens position. "Minusinsk" tillkännagavs i april 2015 och trädde i kraft i maj samma år. Det är med denna algoritm som den berömda associeras.

Egenheter

Innan Minusinsk släpptes, 2014, inaktiverade Yandex påverkan av SEO-länkar för många kommersiella nycklar i Moskva för testning och analyserade resultaten. Resultatet visade sig vara förutsägbart - köpt länkmassa används fortfarande, men för sökmotorn är det spam. Utgivningen av "Minusinsk" markerade dagen då webbplatsägare var tvungna att rensa upp sina länkprofiler och använda budgeten som spenderades på länkmarknadsföring för att förbättra kvaliteten på sin internetresurs.

resultat

"Välrenommerade" sajter som uppnådde TOPP tack vare massköp av länkar flög från de första sidorna, och några fick sanktioner för att ha brutit mot reglerna. Högkvalitativa och unga sajter som inte förlitar sig på bakåtlänkar hamnade plötsligt i TOP 10. "Fångad i distributionen" webbplatser som inte ville vänta länge skapade nya sajter, överförde innehåll och satte en plugg på de gamla, eller listigt shamaniserad med omdirigeringar. Efter cirka 3 månader hittade vi ett hål i algoritmen som gör att vi kan ta bort detta filter nästan omedelbart.

Användbarhet och innehåll börjar förbättras i massor. Länkar köps med ännu större försiktighet, och kontroll över bakåtlänkar blir ett av optimerarens funktionella ansvar.

Enligt dagens data, om du köper länkar felaktigt, kan du få ett filter även för 100 länkar. Men om länkmassan är ordentligt utspädd, då kan du tryggt köpa tusentals länkar precis som på den gamla goda tiden. Det vill säga i huvudsak länkbudgetar för just denna utspädning, som spelades upp av trängsel och omnämnanden, har vuxit avsevärt.

Vladivostok

Algoritmen "Vladivostok" är introduktionen till sökteknik för att kontrollera en webbplats för full kompatibilitet med mobila enheter. Den fullständiga starten av projektet skedde i februari 2016.

Egenheter

Yandex har tagit ytterligare ett steg mot mobilanvändare. Vladivostok-algoritmen utvecklades speciellt för dem. Nu för bättre ranking mobilsökning Webbplatsen måste uppfylla kraven på mobil tillgänglighet. För att komma före dina konkurrenter i sökresultat måste en internetresurs visas korrekt på alla webbenheter, inklusive surfplattor och smartphones. "Vladivostok" kontrollerar frånvaron av java och flash plugins, anpassning av innehåll till skärmexpansion (textkapacitet över skärmens bredd), lätt att läsa text och möjligheten att bekvämt klicka på länkar och knappar.

resultat

När Vladivostok-algoritmen lanserades visade sig endast 18 % av webbplatserna vara mobilvänliga - resten var tvungna att snabbt bli av med "tyngden" på sidorna som inte visades eller hindrade innehållet från att visas korrekt på smartphones och surfplattor. Den huvudsakliga faktorn som påverkar en webbplatss rankning i mobila sökresultat är mobilanvändarens beteende. Åtminstone för stunden. Det finns trots allt inte så många perfekt mobilanpassade sajter, alltså lediga platser i sökningen är upptagna av de som kan ge användaren de mest bekväma förhållanden, även om inte helt. Sajter som inte är anpassade för mobila enheter kastas inte ut från mobilsökning, utan rankas helt enkelt lägre än de som har uppnått bäst resultat för att förbättra kvaliteten på tjänster för smarta användare. För tillfället är den mest populära typen av beställning av webbplatslayouter adaptiva, inte mobila, som man kan tro. Webbplatser som klarar alla krav i algoritmen får det maximala antalet mobiltrafik i din nisch.

Google: historia av skapande och utveckling av algoritmer

Googles algoritmer och filter är fortfarande inte helt förstådda av rysktalande optimerare. För Google har det alltid varit viktigt att dölja detaljer om rankningsmetoder, och förklara att "anständiga" sajter inte har något att frukta, och "oärliga" är bättre av att inte veta vad som väntar dem. Därför skapas fortfarande legender om Googles algoritmer och mycket information erhölls först efter att frågor ställdes för att stödja när sajten föll i sökresultat. Google hade så många mindre förbättringar att det var omöjligt att räkna, och på frågan om vad som exakt hade förändrats förblev det utländska PS helt enkelt tyst. Låt oss överväga de viktigaste algoritmerna som avsevärt påverkade webbplatsernas positioner.

Koffein

Algoritm "Koffein" - på den första sidan av sökningen kan det finnas flera sidor på samma webbplats efter varumärke, och det finns ett förhandsgranskningsalternativ. Lanseringen ägde rum i juni 2010.

Egenheter

Att lyfta fram företagswebbplatser när man söker efter varumärke. Ett "förstoringsglas" visas nära utgångsraden för förhandsgranskning. Varumärkessökord ger en positiv tillväxttrend i positionerna för internetresursen som helhet. Page Rank-indexet har uppdaterats, samtidigt som PR har ökat på välkända och besökta sajter.

resultat

SEOs har börjat ägna mer uppmärksamhet åt webbplatsens varumärke, inklusive färgscheman, logotyper och namn. Nyckelord för varumärket fick sajtsidorna att sticka ut på ett speciellt sätt i sökningen, och när en besökare bytte från en sådan fras till huvudsidan växte hans position i sökresultaten (om resursen tidigare inte var ledande) . SEO-optimerare började köpa fler länkar för att öka antalet citeringar. Det var nästan omöjligt för unga och föga kända varumärken att bryta sig in i de BÄSTA sökresultaten.

Panda

Panda-algoritmen är en teknik för att kontrollera en webbplats för kvalitet och användbarhet av innehåll, inklusive många SEO-faktorer. Webbplatser med "black hat" SEO exkluderas från sökningar. Panda tillkännagavs i januari 2012.

Egenheter

"Panda" gick ut för att leta och rengjorde den från skräp. Detta är precis vad som kan sägas efter att många webbplatser som inte var relevanta för nyckelfrågor försvunnit från Googles resultat. Algoritmen uppmärksammar: sökordsskräppost och ojämn användning, unikt innehåll, konsekventa publikationer och uppdateringar, användaraktivitet och interaktion med webbplatsen. Att låta en besökare scrolla till botten av en sida med läshastighet ansågs vara en positiv faktor.

resultat

Efter att ha slagit på Panda dukade ett stort antal sajter efter för sanktioner från sökmotorn. Googles system och först trodde alla att detta berodde på deltagande i länkpyramider och köp av länkmassor. Som ett resultat genomförde SEO-optimerare en process för att testa algoritmen och analyserade effekten. Slutsatsen av experimenten var att Panda fortfarande kontrollerar kvaliteten på sajten för värde för besökarna. Internetresurser slutade kopiera och klistra in och började aktivt copywriting. Beteendefaktorer förbättrades genom att omvandla webbplatsstrukturen till mer bekväma alternativ, och länkning i artiklar med hjälp av speciella höjdpunkter blev en viktig del av optimeringen. Populariteten för SEO som tjänst har skjutit i höjden. Det märktes att webbplatser som inte följde Panda-reglerna försvann från sökningen mycket snabbt.

Sidlayout (Paige Lyot)

Page Lyot-algoritmen är en teknik för att bekämpa sökspam som beräknar förhållandet mellan användbart och spaminnehåll på webbsidor. Lanserades i januari 2012 och uppdaterades till och med 2014.

Egenheter

"Sidlayout" skapades efter många klagomål från användare om skrupelfria sajtägare vars sidor hade mycket lite relevant innehåll eller de nödvändiga uppgifterna var svåra att komma åt, och ibland helt frånvarande. Algoritmen beräknade andelen relevant innehåll och spam på sidan för en inkommande förfrågan. Sanktioner infördes mot sajter som inte uppfyllde kraven och sajten togs bort från sökningen. Bristande efterlevnad av reglerna för att lägga ut dokument inkluderade också en sidas rubrik fylld med reklam, när du tittade på den text som krävs för att gå till den andra skärmen.

resultat

Webbplatser som var för skräppost med reklam föll från sina positioner, trots att innehållet på sidorna var måttligt optimerat för sökord. Sidor som inte var relevanta för sökfrågor flyttades ned i sökresultaten. Men det fanns inte så många sajter som uppenbart inte följde reglerna och inte oroade sig för besökarnas bekvämlighet. Efter tre uppdateringar av algoritmen visade det sig att det ungefärliga antalet resurser som föll under filtret inte var mer än 3%.

(Venedig)

Algoritmen "Venedig" georefererar webbplatsen till en specifik region, med hänsyn till förekomsten av stadsnamn på webbplatsens sidor. Lanserades i februari 2012.

Egenheter

"Venedig" krävde att webbansvariga hade en "Om oss"-sida på sina webbplatser, som anger platsadressen, utan att vara uppmärksam på att företaget kanske inte har en faktisk plats. I sammanhanget sökte algoritmen efter stadsnamn för att visa en separat sida för den region som anges i den. Uppmärkningen schema-creator.org började användas för att förklara för sökroboten dess geografiska plats.

resultat

Webbplatser dök upp i sökresultat för de regioner som de inte nämnde på sina sidor, utan hänsyn till geooberoende frågor. Optimerare inkluderar aktivt geokänsliga sökord och försöker skapa mikrodata. Innehållet på varje sida är anpassat för varje specifik stad eller region som helhet. Lokaliserad länkbyggnad började användas aktivt för att öka positionerna i den valda regionen.

(Pingvin)

Penguin-algoritmen är en smart teknik för att bestämma vikten på webbplatser och kvaliteten på bakåtlänkar. Ett system för att redigera uppblåsta indikatorer på auktoriteten hos Internetresurser. Inledde sökning i april 2012.

Egenheter

"Penguin" syftar till kriget mot köp av bakåtlänkar, en onaturlig, det vill säga konstgjord uppsättning av webbplatsmyndigheter. Algoritmen utgör sin bas av betydande resurser baserat på kvaliteten på bakåtlänkar. Motivationen för att lansera Penguin var uppkomsten av länkoptimerare, när vilken länk som helst till en webbresurs hade lika stor vikt och höjde en sådan webbplats i sökresultaten. Dessutom började vanliga profiler för sociala nätverksanvändare att rangordnas i sökningar i nivå med vanliga internetresurser, vilket ytterligare populariserade marknadsföringen av vanliga webbplatser som använder sociala signaler. Samtidigt med dessa algoritmfunktioner började systemet bekämpa irrelevanta infogningar av sökfrågor i nyckelord och domännamn.

resultat

Penguin "svikit" många webbplatser i sökresultaten för den onaturliga tillväxten av bakåtlänkar och innehållets irrelevans för användarens önskemål. Katalogernas och sajternas betydelse för att sälja länkar minskade snabbt till ett minimum, medan auktoritativa resurser (nyhetssajter, tematiska och nästan tematiska sajter) växte framför våra ögon. På grund av införandet av Penguin-algoritmen räknades PR för nästan alla offentliga webbplatser om. Populariteten för massköp av bakåtlänkar har minskat kraftigt. Webbplatser började skräddarsy nyckelfraser till innehållet på webbplatsens sidor så mycket som möjligt. "Relevansmanin" har börjat. Installationen av sociala knappar på sidor i form av moduler var utbredd på grund av den snabba indexeringen av sociala nätverkskonton i sökningar.

Pirat

Algoritmen "Pirate" är en teknik för att svara på användarklagomål och identifiera fall av upphovsrättsintrång. Systemet lanserades i augusti 2012.

Egenheter

"Pirate" accepterade klagomål från författare om brott mot deras upphovsrätt av webbplatsägare. Förutom texter och bilder tog sajter med videoinnehåll som var värd för piratkopierade filmer från biografer huvuddelen av attacken. Beskrivningar och recensioner av videorna var också föremål för filtrering - nu var det inte tillåtet att kopiera och klistra under straff för sanktioner. På grund av ett stort antal klagomål mot sajten för kränkningar, kastades en sådan sida ut från sökresultaten.

resultat

Baserat på resultaten av Googles Pirates första verksamhetsmånad blockerades miljontals videofiler som kränkte upphovsrättsinnehavarnas rättigheter från att ses på nästan alla sajter, inklusive videohotellsajter och onlinebiografer. Webbplatser med endast piratkopierat innehåll sanktionerades och togs bort från sökningar. Den massiva saneringen av "stulet" innehåll pågår fortfarande.

Kolibri

Algoritmen "Hummingbird" är introduktionen av teknik för att förstå användaren när frågor inte matchar exakta uppgifter. Systemet för att ”identifiera exakta önskemål” lanserades i september 2013.

Egenheter

Nu ändrade inte användaren frasen för att mer specifikt hitta den information han behövde. Algoritmen "Hummingbird" gjorde det möjligt att inte söka efter direkta exakta förekomster, utan gav resultat från databasen "dechiffrera önskningar". Till exempel skrev en användare frasen "ställen att koppla av" i sökfältet och "Kolibri" rankade webbplatser med data om sanatorier, hotell, spacenter, simbassänger och klubbar i sökningen. Det vill säga, algoritmen grupperade en standarddatabas med mänskliga fraser om deras beskrivning. Förståelsesystemet har förändrat sökresultaten avsevärt.

resultat

Med hjälp av Hummingbird-tekniken kunde SEO-optimerare utöka sin semantiska kärna och få fler användare till sajten på grund av morfologiska nycklar. Rangordningen av sajter har förtydligats, eftersom nu inte bara förekomster av direkta nyckelfraser och textrelevanta frågor beaktas, utan även användarnas aktuella önskemål. Begreppet LSI copywriting dök upp - att skriva text som tar hänsyn till latent semantisk indexering. Det vill säga, nu skrevs artiklar inte bara med infogningen nyckelord, men även inkludera synonymer och nästan tematiska fraser så mycket som möjligt.

(Duva)

Algoritmen "Dove" är ett system för att lokalisera användare och länka sökresultat till deras plats. Tekniken lanserades i juli 2014.

Egenheter

Användarens plats spelade nu en nyckelroll för att leverera resultat. Organisk sökning har blivit allt om geolokalisering. Att länka webbplatser till Google maps spelade en speciell roll. Nu, när en användare begär, söker algoritmen först efter webbplatser närmast på plats eller riktat innehåll, och flyttar sedan bort från besökaren. Organiska sökresultat har förändrats avsevärt.

resultat

Lokala sajter steg snabbt i sökrankningar och fick lokal trafik. Internetplattformar utan geoberoende sjönk i positioner. Kampen om varje stad började igen och antalet situationer ökade när identiska sajter med redigerat innehåll och länkar till olika områden började dyka upp. Innan de fick korrekt information om implementeringen av "Dove"-algoritmen i ryskspråkiga internetsökningar, trodde många webbansvariga att de var under Penguin-sanktioner.

(Mobilvänlig)

Den mobilvänliga algoritmen är implementeringen av teknik för att kontrollera webbplatser för anpassning till mobila enheter. Systemet lanserades i april 2015 och lyckades "kallas" på Internet som: "Mobile Armageddon" (mobilegeddon), "Mobile Apocalypse" (mobilepocalyse, mobocalypse, mopocalypse).

Egenheter

Mobile-Friendly lanserade en ny era för mobilanvändare, och rekommenderar att SEO:are snarast ger en bekväm upplevelse för mobilbesökare på sina webbplatser. Sajternas anpassningsförmåga till mobila enheter har blivit en av de viktigaste indikatorerna på hur mycket sajtägare bryr sig om sina besökare. Icke-responsiva webbplattformar var tvungna att snabbt rätta till brister: bli av med plugins som inte stöds på surfplattor och smartphones, anpassa textstorleken för att passa utbyggnaden av olika skärmar, ta bort moduler som hindrar besökare med en liten skärm från att flytta runt på webbplatsen . Någon skapade precis en separat mobilversion din internetresurs.

resultat

Resurser som var förberedda i förväg för en sådan sväng fick särskild vikt bland andra webbplatser i sökresultaten, och trafiken från en mängd olika icke-datorenheter till sådana webbplatser ökade med mer än 25 %. Helt icke-responsiva sajter degraderades i mobilsökning. Fokus på mobilitet spelade en roll - förekomsten av tunga skript på resurser minimerades, annonsering och sidor började naturligtvis laddas snabbare, med tanke på att de flesta användare med surfplattor/smartphones använder Mobilt internet, vilket är flera gånger långsammare än standarden.

Sammanfattning

Det är allt

Nu vet du hur sökningen har utvecklats under åren, både för vanliga användare och för "hit-and-miss"-sajter. Var och en av ovanstående sökalgoritmer uppdateras med jämna mellanrum. Men det betyder inte att optimerare och webbansvariga ska vara rädda för något (såvida du förstås inte använder svart hatt SEO), men det är ändå värt att hålla utkik för att inte oväntat sjunka i sökningen på grund av nästa nytt filter.

Total

Introduktion

Googles algoritmer, grunden för Googles sökmotor. Skapat av Larry Page och Sergey Brin, Google kan nu söka i dokument på tvåhundra språk och bearbeta data i grundläggande format ( Microsoft Word, PDF, Excel, etc.). I den här artikeln kommer vi att komma ihåg de viktigaste stegen i utvecklingen av Googles algoritmer skapade för att rangordna webbsidor i Googles sökresultat.

Googles algoritmer: utvecklingshistoria

1998. I år grundades Googles sökmotor. Samtidigt skapades PR, vars algoritm baserades på överföring av referensmassa och hade två huvudparametrar.

  1. Hur mer kvantitet länkar som leder till en viss sida, desto högre nivå av sidrankning och platsen i sökresultaten.
  2. Ju högre sidrankning på de länkande webbsidorna, desto större massa överförs av länkarna.

Den officiella skaparen av PR är Larry Page, och ägaren till patentet för denna uppfinning är Stanford University.

Ett intressant faktum är att många tror att Page Rank översätts som "sidrankning". Faktum är att den här frasen översätts som "Sidrankning"; skaparen av uppfinningen gav den sitt namn. Därefter antog många sökmotorer idén om Page Rank som grund och utvecklade sina egna analoger av verktyget.

Början av århundradet

år 2000. Google Company presenterar en ny utveckling för allmänheten - algoritm som kallas Hilltop, vilket gör att du mest exakt kan beräkna PR-nivån. Denna algoritm läser geografin och graden av nyhet för ett dokument. Efter detta börjar Google meddela webbansvariga att inte lämna länkar på misstänkta webbplatser och "länkdumpar".

år 2001. I år registrerar Google ett patent för Hilltop algoritm. Vid det här laget separerar sökmotorn sökresultat för icke-kommersiella och kommersiella frågor.

2003. Den 15/11/13 lanseras den nya Florida-algoritmen, som tar bort från sökresultaten eller sänker rankningen av sidor vars innehåll är övermättat med nyckelfraser och ord. Den här dagen insåg SEO-experter att den nya sökmotoralgoritmen sänker sidrankningen av följande skäl:

  • inte unikt eller lågt unikt innehåll;
  • högt innehåll av nyckelord i rubriker och texter;
  • onaturliga länkar (köpta).

2005 år. För första gången försöker Googles specialister anpassa sökresultaten genom att sätta tidigare frågor från en viss användare som grund.

2006. Företaget lanserar en förbättrad algoritm baserad på en algoritm som heter Orion- skapelse av en student från Israel. Sökmotorn kan nu hitta webbsidor som matchar ämnet för en fråga som inte innehåller nyckelord.

Från och med denna tidpunkt börjar Google "förtydliga" användarens frågor och erbjuder alternativ som oftast söks efter med ett givet ord. En användare skriver till exempel ordet "cirkel" i sökfältet. Systemet erbjuder honom sådana frågealternativ som "låtcirkel", "cirkel för att bada nyfödda", etc.

2007. I år präglas av lanseringen av en ny Austin algoritm. Den nya produkten kan ta hänsyn till förtroendenivån för en viss webbresurs och lägre resurser med lägre förtroendepoäng i sökresultat. Alltså webbplatser som inte hann vinna förtroende.

Nytt för 2009

år 2009. Googles utvecklare introducerar en ny funktion i sökmotorn. Koffeinalgoritm. Googles tidigare algoritmer matchar inte längre den ökade produktionskapaciteten. Tack vare detta börjar sökmotorn indexera webbplatser mycket oftare.

Bildandet av en sida med sökresultat påskyndas många gånger. Koffein påverkade inte nämnvärt formeln för att beräkna relevans, men följande förändringar blev märkbara:

Kontinuerlig indexering av hela utrymmet world wide web gjorde det möjligt för Googles sökresultat att bli mycket mer dynamiska och förändras under dagen.

Vårt århundrades andra decennium

2011. Experter lägger till sina egna "skräp" till Googles algoritmer. Detta lansering av en algoritm som heter Panda– den första seriösa sökrenaren. Den nya algoritmen "rensar" sökresultat från "dåliga" webbplatser:

  • satelliter,
  • dörröppningar,
  • webbplatser vars innehåll endast består av reklam och länkar,
  • webbplatser med låg unikt innehåll.

Skaparna av den förbättrade algoritmen, Matt Kats och Amit Singal, noterar att deras nya skapelse tar hänsyn till följande punkter:

  • Procentandelsindikator för det unika hos innehållet på en viss sida och på resursen som helhet;
  • Nivån på mallinnehåll, det vill säga likheten mellan texter skrivna för olika sökord;
  • Förekomsten av stilistiska, grammatiska och stavningsfel;
  • Relevansen av reklam som presenteras på resursen för ämnet för postade texter
  • Överensstämmelse mellan innehållet i taggarna och metataggar på webbsidan med dess innehåll;
  • Graden av mättnad av de postade texterna med nyckelord;
  • Kvalitetsnivå på utgående och inkommande länkar;
  • Internetanvändares handlingar (varaktighet av webbplatsbesök, antal visade webbsidor, antal avslag och returer till resursen).

Idag kan vi med tillförsikt notera att nästan alla moderna sökmotorer tar hänsyn till dessa faktorer, särskilt beteendemässiga. Ju mer intressant webbplatsens innehåll är för en internetanvändare, desto mer tid kommer han att spendera på denna resurs. Ju högre webbplatsen rankas på sökresultatsidan.

Calibri

år 2013. I oktober fylldes Googles algoritmer på med det senaste Hummingbird-algoritm – Hummingbird. Innovationen med denna algoritm är att den kan förstå även den dolda innebörden av frågor. Om du till exempel anger "köp något nära hemmet" Hummingbird på meth, betyder det offlinebutiker.

Och från onlinebutiker kommer han bara att välja de vars webbplatser ger den mest detaljerade informationen om leveransvillkor och deras fördelar. Dessutom föredrar Hummingbird-algoritmen långa, detaljerade frågor. Men samtidigt, för de frågor som Google inte kan "fantasera" för, har resultaten inte förändrats.

Och en till viktig poäng– icke-unik, lågunik och genererat innehåll fungerar inte längre.

Sammanfattningsvis är det värt att notera att ryska Google är ett av de mest bekväma alternativen för att driva en sökmotor.

I Ryssland använder inte Google de flesta av sina "bestraffande" sanktioner. Tack vare detta är webbplatsmarknadsföring för detta system i Ryssland mycket lättare än för andra sökmotorer.

Penguin och Panda, vad händer härnäst?

4.10. 2013 Penguin 2.1 algoritm släpptes

Som tidigare uppmärksammar Googles sökmotor misstänkta sajter och ankarlistor. Denna algoritmuppdatering påverkade de webbplatser som tidigare sanktionerades av algoritmen. Påverkade 1 % av förfrågningarna.

19.05. 2014 Panda 4.0-uppdatering släpptes

Den mest seriösa uppdateringen av denna sökalgoritm. Påverkade 7,5 % av sökfrågorna.

24.08. 2014, Dove-algoritm

Algoritmen uppmärksammade geoberoende frågor. När nu en geoberoende förfrågan tas emot ger Googles sökmotor de mest informativa, lokala sökresultaten för användaren.

Har du någonsin undrat hur Googles teknik fungerar? Naturligtvis innebär SERP-processen en komplex algoritm baserad på många variabler. Men ändå kan du med enkla ord förklara funktionsprincipen för världens mest populära sökmotor?

För att förstå djupet av den mest komplexa sökmotoralgoritmen, ta en titt på denna extremt användbara infografik från quicksprout.

Googles allestädes närvarande sökspindlar kryper in på vissa webbsidor och följer sedan länkar från dessa sidor. Denna metod för nätverksgenomsökning gör att Google kan indexera mer än 100 miljoner gigabyte med information.

För att användarna ska få bättre sökresultat skapar och förbättrar Google ständigt program. Här är en kort lista över de huvudsakliga områden där det pågående arbetet bedrivs:

  • stavningskontroll;
  • autoslutförande;
  • sök efter synonymer;
  • allmän förståelse för frågor;
  • Levande Google Sök;
  • sökmönster.

  • Hur många gånger visas ett nyckeluttryck på en sida?
  • förekomst av ett sökord i titeln eller webbadressen?
  • innehåller sidan synonymer för sökordsuttrycket?
  • Vad är Google PageRank för en sida?

Allt detta händer på ⅛ sekunder.

Så kallade Kunskapsnätverk(kunskapsdiagram) är en teknik som producerar resultat baserade på en global databas med verkliga personer, platser och kopplingar mellan dem. Till exempel: förutom torra fakta om Leo Tolstojs biografi får du maximalt intressant innehåll (text/foto/video) relaterat till denna figur.

Snippets ger också bekvämlighet till sökresultaten – små bitar av information som gör att du snabbt och utan att behöva följa en länk för att förstå om sidan matchar din begäran.

Andra Google-verktyg för att göra din sökning enklare:

Inga kommentarer här. Klicka bara på mikrofonikonen och berätta för sökmotorn vad du vill hitta. Men var försiktig – hon får svara. :)

2. Bilder

Visar miniatyrbilder baserat på sökresultat.

Med Google-sökning kan du ställa specifika frågor och få snabba svar.

Google äger också den näst mest populära sökmotorn i världen, som ni alla känner mycket väl till:

Slutsats

Vad gjorde Google så framgångsrikt? sökmotor? Trots de många komplexa processer som sker obemärkt för användaren, är Google en enkel och bekväm sökmotor ur användbarhetssynpunkt. Vilken fråga du än ställer kommer den att ge relevanta sökresultat på 1/8 av en sekund.

Vi har släppt en ny bok "Content Marketing in i sociala nätverk: Hur du kommer in i dina prenumeranters huvuden och får dem att bli kära i ditt varumärke."

I senaste åren sökresultaten har förändrats dramatiskt jämfört med början och mitten av 2000-talet. Det är trevligt att se nya förändringar som syftar till att öka användarkomforten. Och för att fullt ut kunna uppskatta hur mycket arbete som har gjorts på sökmotorn, bestämde vi oss för att samla in 34 nyckelhändelser i Googles utvecklingshistoria.

Avlägset förflutet

mars 1998. Google har en framgångsrik start med Larry Page och Sergey Brin. Samtidigt släpptes den första webbrankningsalgoritmen som heter PageRank.
PageRank är ett värde som motsvarar vikten av en sida. Beräkningarna är ganska enkla: ju fler länkar som leder till en sida, desto högre är dess PageRank. Det är viktigt att notera att vikten som överförs av en donatorsida direkt beror på länkarna till donatorn själv. Förresten, PageRank är en algoritm som har fungerat i nästan 20 år, om än i en kraftigt modifierad form.

  • år 2000. Lanserar Google Toolbar, ett program som är ett verktygsfält för att arbeta med sökmotorn. Det var vid den här tiden som de första samtalen om SEO började.
  • December 2000 - Hilltop. Detta är ett slags tillägg till PageRank. Summan av kardemumman är att länkar från webbplatser som är relevanta för ämnet har ökat betydligt i vikt.
  • år 2001. Google har börjat dela upp sökresultaten i kommersiella och icke-kommersiella frågor.
  • Februari 2003 - Boston. Uppdateringen är uppkallad efter staden där konferensen ägde rum. Den huvudsakliga förändringen: månatliga uppdateringar av sökdatabasen infördes.
  • April 2003 - Cassandra. Algoritmen som var den första att skaka optimerare eftersom de började straffa för användning dolda texter och länkar. Från det ögonblicket började SEO, ur Googles synvinkel, bli svart.
  • Maj 2003 - Dominic. Från det ögonblicket började Google utvärdera bakåtlänkar till webbplatsen på ett annat sätt. Det var efter Dominic som robotarna Freshbot och Deepcrawler först dök upp.
  • Juni 2003 - Esmeralda. Bara den senaste månatliga SERP-uppdateringen. Inga större förändringar märktes med lanseringen av Esmeralda.
  • Juli 2003 - Fritz. Den huvudsakliga förändringen: sedan frisläppandet av Fritz började Google uppdatera dagligen!
  • November 2003 – Florida. En av de mycket viktiga uppdateringarna, eftersom det var efter Florida som en betydande del av de "brutalt" optimerade sajterna var pessimistiska. Florida har slagit ett slag mot resurser som är övermättade med sökord, stulet innehåll och köpta länkprofiler. Sedan slutet av 2003 har SEO förändrats och blivit mer krävande.
  • Januari 2004 - Austin. Austin Update kommer till Floridas hjälp. Kärnan i uppdateringen är att skärpa kampen mot skräppost och osynliga texter. Kravet på textrelevans ökar.
  • Februari 2004 - Brandy. Google började svara på sökordssynonymer. Optimerade texter har blivit mer mångsidiga, vilket utan tvekan förbättrar sökresultaten. Uppmärksamheten på temat innehåll i ankartext har ökat. Sökordsanalysen har förändrats.

Dags för förändring

  • Februari 2005 - Allegra. Förändringarna av Allegra är ett historias mysterium. Föreslagna ändringar: separat straff för köpta länkar. SEO fortsätter att bli svart.
  • Maj 2005 - Bourbon. Bourbon började införa sanktioner mot webbplatser med duplicerat innehåll, vilket sänkte deras ranking.
  • september 2005 -Gilligan. Gilligan gjorde inga större förändringar, åtminstone inte märkbara. Men det måste nämnas för historisk referens - jag nämnde det.
  • oktober 2005 - Google kartor+ lokalt. Uppdateringar, vars syfte är att uppmuntra företagare att uppdatera sina Kontaktinformation på kartorna.
  • Oktober 2005 - Jagger. Fortsatte kampen mot länkmanipulation. Nu var Googles mål länkfarmar, sajter som utbytte bakåtlänkar av sina hjärtans godhet, och återigen gick algoritmen igenom en tvivelaktig länkprofil.
  • December 2005 - Big Daddy. Google föreslog att använda kanonisering, det vill säga att välja den mest lämpliga sidan bland potentiella dubbletter. Använd omdirigeringar 301 och 302. Det är alla viktiga förändringar.
  • november 2006 - Kompletterande index. Utöka Googles möjligheter. Sökmotorn började bearbeta fler dokument. Av någon anledning var det i år som allvarliga förändringar märktes i sajternas positioner.
  • Juni 2007 - Buffy. Mindre uppdateringar som inte är värda din uppmärksamhet. Och inte en antydan till vampyrer.
  • April 2008 - Dewey. Det verkade som en jordbävning, skakade platsernas positioner och det var allt. Ingen förstod varför.
  • Augusti 2008 – Google Suggest. Nu har Google börjat visa rullgardinsmeny söktips när du anger en fråga i sökfältet.
  • Februari 2009 - Vince. Enligt Matt Cuts hände inget mycket. Men nyfikna optimerare kom fram till att resurser stora varumärken fick ett starkt övertag.
  • Augusti 2009 - Förhandsvisning av koffein. Google meddelade vänligt optimerare om betydande förändringar i sökstrukturen, på grund av vilka dokument från och med nu kommer att indexeras mycket snabbare. Samma år började frågan uppdateras i realtid.
  • Maj 2010 - Min dag. Den här uppdateringen minskade mängden trafik från utförliga frågor.
  • Juni 2010 - Koffein. Det tidigare annonserade koffeinet har släppts. Algoritmen gjorde att fler sidor kunde indexeras i en snabbare takt. Nu kommer nya dokument in i indexet snabbare.

Google-uppdateringar: Idag

  • 23 februari 2011 - . På Day of Defenders of the Fatherland släpptes Panda-algoritmen, ett slags beskyddare av sökresultat från skräp med betoning på interna faktorer. Panda är en storskalig, välkänd och sensationell algoritm som har genomgått olika uppgraderingar många gånger. Den försvagades och blev sedan starkare. Huvuduppgiften är att ta bort alla "lågkvalitetswebbplatser" från sökresultaten, såsom dörröppningar och webbplatser som skapats enbart för reklam, samtidigt som de mest värdiga lämnas kvar.
  • 3 januari 2012 - Sidlayout. Ett tillägg för Panda som analyserar hur lätt det är att visa dokument. Målet är att bli av med påträngande reklam som tar upp större delen av användarens skärm.
  • Februari 2012 - Venedig. En uppdatering som nu tar hänsyn till användarens regionala plats. Målet är att visa webbplatser som ligger närmast användaren.
  • 24 april 2012 - Penguin. Den andra sensationella algoritmen. Målet är detsamma som Pandas, men tonvikten ligger på yttre faktorer. Jag tog kontroll över allt relaterat till resursens länkprofil. Bestraffar webbplatser genom att antingen sänka hela webbplatsen i sökresultaten eller ta bort den helt.
  • september 2012 -Exact Match Domain (EMD). Ett sällsynt men nödvändigt filter. Tanken är att degradera webbplatser av låg kvalitet som är optimerade för en enda begäran, vilket är domänen. Till exempel kommer webbplatsen kupi-kartoshku.ru, där varje sida är optimerad för begäran "köp potatis", mycket troligt att falla under detta filter.
  • Augusti 2013 - Hummingbird. Komplex algoritm. Kolibris uppgift är att känna igen mening i komplexa flerordsfrågor och välja ut de mest relevanta dokumenten. Faktorer kan vara: den dolda innebörden av begäran, design, din plats och så vidare.
  • Augusti 2014 - Duva. Med en fortsättning på temat fåglar siktar Dove på att presentera företag (sajter) som ligger närmast dig i sökresultat baserat på geobaserade frågor. Om du till exempel vill beställa kinesiska nudlar hittar Dove dig den närmaste anläggningen som kan tillfredsställa ditt behov. Också i augusti 2014 tillkännagavs att Google gav en liten rankingökning till webbplatser som använder ett säkert protokoll som https.
  • 21 april 2015 – Mobilanpassat. En algoritm som ger företräde åt enskilda webbsidor anpassade till skärmar Mobil enheter. Kräver inte skalning eller horisontell rullning. Med ett ord, bekvämt att läsa från en telefon/surfplatta. Du kan kontrollera det i Google Webmaster.

Fortsättning följer…

Under de senaste 5 åren har Googles algoritmer genomgått många förändringar. Svårighetsgraden för att manipulera sökresultat varierar mellan "mycket svårt" och "omöjligt". Därför är det enda som återstår att vara en ansvarsfull optimerare. Google har upprepade gånger nämnt att innehåll förblir den viktigaste rankningsfaktorn och alltid kommer att vara det. Det visar sig att den bästa vägen ut ur denna situation är tematisk trafik och marknadsföring med länkar av mycket hög kvalitet. Jag är glad att jag optimerar just nu. Jag är säker på att många nya överraskningar väntar oss under 2016.