Googles nye algoritme er KBT. Hvordan fungerer Google-søk? På grunn av endringer i Googles søkealgoritmer

Teknologier

Google-søk fungerer basert på en algoritme. Datamaskiner behandler data og leter etter signaler om at et bestemt nettsted er mer eller mindre interessant og relevant. denne forespørselen. Side rangering tar en stor del i denne prosessen, hvorigjennom Google og velger eksterne lenker, samt tekster relatert til dem. Men Google bruker også mange andre signaler for å fastslå sidens relevans, ellers ville PageRank søke i det uendelige.

Innkommende lenker er vurdert for ulike nettsider. Tar vi hensyn til disse koblingene gir søket ganske gode resultater. Det er derfor Google var unikt og unikt i 1999, da resultatene var mindre som et endeløst spill og mindre menneskelig inngripen.

Men i dag har alt endret seg. Google algoritme stadig mer utsatt for motiverte mennesker og bedrifter som kjemper for det. Hvordan er det "våpenkappløp", hvor Google taper.

En annen hendelse som skjedde her om dagen spiller ikke til fordel for selve søkemotoren - endringer har dukket opp i Google-algoritmen som tar sikte på å bekjempe noen av de mest irriterende Internett-forurensere - "innholdsfarmer", for eksempel. «Våpenkappløpet» fortsetter.

Google insisterer på at den ikke direkte bruker den nylig lanserte funksjonen Brukere blokkerer irrelevante resultater V Chrome-nettleser. Men når det kommer til hvordan algoritmen fungerer, ligner Googles nye løsning på et brukerforbud.

"Hvis du tar de dusin mest nettsteder som Chrome-brukere blokkerte oftest, blir 84 prosent av dem nedgradert i den nye algoritmen," sier selskapet.

Men en merkelig uttalelse. Tross alt kan dette være et stort insentiv til å manipulere blokkeringen. Glem innholdsfarmer, bare ansett tusenvis av mennesker som rett og slett vil blokkere konkurrenters nettsteder. En annen side av «våpenkappløpet».

Google, som trollmannen fra Oz, gjemmer seg bak det kraftige og mystiske søkealgoritme. Hvis godt søk er så enkelt som å klikke med en mus på en nettside, kan all magien forsvinne.

Og hvis du på en eller annen måte kan fjerne så mye spam som mulig, gjøre det basert på demografiske eller geografiske indikatorer eller til og med brukerens personlige data, så kan ting virkelig være ganske ubehagelige. Spesielt hvis Google ikke vil ha tilgang til noen av disse dataene. Og Facebook vil ha det.

Et av de mest interessante eksperimentene skjer nå, bekymrer det Mulighet for å søke etter linker du liker på Facebook. Søkeresultater bestemmes av hva vennene dine likte på Facebook, og disse dataene lagres i veldig lang tid.

Sosialt nettverk brukt av mer enn fem hundre millioner mennesker, hvorav halvparten sjekker profilen hver dag. Disse menneskene bruker 700 milliarder minutter på nettstedet og deler tretti milliarder deler av innholdet. De deler linker, og folk klikker på "liker"-knappen for å stemme på innholdet. Totalt sett er dette ganske interessant søkeeksperiment med Blekko.

Tenk deg nå hva Google kan gjøre med alle disse dataene, og du vil forstå hvorfor sosiale medier er så viktige for det nå. Ikke for å «drepe» Facebook, men for å prøve å «nøytralisere» trusselen slik at det neste store spranget i søkemotorevolusjonen ikke skjer uten dem. Der Google har en tendens til å komme til kort er innen handel og turisme, og derfor kan for eksempel en venns forslag til et hotell i Paris være en god ting i søkeresultatene.

Det kan ta mer enn ett år før Facebook vil faktisk være interessert i søk fullt. Det er så mye i denne bransjen annonseinntekter, at det heller ikke vil være mulig å ignorere det i det uendelige. Dette er faktisk det som burde skremme Google mest.

Vi vet alle fra første hånd om de eksisterende algoritmene til søkemotorene Yandex og Google. Det er for å overholde deres "konstant oppdaterte" regler at alle optimerere fyller hjernen med flere og flere nye måter å komme til TOPPEN av søkeresultater. Blant de siste innovasjonene som nettstedeiere har følt fra PS-siden, er kravene til mobilitet for Internett-ressurser og en reduksjon i søket etter disse nettstedene som ikke vet hvordan man kjøper linker. Hvilke algoritmer, introdusert i søk så langt, har påvirket rangeringen av nettsteder betydelig? Faktisk vet ikke alle optimerere hvilke teknologier, når og hvorfor som ble opprettet for å gi den mest rettferdige plasseringen til hvert nettsted i søket og fjerne søkeresultatene for "søppel". Vi vil se på historien om opprettelsen og utviklingen av søkealgoritmer i denne artikkelen.

Yandex: typer algoritmer fra unnfangelse til i dag

Algoritmene ble ikke alle skapt på en dag, og hver av dem gikk gjennom mange stadier av foredling og transformasjon. Hovedtyngden av navnene til Yandex-algoritmer består av bynavn. Hver av dem har sine egne driftsprinsipper, interaksjonspunkter og unike funksjonelle funksjoner som harmonisk utfyller hverandre. Hvilke algoritmer har Yandex og hvordan de påvirker nettsteder, vil vi vurdere nærmere.

I tillegg til informasjon om søkealgoritmer, en artikkel om . Jeg foreslår at du leser tips om å lage SEO-innhold av høy kvalitet som passer for Google og Yandex søkemotorer.

Magadan

Magadan-algoritmen gjenkjenner forkortelser og identifiserer substantiv med verb. Den ble først lansert i testmodus i april 2008, og den andre permanente versjonen ble utgitt i mai samme år.

Egendommer

"Magadan" gir brukeren som skrev forkortelsen nettsider og utskrifter. For eksempel, hvis i søkelinje skrev inn forespørselen fra innenriksdepartementet, så i tillegg til nettsteder med et slikt nøkkelord, vil listen også inneholde de som ikke har en forkortelse, men har avkodingen "Innenriksdepartementet". Translitterasjonsgjenkjenning ga brukerne muligheten til å ikke tenke på hvilket språk de skal skrive navn riktig, for eksempel Mercedes eller Mercedes. I tillegg til alt dette inkluderte Yandex nesten en milliard utenlandske nettsteder i indekseringslisten. Gjenkjennelse av orddeler og gjenkjennelse av dem som likeverdige søk tillot nettsteder med forskjellige nøkkelsetninger å bli inkludert i ett søk. Det vil si at nå, for søkeordet «nettstedoptimalisering», vises nettsteder med uttrykket «optimaliser nettstedet» også i søkeresultatene.

resultater

Etter lanseringen av Magadan-algoritmen ble det vanskeligere, hovedsakelig for nettsteder med lav autoritet. I rangeringen ble posisjonene for relevante forespørsler av lite besøkte og unge ressurser redusert, og autoritative, selv med lavkvalitetsinnhold, flyttet til de første plassene, tatt i betraktning morfologien og utvanningen av søkeord. På grunn av inkluderingen av translitterasjon kom også utenlandske ressurser inn på TOPPEN av Runet. Det vil si at optimalisert tekst om et emne kan vises på den andre siden, bare fordi det visstnok er et mer besøkt nettsted om samme emne eller et lignende utenlandsk. På grunn av dette har konkurransen om lavfrekvente søkeord og utenlandske fraser økt kraftig. Annonsering har også blitt dyrere - prisene har økt, fordi tidligere nettsteder kun konkurrerte på én spesifikk forespørsel, og nå konkurrerer de også med "kolleger" med morfologiske fraser, translitterasjon, ord som endres til en annen del av tale.

Nakhodka

"Nakhodka"-algoritmen er en utvidet synonymordbok og nøye oppmerksomhet for å stoppe ord. Slippes ut i ringen umiddelbart etter Magadan. Rangerer hovedsøkeresultatene siden september 2008.

Egendommer

Dette er en innovativ tilnærming til maskinlæring – rangering har blitt tydeligere og mer korrekt. Den utvidede ordboken over forbindelser og oppmerksomhet for å stoppe ord i Nakhodka-algoritmen påvirket søkeresultatene sterkt. For eksempel ble forespørselen "SEO-optimalisering" nå knyttet til nøkkelen "SEO-optimalisering", og kommersielle nettsteder ble utvannet informasjonsportaler, inkludert utvidede utdrag med svar dukket opp i listen, og Wikipedia ble vist på en spesiell måte.

resultater

Kommersielle nettsteder har lagt større vekt på salgsspørsmål, ettersom konkurransen har økt flere ganger for informative, uspesifikke fraser. På sin side var informasjonsplattformer i stand til å utvide inntektsgenereringen ved å bruke anbefalingssider ved å delta i tilknyttede programmer. Toppinformasjonssider, promotert av kommersielle forespørsler, begynte å selge lenker for å bestille. Konkurransen er blitt hardere.

Arzamas

Algoritmen "Arzamas" - leksikalsk statistikk over søk ble introdusert og en geografisk referanse til nettstedet ble opprettet. Den første versjonen av "Arzamas" (april 2009) uten geo-avhengighet ble utgitt umiddelbart i hovedsøkeresultatene, og "Arzamas 2" med en klassifisering for å koble nettstedet til regionen ble kunngjort i august 2009.

Egendommer

Å fjerne lenken til homonymer gjorde livet enklere for brukeren, for nå returnerte uttrykket "American pie" bare nettsteder med filmtema, uten noen dessertoppskrifter, som kunne vært tilfellet før. Koblingen til regionen gjorde et gjennombrudd, og skiftet nøkkelsetninger med tillegg av byen flere punkter ned. Nå kunne brukeren ganske enkelt skrive inn ordet "restauranter" og se i lederne bare nettsteder fra byen der han befinner seg. Hvis du husker, ville du tidligere ha måttet skrive inn en mer spesifikk setning, for eksempel "Restauranter i St. Petersburg", ellers kunne Yandex ha returnert svaret "spesifiser forespørselen - for mange alternativer ble funnet." Geo-uavhengige søkeord returnerte bare nettsteder som var relevante for forespørselen fra en hvilken som helst region, uten referanse.

resultater

Hurra! Endelig har nettsteder fra små regioner sluttet å konkurrere med store byer. Det er nå mye lettere å nå TOPPEN i din region. Det var i denne perioden tjenesten "regional promotering" ble tilbudt. Armazas-algoritmen gjorde det mulig for små selskaper å utvikle seg raskere i sitt område, men fangsten gjensto fortsatt. Yandex kunne ikke bestemme geolokaliseringen til alle nettstedene. Og som du selv forstår, uten tilknytning, forble ressursene mildt sagt på ett lite hyggelig sted. Behandlingen av en søknad om geoavhengighet kan vare i flere måneder, og unge nettsteder uten trafikk og lenkemasse (det var en begrensning på TIC-er) kunne generelt ikke sende inn en forespørsel om å tildele dem en regionalitet. Det er et tveegget sverd.

Snezhinsk

Snezhinsk-algoritmen styrker geoavhengigheten og tydeliggjør relevansen av søk for søkeresultater ved hjelp av Matrixnet maskinlæringsteknologi. Kunngjøringen fant sted i november 2009, og den forbedrede modellen under navnet "Konakovo" ble satt i drift i desember samme år.

Egendommer

Søkeresultatene har blitt mer nøyaktige i forhold til spørsmålene som er lagt inn. Geolokaliseringsbinding spiller nå en spesiell rolle - kommersielle nettsteder ble ikke assosiert med regioner av Snezhinsk-algoritmen, så de falt ut av søkeresultatene. Nøkkelord som ikke er knyttet til et sted, identifiseres med informasjonsressurser. Den komplekse arkitekturen for å beregne relevans kompliserte livet til optimalisatorer, som la merke til at med den minste endringen i en av indikatorene, endret nettstedets posisjon i søkeresultatene seg umiddelbart.

resultater

Den gang ble det bemerket at kjøpet Eksterne linker på unge nettsteder var innvirkningen på ytelsen til nye ressurser for svak hvis vi sammenligner et lignende kjøp med et nettsted som har vært på Internett-markedet i lang tid. Nye metoder for å bestemme relevansen av innhold for søk fjernet nettsteder hvis tekster var overmettet med nøkkelsetninger fra søkeresultatene. En ny æra med kvalitetstekst hadde begynt, hvor det måtte være et mål i alt uten det, kunne siden rett og slett falle inn under sanksjoner for spam. Kommersielle ressurser begynte å få panikk, fordi det var nesten umulig å nå TOPPEN ved å bruke geo-uavhengige søkeord (og de var de høyest frekvensene). I denne forbindelse ble det publisert en oppføring på Yandex-bloggen som vi ideelt sett ønsker å se på de første sidene kommersielle organisasjoner som ikke skriver vakkert, men gjør jobben sin bra, men for dette må vi lære algoritmer for å evaluere kvaliteten av tjenestene som tilbys. Siden dette øyeblikket dette viste seg å være en umulig oppgave omdømmet til kommersielle Internett-ressurser spilte en nøkkelrolle i søkeresultater, både online og offline.

Obninsk

"Obninsk"-algoritmen forbedrer rangeringen og utvider den geografiske basen til nettsteder og reduserer virkningen av kunstige SEO-koblinger på nettstedets ytelse. Lansert i september 2010.

Egendommer

Populariteten til å kjøpe lenkemasser faller, og konseptet med en "koblingseksplosjon" dukker opp, som alle nå var redde for. Konkurrenter kan skade hverandre ved å villede algoritmen ved å kjøpe et stort antall lenker fra «dårlige kilder» til «kollegaen». Etter dette falt konkurrenten ut av søkeresultatene og kunne ikke komme dit på lenge. Geosensitive ord legges oftere til forskjellige sider på kommersielle nettsteder for å trekke robotens oppmerksomhet til å jobbe med denne regionen.

resultater

Kommersielle nettsteder er nå mer forsiktige med omdømmet sitt, noe som er gode nyheter, men mange tyr fortsatt til skitne metoder (kunstig oppblåsing av trafikk og kjøpsanmeldelser). Etter utgivelsen av Obninsk-algoritmen ble innkjøp mer populært evige lenker og artikler, det vanlige kjøpet av lenker påvirket ikke lenger rangeringen like mye som før, og hvis kilden til tilbakekoblingen faller under sanksjoner, kan det føre til en kjedereaksjon. SEO-tekster av høy kvalitet er et obligatorisk attributt for enhver ressurs. Et ungt nettsted med unikt og riktig optimalisert innhold kan komme til TOPPEN.

Krasnodar

Algoritmen "Krasnodar" - implementering av "Spectrum"-teknologien for å fortynne søkeresultater, utvide utdrag og indeksere sosiale nettverk. Lanseringen fant sted i desember 2010.

Egendommer

"Spectrum"-teknologien ble opprettet for å klassifisere forespørsler i kategorier og ble brukt i tilfeller der ikke-spesifikke nøkkelfraser ble skrevet inn. "Krasnodar" utvannet søkeresultatene, og ga en slik bruker flere forskjellige alternativer. For eksempel, med uttrykket "foto av Moskva" i søket, kunne man ikke bare se generelle landskap, men også fotografier etter kategorier som "attraksjoner", "kart", "restauranter". Det ble lagt vekt på unike navn på noe (nettsteder, modeller, produkter) - detaljene begynte å skille seg ut. Rich snippets gjorde det mulig å umiddelbart vise brukere kontakter og andre organisasjonsdata i søkeresultater.

resultater

Rangeringen av kommersielle nettsteder har endret seg betydelig, spesiell oppmerksomhet til detaljer (produktkort, adskillelse av den korte beskrivelsen fra den generelle). Det sosiale nettverket på VK har begynt å bli indeksert og profilene til deltakerne er nå like synlige direkte i søkeresultatene. Innlegg i forum kan rangeres først hvis de hadde et mer omfattende svar på brukerens spørsmål enn andre nettsteder.

Reykjavik

"Reykjavik"-algoritmen - personalisering av søkeresultater er opprettet og "Wizards"-teknologier er lagt til for å vise foreløpige resultater av søket. Forbedret formel for inputhint. Algoritmen ble lansert i august 2011.

Egendommer

Mottoet for det personlige søkeresultatet er "Hver bruker har sine egne resultater." Systemet for å huske interessene til søkere fungerte gjennom informasjonskapsler, så hvis brukerens forespørsler oftere var relatert, for eksempel til utenlandske ressurser, neste gang de ble vist i lederne av søkeresultatene. Hint i søkefeltet oppdateres hver time, og utvider dermed mulighetene for et spesifikt søk. Konkurransen om høyfrekvente søk øker med utrolig kraft.

resultater

Anerkjente nyhetssider når oftere TOPPEN på grunn av deres utvidede semantiske kjerne (tilstedeværelsen av et stort antall forskjellige lavfrekvente nøkkelspørringer). Økningen i antall sider for spesifikke søk på informasjonssider begynte å spille en stor rolle etter lanseringen av Reykvik-algoritmen. Hvert nettsted prøvde å komme inn i brukerens bokmerker for å bli en del av personaliseringssystemet for dette, metoder for å abonnere på RSS-feeden og popup-bannertips for å bokmerke nettstedet. Internett-ressurser begynte å ta mer hensyn til en individuell tilnærming, i stedet for å legge press på massene.

Kaliningrad

"Kaliningrad"-algoritmen er en global personalisering av søke- og søkestreng, med fokus på atferdsfaktorer. Lanseringen av Kaliningrad i desember 2012 økte kostnadene for SEO-tjenester betydelig.

Egendommer

Brukerens interesser snudde opp ned på hele søkeresultatene - nettstedeiere, som tidligere ikke brydde seg om komforten til den besøkendes opphold på nettstedet, begynte å miste trafikk med lynets hastighet. Nå delte Yandex sine interesser inn i kortsiktige og langsiktige, og oppdaterte spiondatabasene sine en gang om dagen. Dette betydde at i dag og i morgen, for samme forespørsel, kunne den samme brukeren bli vist et helt annet resultat. Interesser spiller nå en spesiell rolle for en bruker som tidligere var interessert i å reise når han skrev inn uttrykket taxi - taxitjenester vises, og for noen som stadig ser på film - vil de motta alt om komediefilmen "Taxi" i søkeresultatene . I søkefeltet til hver person som er "sulten etter å finne informasjon", vises tips om tidligere interesser nå i de første posisjonene.

resultater

Optimalisatorer begynte å dekke flere og flere måter å beholde brukeren på: brukervennlighet og design ble forbedret, innhold ble skapt mer mangfoldig og av høyere kvalitet. Når du avslutter, kan vinduer som "Er du sikker på at du vil forlate siden" dukke opp, og brukeren ville bli stirret på av det triste ansiktet til en skapning. Gjennomtenkt sidekobling og en alltid tilgjengelig meny forbedret brukeraktivitetsindikatorer, noe som økte sidenes plassering i søkeresultatene. Nettsteder som var uklare for et bredt spekter av Internett-brukere, ble først rett og slett degradert i posisjoner, og deretter vanligvis hengt på slutten av listen over foreslåtte resultater.

Dublin

Dublin Algorithm - Forbedret personalisering ved å identifisere nåværende mål. Denne moderniserte versjonen av "Kaliningrad" ble utgitt til verden i mai 2013.

Egendommer

Teknologien inkluderer en funksjon for å spore brukernes skiftende interesser. Det vil si at hvis det er to helt forskjellige søkevisninger over en viss tidsperiode, vil algoritmen foretrekke det siste og inkludere det i søkeresultatene.

resultater

For nettsteder har praktisk talt ingenting endret seg. Kampen fortsetter ikke bare for trafikken, men for å forbedre atferdsindikatorene. Gamle nettstedoppsett begynner å bli forlatt fordi det er lettere å lage en ny enn å prøve å fikse noe på den gamle. Tilbudet av nettsidemaltjenester øker, og konkurransen om praktiske og vakre nettressursoppsett begynner.

Øyer

"Islands"-algoritme - teknologi har blitt introdusert for å vise interaktive blokker i søkeresultater, slik at brukeren kan samhandle med nettstedet direkte på Yandex-søkesiden. Algoritmen ble lansert i juli 2013, med et forslag til webmastere om aktivt å støtte betaversjonen og bruke maler for å lage interaktive «øyer». Teknologien testes for tiden bak lukkede dører.

Egendommer

Nå, når du søker etter informasjon som kan bli funnet ut umiddelbart fra søket, tilbys brukeren "øyer" - skjemaer og andre elementer som kan jobbes med uten å besøke nettstedet. For eksempel leter du etter en bestemt film eller restaurant. For filmen i søket og til høyre for den, vil blokker vises med omslaget til filmen, dens tittel, rollebesetning, visningstider på kinoer i byen din og et skjema for kjøp av billetter. Restauranten vil vise sitt bilde, adresse, telefonnumre og bordbestillingsskjema.

resultater

Ingenting vesentlig endret seg i rangeringen av nettsteder med det første. Det eneste som har blitt merkbart er utseendet til nettressurser med interaktive blokker i utgangspunktet og til høyre for søkeresultatene. Hvis antallet nettsteder som deltok i betatesting var betydelig, kunne de fortrenge vanlige nettsteder på grunn av deres attraktivitet og fengende for brukere. SEO-er tenker på å forbedre synligheten til innholdet deres i søkeresultatene ved å legge til flere bilder, videoer, vurderinger og anmeldelser. Livet er bedre for nettbutikker - riktig konfigurerte produktkort kan være en utmerket interaktiv "øy".

Minusinsk

"Minusinsk"-algoritmen - ved identifisering av SEO-lenker som sådan, som ble kjøpt for å forvrenge søkerangeringsresultater, ble et filter brukt på nettstedet, noe som ødela nettstedets posisjon betydelig. "Minusinsk" ble kunngjort i april 2015, og trådte i kraft i mai samme år. Det er med denne algoritmen at den berømte er assosiert.

Egendommer

Før utgivelsen av Minusinsk, i 2014, deaktiverte Yandex påvirkningen av SEO-koblinger for mange kommersielle nøkler i Moskva for testing og analyserte resultatene. Resultatet viste seg å være forutsigbart - kjøpt lenkemasse brukes fortsatt, men for søkemotoren er det spam. Utgivelsen av "Minusinsk" markerte dagen da nettstedeiere måtte rydde opp i lenkeprofilene sine, og bruke budsjettet som ble brukt på koblingspromotering for å forbedre kvaliteten på Internettressursen deres.

resultater

"Anerkjente" nettsteder som oppnådde TOP takket være bulkkjøp av lenker, fløy av de første sidene, og noen fikk sanksjoner for brudd på reglene. Høykvalitets og unge nettsteder som ikke er avhengige av tilbakekoblinger befant seg plutselig i TOP 10. "Fanget i distribusjonen" nettsteder som ikke ønsket å vente lenge, opprettet nye nettsteder, overfører innhold og satte en plugg på de gamle, eller utspekulert sjamanisert med omdirigeringer. Etter omtrent 3 måneder fant vi et hull i algoritmen som lar oss fjerne dette filteret nesten umiddelbart.

Brukervennlighet og innhold begynner å bli massevis forbedret. Lenker kjøpes med enda større forsiktighet, og kontroll over tilbakekoblinger blir et av de funksjonelle ansvarsområdene til optimalisereren.

I følge dagens data, hvis du kjøper lenker på upassende måte, kan du få et filter selv for 100 lenker. Men hvis lenkemassen er skikkelig fortynnet, så kan du trygt kjøpe tusenvis av lenker akkurat som i gode gamle dager. Det vil si at koblingsbudsjettene for nettopp denne utvanningen, som ble spilt av crowding og omtaler, har vokst betydelig.

Vladivostok

"Vladivostok"-algoritmen er introduksjonen til søketeknologi for å sjekke et nettsted for full kompatibilitet med mobile enheter. Hele prosjektet startet i februar 2016.

Egendommer

Yandex har tatt enda et skritt mot mobilbrukere. Vladivostok-algoritmen ble utviklet spesielt for dem. Nå for bedre rangering mobilsøk Nettstedet må oppfylle kravene til mobil tilgjengelighet. For å komme foran konkurrentene dine i søkeresultater, må en Internett-ressurs vises riktig på alle nettenheter, inkludert nettbrett og smarttelefoner. "Vladivostok" sjekker for fravær av java og flash plugins, tilpasning av innhold til skjermutvidelse (tekstkapasitet på tvers av skjermen), enkel lesing av tekst og muligheten til komfortabelt å klikke på lenker og knapper.

resultater

Da Vladivostok-algoritmen ble lansert, viste bare 18 % av nettstedene seg å være mobilvennlige - resten måtte raskt kvitte seg med "tyngden" på sidene som ikke ble vist eller forhindret at innholdet ble vist riktig på smarttelefoner og nettbrett. Hovedfaktoren som påvirker et nettsteds rangering i mobilsøkeresultater er oppførselen til mobilbrukeren. I hvert fall for nå. Det er tross alt ikke så mange perfekt mobilvennlige sider, altså ledige plasser i søket er opptatt av de som er i stand til å gi brukeren de mest komfortable forholdene, selv om de ikke er helt. Nettsteder som ikke er tilpasset mobile enheter blir ikke kastet ut av mobilsøk, men rangeres rett og slett lavere enn de som har oppnådd best resultater med å forbedre kvaliteten på tjenestene for smarte brukere. For øyeblikket er den mest populære typen bestilling av nettstedslayout adaptiv, ikke mobil, som man kanskje tror. Nettsteder som oppfyller alle kravene til algoritmen får det maksimale antallet mobiltrafikk i din nisje.

Google: historien om opprettelse og utvikling av algoritmer

Googles algoritmer og filtre er fortsatt ikke helt forstått av russisktalende optimerere. For Google har det alltid vært viktig å skjule detaljer om rangeringsmetoder, og forklare at "anstendige" nettsteder ikke har noe å frykte, og "uærlige" er bedre å ikke vite hva som venter dem. Derfor lages det fortsatt legender om Google-algoritmer, og mye informasjon ble innhentet først etter at spørsmål ble stilt for å støtte når nettstedet sank i søkeresultatene. Google hadde så mange mindre forbedringer at det var umulig å telle, og på spørsmål om hva som hadde endret seg, forble den utenlandske PS ganske enkelt taus. La oss vurdere hovedalgoritmene som påvirket plasseringene til nettsteder betydelig.

Koffein

Algoritmen "koffein" - på den første siden av søket kan det være flere sider på samme nettsted etter merke, og det er et forhåndsvisningsalternativ. Lanseringen fant sted i juni 2010.

Egendommer

Fremheve bedriftens nettsteder når du søker etter merke. Et "forstørrelsesglass" vises nær utgangslinjen for forhåndsvisning. Merkesøkeord gir en positiv veksttrend i posisjonene til Internettressursen som helhet. Page Rank-indeksen er oppdatert, mens PR har økt på kjente og besøkte sider.

resultater

SEO-er har begynt å legge mer vekt på merkevarebygging av nettsteder, inkludert fargevalg, logoer og navn. Nøkkelord for merkevaren gjorde at sidene skilte seg ut på en spesiell måte i søket, og når en besøkende byttet fra en slik setning til hovedsiden, vokste posisjonen i søkeresultatene (hvis ressursen før det ikke var en leder) . SEO-optimalisatorer begynte å kjøpe flere lenker for å øke siteringene. Det var nesten umulig for unge og lite anerkjente merker å bryte seg inn i TOP søkeresultatene.

Panda

Panda-algoritmen er en teknologi for å sjekke et nettsted for kvaliteten og nytten av innhold, inkludert mange SEO-faktorer. Nettsteder med «black hat» SEO er ekskludert fra søk. Panda ble kunngjort i januar 2012.

Egendommer

"Panda" gikk ut for å lete og renset den for rusk. Dette er akkurat det som kan sies etter at mange nettsteder som ikke var relevante for nøkkelspørsmål forsvant fra Google-resultater. Algoritmen tar hensyn til: søkeordspam og ujevn bruk, unikt innhold, konsistens i publikasjoner og oppdateringer, brukeraktivitet og interaksjon med nettstedet. Å la en besøkende rulle til bunnen av en side med lesehastighet ble ansett som en positiv faktor.

resultater

Etter å ha slått på Panda, ga et stort antall nettsteder etter for sanksjoner fra søkemotoren. Google-systemer og først trodde alle at dette skyldtes deltagelse i lenkepyramider og kjøp av lenkemasser. Som et resultat gjennomførte SEO-optimalisatorer en prosess med å teste algoritmen og analyserte virkningen. Konklusjonen av eksperimentene var at Panda fortsatt sjekker kvaliteten på nettstedet for verdi for besøkende. Internett-ressurser sluttet å kopiere og lime inn og begynte aktivt å skrive copywriting. Atferdsfaktorer ble forbedret ved å transformere nettstedstrukturen til mer praktiske alternativer, og lenking i artikler ved hjelp av spesielle høydepunkter ble en viktig del av optimalisering. Populariteten til SEO som en tjeneste har skutt i været. Det ble lagt merke til at nettsteder som ikke fulgte Panda-reglene forsvant fra søket veldig raskt.

Sideoppsett (Paige Lyot)

Page Lyot-algoritmen er en teknologi for å bekjempe søkesøppel som beregner forholdet mellom nyttig og spam-innhold på nettsider. Lansert i januar 2012 og oppdatert til og med 2014.

Egendommer

"Sideoppsett" ble opprettet etter en rekke brukerklager på skruppelløse nettstedeiere hvis sider hadde svært lite relevant innhold eller de nødvendige dataene var vanskelige å få tilgang til, og noen ganger helt fraværende. Algoritmen beregnet prosentandelen av relevant innhold og spam på siden for en innkommende forespørsel. Det ble ilagt sanksjoner mot områder som ikke oppfylte kravene, og området ble fjernet fra søk. Manglende overholdelse av reglene for å legge ut dokumenter inkluderte også en sideoverskrift fylt med reklame, når du ser på teksten som kreves ved å gå til den andre skjermen.

resultater

Nettsteder som var for nettsøppel med reklame falt fra sine posisjoner, selv om innholdet på sidene var moderat optimalisert for søkeord. Sider som ikke var relevante for søk ble degradert i søkeresultatene. Men det var ikke så mange nettsteder som åpenbart ikke fulgte reglene og ikke bekymret seg for komforten til besøkende. Etter tre oppdateringer av algoritmen, viste det seg at det omtrentlige antallet ressurser som falt under filteret ikke var mer enn 3%.

(Venezia)

Algoritmen "Venezia" georefererer nettstedet til en bestemt region, og tar i betraktning tilstedeværelsen av bynavn på nettstedsidene. Lansert i februar 2012.

Egendommer

"Venezia" krevde at nettredaktører hadde en "Om oss"-side på sine nettsider, som angir posisjonsadressen, uten å ta hensyn til det faktum at selskapet kanskje ikke har en faktisk posisjon. I kontekst søkte algoritmen etter bynavn for å vise en egen side for regionen spesifisert i den. Oppmerkingen schema-creator.org begynte å bli brukt for å forklare søkeroboten dens geografiske plassering.

resultater

Nettsteder dukket opp i søkeresultatene for de regionene som de ikke nevnte på sidene sine, uten å ta hensyn til geouavhengige søk. Optimalisatorer inkluderer aktivt geosensitive søkeord og prøver å lage mikrodata. Innholdet på hver side er personlig tilpasset hver enkelt by eller region som helhet. Lokalisert lenkebygging begynte å bli aktivt brukt for å øke posisjonene i den valgte regionen.

(Pingvin)

Penguin-algoritmen er en smart teknologi for å bestemme vekten av nettsteder og kvaliteten på tilbakekoblinger. Et system for å redigere oppblåste indikatorer på autoriteten til Internett-ressurser. Lansert i søk i april 2012.

Egendommer

"Penguin" er rettet mot krigen mot kjøp av tilbakekoblinger, et unaturlig, det vil si kunstig, sett med nettstedautoritet. Algoritmen danner sin base av betydelige ressurser basert på kvaliteten på tilbakekoblinger. Motivasjonen for å lansere Penguin var fremveksten av lenkeoptimalisatorer, når enhver lenke til en nettressurs hadde like stor vekt og økte et slikt nettsted i søkeresultatene. I tillegg begynte vanlige profiler til brukere av sosiale nettverk å bli rangert i søk på linje med standard Internett-ressurser, noe som ytterligere populariserte promoteringen av vanlige nettsteder som bruker sosiale signaler. Samtidig med disse algoritmemulighetene begynte systemet å bekjempe irrelevante innsettinger av søk i søkeord og domenenavn.

resultater

Penguin "sviktet" mange nettsteder i søkeresultatene for den unaturlige veksten av tilbakekoblinger og irrelevansen av innhold for brukerforespørsler. Betydningen av kataloger og nettsteder for å selge lenker ble raskt redusert til et minimum, mens autoritative ressurser (nyhetssider, tematiske og nesten-tematiske sider) vokste foran øynene våre. På grunn av introduksjonen av Penguin-algoritmen ble PR for nesten alle offentlige nettsteder beregnet på nytt. Populariteten til massekjøp av tilbakekoblinger har falt kraftig. Nettsteder begynte å skreddersy nøkkelsetninger til innholdet på sidene så mye som mulig. "Relevansmanien" har begynt. Installasjonen av sosiale knapper på sider i form av moduler var utbredt på grunn av den raske indekseringen av sosiale nettverkskontoer i søk.

Sjørøver

"Pirat"-algoritmen er en teknologi for å svare på brukerklager og identifisere tilfeller av brudd på opphavsrett. Systemet ble lansert i august 2012.

Egendommer

"Pirate" godtok klager fra forfattere om brudd på opphavsretten fra nettstedeiere. I tillegg til tekster og bilder, tok nettsteder med videoinnhold som var vert for piratkopierte filmer fra kinoer hovedtyngden av angrepet. Beskrivelser og anmeldelser av videoene var også gjenstand for filtrering - nå var det ikke lov å kopiere og lime under straff for sanksjoner. På grunn av et stort antall klager mot nettstedet for brudd, ble et slikt nettsted kastet ut av søkeresultatene.

resultater

Basert på resultatene fra den første driftsmåneden til Googles Pirate, ble millioner av videofiler som krenket rettighetene til opphavsrettsinnehavere blokkert fra visning på nesten alle nettsteder, inkludert videovertsider og nettkinoer. Nettsteder med bare piratkopiert innhold ble sanksjonert og utelatt fra søk. Den massive oppryddingen av "stjålet" innhold pågår fortsatt.

HummingBird

"Hummingbird"-algoritmen er introduksjonen av teknologi for å forstå brukeren når søk ikke samsvarer med nøyaktige oppføringer. Systemet for å «identifisere eksakte ønsker» ble lansert i september 2013.

Egendommer

Nå endret ikke brukeren uttrykket for å finne informasjonen han trengte mer spesifikt. "Hummingbird"-algoritmen gjorde det mulig å ikke søke etter direkte eksakte forekomster, men returnerte resultater fra databasen "dechiffrere ønsker". En bruker skrev for eksempel uttrykket "steder å slappe av" i søkefeltet, og "Kolibri" rangerte nettsteder med data om sanatorier, hoteller, spa-sentre, svømmebassenger og klubber i søket. Det vil si at algoritmen grupperte en standarddatabase med menneskelige setninger om beskrivelsen deres. Forståelsessystemet har endret søkeresultatene betydelig.

resultater

Ved hjelp av Hummingbird-teknologien kunne SEO-optimalisatorer utvide sin semantiske kjerne og få flere brukere til nettstedet på grunn av morfologiske nøkler. Rangeringen av nettsteder er avklart, for nå er ikke bare forekomster av direkte nøkkelfraser og tekstrelevante spørringer tatt i betraktning, men også brukernes aktuelle ønsker. Konseptet med LSI copywriting dukket opp - å skrive tekst som tar hensyn til latent semantisk indeksering. Det vil si at nå ble artikler skrevet ikke bare med innsettingen søkeord, men også inkludere synonymer og nær-tematiske fraser så mye som mulig.

(Due)

"Dove"-algoritmen er et system for å lokalisere brukere og koble søkeresultater til deres plassering. Teknologien ble lansert i juli 2014.

Egendommer

Brukerens plassering spilte nå en nøkkelrolle for å levere resultater. Organisk søk ​​har blitt alt om geolokalisering. Å koble nettsteder til Google maps spilte en spesiell rolle. Nå, når en bruker ber om, søker algoritmen først etter nettsteder som er nærmest på plassering eller målrettet innhold, og beveger seg deretter bort fra den besøkende. Organiske søkeresultater har endret seg betydelig.

resultater

Lokale nettsteder steg raskt i søkerangeringer og fikk lokal trafikk. Internettplattformer uten geoavhengighet falt i posisjoner. Kampen for hver by begynte igjen og antallet situasjoner økte da identiske nettsteder med redigert innhold og lenker til forskjellige områder begynte å dukke opp. Før de mottok nøyaktig informasjon om implementeringen av "Dove"-algoritmen i russiskspråklige Internett-søk, trodde mange webmastere at de var under Penguin-sanksjoner.

(mobilvennlig)

Den mobilvennlige algoritmen er implementeringen av teknologi for å sjekke nettsteder for tilpasning til mobile enheter. Systemet ble lansert i april 2015 og klarte å bli "kalt" på Internett som: "Mobile Armageddon" (mobilegeddon), "Mobile Apocalypse" (mobilepocalyse, mobocalypse, mopocalypse).

Egendommer

Mobile-Friendly lanserte en ny æra for mobilbrukere, og anbefaler at SEO-er raskt gir en komfortabel opplevelse for mobile besøkende på nettstedene deres. Nettsteders tilpasningsevne til mobile enheter har blitt en av de viktigste indikatorene på hvor mye nettstedeiere bryr seg om de besøkende. Ikke-responsive nettsteder måtte raskt rette opp mangler: kvitte seg med plugins som ikke støttes på nettbrett og smarttelefoner, justere tekststørrelsen for å passe utvidelsen av forskjellige skjermer, fjerne moduler som hindrer besøkende med en liten skjerm i å bevege seg rundt på nettstedet . Noen har nettopp laget en egen mobilversjon Internett-ressursen din.

resultater

Ressurser som var forberedt på forhånd for en slik vending fikk spesiell vekt blant andre nettsteder i søkeresultatene, og trafikken fra en rekke ikke-stasjonære enheter til slike nettsteder økte med mer enn 25 %. Helt ikke-responsive nettsteder ble degradert i mobilsøk. Fokuset på mobilitet spilte en rolle - tilstedeværelsen av tunge skript på ressursene ble minimert, annonsering og sider begynte naturlig nok å lastes raskere, gitt at de fleste brukere med nettbrett/smarttelefoner bruker Mobilt Internett, som er flere ganger tregere enn standarden.

Sammendrag

Det er alt

Nå vet du hvordan søk har utviklet seg gjennom årene, både for vanlige brukere og for "hit-and-miss"-sider. Hver av søkealgoritmene ovenfor oppdateres med jevne mellomrom. Men dette betyr ikke at optimerere og webansvarlige skal være redde for noe (med mindre du selvfølgelig bruker black hat SEO), men det er fortsatt verdt å holde et øye for ikke å uventet synke i søket på grunn av neste nytt filter.

Total

Introduksjon

Google algoritmer, grunnlaget for Googles søkemotor. Laget av Larry Page og Sergey Brin, Google er nå i stand til å søke i dokumenter på to hundre språk og behandle data i grunnleggende formater ( Microsoft Word, PDF, Excel, etc.). I denne artikkelen vil vi huske hovedstadiene i utviklingen av Google-algoritmer laget for å rangere nettsider i Googles søkeresultater.

Google-algoritmer: utviklingshistorie

1998. I år ble søkemotoren Google grunnlagt. Samtidig ble PR opprettet, hvis algoritme var basert på overføring av referansemasse og hadde to hovedparametere.

  1. Hvordan mer mengde koblinger som fører til en bestemt side, jo høyere nivå på Page Rank og plassen i søkeresultatene.
  2. Jo høyere Page Rank for de koblende nettsidene, desto større masse overføres av koblingene.

Den offisielle skaperen av PR er Larry Page, og eieren av patentet for denne oppfinnelsen er Stanford University.

Et interessant faktum er at mange mennesker tror at Page Rank er oversatt som "page rank". Faktisk oversettes denne setningen som "Siderangering" skaperen av oppfinnelsen ga det navnet sitt. Deretter adopterte mange søkemotorer ideen om Page Rank som grunnlag, og utviklet sine egne analoger av verktøyet.

Begynnelsen av århundret

år 2000. Google Company presenterer en ny utvikling for allmennheten - algoritme kalt Hilltop, som lar deg beregne PR-nivået mest nøyaktig. Denne algoritmen leser geografien og nyhetsgraden til et dokument. Etter dette begynner Google å varsle webmastere om ikke å legge igjen lenker på mistenkelige nettsteder og "koblingsdumper".

år 2001. I år registrerer Google patent på Hilltop algoritme. På dette tidspunktet skiller søkemotoren søkeresultater for ikke-kommersielle og kommersielle søk.

2003. Den 15.11.13 lanseres den nye Florida-algoritmen, som fjerner fra søkeresultatene eller degraderer rangeringen av sider hvis innhold er overmettet med nøkkelsetninger og ord. På denne dagen innså SEO-eksperter at den nye søkemotoralgoritmen senker siderangeringer av følgende grunner:

  • ikke unikt eller lite unikt innhold;
  • høyt innhold av nøkkelord i overskrifter og tekster;
  • unaturlige lenker (kjøpes).

2005 år. For første gang prøver Google-spesialister å tilpasse søkeresultatene ved å sette tidligere spørringer fra en bestemt bruker som grunnlag.

2006. Selskapet lanserer en forbedret algoritme basert på en algoritme kalt Orion- ideen til en student fra Israel. Søkemotoren kan nå finne nettsider som samsvarer med emnet for et søk som ikke inneholder nøkkelord.

Fra dette tidspunktet begynner Google å "klargjøre" brukerens spørsmål, og tilbyr alternativer som oftest søkes etter med et gitt ord. For eksempel skriver en bruker ordet «sirkel» i søkefeltet. Systemet tilbyr ham slike søkealternativer som "sangsirkel", "sirkel for bading av nyfødte", etc.

2007. Dette året er preget av lanseringen av en ny Austin algoritme. Det nye produktet er i stand til å ta hensyn til tillitsnivået til en bestemt nettressurs og lavere ressurser med en lavere tillitsscore i søkeresultatene. Altså nettsteder som ikke har rukket å få tillit.

Nytt for 2009

år 2009. Google-utviklere introduserer en ny funksjon i søkemotoren. Koffein algoritme. Googles tidligere algoritmer samsvarer ikke lenger med den økte produksjonskapasiteten. Takket være dette begynner søkemotoren å indeksere nettsteder mye oftere.

Dannelsen av en side med søkeresultater akselereres mange ganger. Koffein påvirket ikke formelen for beregning av relevans i stor grad, men følgende endringer ble merkbare:

Kontinuerlig indeksering av hele plassen verdensveven tillot Googles søkeresultater å bli mye mer dynamiske og endre seg i løpet av dagen.

Andre tiår av vårt århundre

2011. Eksperter legger sitt eget "søppel" til Googles algoritmer. Dette lansering av en algoritme kalt Panda– den første seriøse søkerenseren. Den nye algoritmen "renser" søkeresultater fra "dårlige" nettsteder:

  • satellitter,
  • døråpninger,
  • nettsteder hvis innhold kun består av reklame og lenker,
  • nettsteder med lavt unikt innhold.

Skaperne av den forbedrede algoritmen, Matt Kats og Amit Singal, bemerker at deres nye kreasjon tar hensyn til følgende punkter:

  • Prosentvis indikator for det unike ved innholdet på en bestemt side og på ressursen som helhet;
  • Nivået på malinnhold, det vil si likheten mellom tekster skrevet for forskjellige søkeord;
  • Tilstedeværelsen av stilistiske, grammatiske og stavefeil;
  • Relevansen av reklame presentert på ressursen til emnet for postede tekster
  • Overholdelse av innholdet i taggene og metataggene på nettsiden med innholdet;
  • Graden av metning av de postede tekstene med nøkkelord;
  • Kvalitetsnivå på utgående og innkommende lenker;
  • Internett-brukerhandlinger (varighet av nettstedbesøk, antall nettsider som er sett, antall avslag og returer til ressursen).

I dag kan vi med sikkerhet merke oss at nesten alle moderne søkemotorer tar hensyn til disse faktorene, spesielt atferdsmessige. Jo mer interessant nettstedets innhold er for en Internett-bruker, jo mer tid vil han bruke på denne ressursen. Jo høyere nettstedet vil rangere på søkeresultatsiden.

Calibri

år 2013. I oktober ble Googles algoritmer fylt opp med det siste Hummingbird-algoritme – Hummingbird. Innovasjonen til denne algoritmen er at den er i stand til å forstå selv den skjulte betydningen av spørringer. Hvis du for eksempel skriver inn "kjøp noe i nærheten av hjemmet" Hummingbird på meth, betyr det frakoblede butikker.

Og fra nettbutikker vil han bare velge de hvis nettsteder gir den mest detaljerte informasjonen om leveringsbetingelser og deres fordeler. I tillegg foretrekker Hummingbird-algoritmen lange, detaljerte spørringer. Men på samme tid, for de søkene som Google ikke kan "fantastere" for, har ikke resultatene endret seg.

Og en til viktig poeng– ikke-unikt, lite unikt og generert innhold fungerer ikke lenger.

Avslutningsvis er det verdt å merke seg at russisk Google er et av de mest praktiske alternativene for å betjene en søkemotor.

I Russland bruker ikke Google de fleste av sine "straffende" sanksjoner. Takket være dette er nettstedpromotering for dette systemet i Russland mye enklere enn for andre søkemotorer.

Penguin og Panda, hva er det neste?

4.10. 2013 Penguin 2.1-algoritmen ble utgitt

Som før tar Googles søkemotor oppmerksomhet til mistenkelige nettsteder og ankerlister. Denne algoritmeoppdateringen påvirket nettstedene som tidligere ble sanksjonert av algoritmen. Berørte 1 % av forespørslene.

19.05. 2014 Panda 4.0-oppdatering ble utgitt

Den mest seriøse oppdateringen av denne søkealgoritmen. Berørte 7,5 % av søkene.

24.08. 2014, Dove-algoritme

Algoritmen tok hensyn til geoavhengige spørringer. Nå, når du mottar en geoavhengig forespørsel, gir Googles søkemotor de mest informative, lokale søkeresultatene for brukeren.

Har du noen gang lurt på hvordan Googles teknologi fungerer? Selvfølgelig involverer SERP-prosessen en kompleks algoritme basert på mange variabler. Men likevel, du kan med enkle ord forklare driftsprinsippet til verdens mest populære søkemotor?

For å forstå dybden av den mest komplekse søkemotoralgoritmen, ta en titt på denne ekstremt nyttige infografikken fra quicksprout.

Googles allestedsnærværende søkeedderkopper kryper inn på bestemte nettsider og følger deretter koblinger fra disse sidene. Denne tilnærmingen til nettverksgjennomgang lar Google indeksere mer enn 100 millioner gigabyte med informasjon.

For at brukerne skal få bedre søkeresultater, lager og forbedrer Google stadig programmer. Her er en kort liste over hovedområdene der det pågående arbeidet utføres:

  • stavekontroll;
  • autofullfør;
  • søk etter synonymer;
  • generell forståelse av spørsmål;
  • i live Google søk;
  • søkemønstre.

  • Hvor mange ganger vises et nøkkeluttrykk på en side?
  • forekomst av et søkeord i tittelen eller URL-en?
  • inneholder siden synonymer for søkeorduttrykket?
  • Hva er Google PageRank til en side?

Alt dette skjer på ⅛ sekunder.

Såkalt Kunnskapsnettverk(kunnskapsgraf) er en teknologi som produserer resultater basert på en global database med virkelige personer, steder og forbindelser mellom dem. For eksempel: i tillegg til tørre fakta om biografien til Leo Tolstoy, vil du motta maksimalt interessant innhold (tekst/foto/video) relatert til denne figuren.

Snippets legger også til bekvemmelighet for søkeresultatene – små informasjonsbiter som lar deg raskt og uten å måtte følge en lenke for å forstå om siden samsvarer med forespørselen din.

Andre Google-verktøy for å gjøre søket ditt enklere:

Ingen kommentarer her. Bare klikk på mikrofonikonet og fortell søkemotoren hva du vil finne. Men vær forsiktig – hun kan svare. :)

2. Bilder

Viser miniatyrbilder basert på søkeresultater.

Google-søk lar deg stille spesifikke spørsmål og få raske svar.

Google eier også den nest mest populære søkemotoren i verden, som dere alle kjenner veldig godt:

Konklusjon

Hva gjorde Google så vellykket? søkemotor? Til tross for de mange komplekse prosessene som skjer ubemerket av brukeren, er Google en enkel og praktisk søkemotor fra et brukervennlighetssynspunkt. Uansett hvilket spørsmål du stiller, vil det gi relevante søkeresultater på 1/8 av et sekund.

Vi har gitt ut en ny bok «Content Marketing in i sosiale nettverk: Hvordan komme inn i abonnentenes hoder og få dem til å bli forelsket i merkevaren din.»

I i fjor søkeresultatene har endret seg dramatisk sammenlignet med tidlig og midten av 2000-tallet. Det er hyggelig å se nye endringer som tar sikte på å øke brukerkomforten. Og for å fullt ut forstå hvor mye arbeid som er gjort med søkemotoren, bestemte vi oss for å samle 34 viktige hendelser i Googles utviklingshistorie.

For lenge siden

mars 1998. Google har en vellykket start med Larry Page og Sergey Brin. Samtidig ble den første rangeringsalgoritmen for nettsteder kalt PageRank utgitt.
PageRank er en verdi som tilsvarer viktigheten av en side. Beregningene er ganske enkle: Jo flere lenker som fører til en side, desto høyere er PageRank. Det er viktig å merke seg at vekten som overføres av en giverside direkte avhenger av lenkene til giveren selv. PageRank er forresten en algoritme som har fungert i nesten 20 år, om enn i en sterkt modifisert form.

  • år 2000. Lansering av Google Toolbar, et program som er en verktøylinje for arbeid med søkemotoren. Det var rundt denne tiden de første samtalene om SEO begynte.
  • Desember 2000 - Bakketopp. Dette er et slags tillegg til PageRank. Poenget er at lenker fra nettsteder som er relevante for emnet har økt betydelig i vekt.
  • år 2001. Google har begynt å skille søkeresultater i kommersielle og ikke-kommersielle søk.
  • februar 2003 - Boston. Oppdateringen er oppkalt etter byen der konferansen fant sted. Hovedendringen: månedlige oppdateringer til søkedatabasen ble introdusert.
  • April 2003 - Cassandra. Algoritmen som var den første til å riste optimizere fordi de begynte å straffe for bruk skjulte tekster og lenker. Fra det øyeblikket begynte SEO, fra Googles synspunkt, å bli svart.
  • Mai 2003 - Dominic. Fra det øyeblikket begynte Google å vurdere tilbakekoblinger til nettstedet annerledes. Det var etter Dominic at robotene Freshbot og Deepcrawler først dukket opp.
  • juni 2003 - Esmeralda. Bare den siste månedlige SERP-oppdateringen. Ingen store endringer ble lagt merke til med utgivelsen av Esmeralda.
  • juli 2003 - Fritz. Hovedendringen: siden utgivelsen av Fritz begynte Google å oppdatere daglig!
  • november 2003 – Florida. En av de veldig viktige oppdateringene, siden det var etter Florida at en betydelig del av de "brutalt" optimaliserte sidene var pessimistiske. Florida har slått et slag mot ressurser som er overmettede med søkeord, stjålet innhold og kjøpte lenkeprofiler. Siden slutten av 2003 har SEO endret seg og blitt mer krevende.
  • januar 2004 - Austin. Austin Update kommer Florida til hjelp. Essensen av oppdateringen er å skjerpe kampen mot spammet og usynlige tekster. Kravet til tekstrelevans øker.
  • Februar 2004 - Brandy. Google begynte å svare på søkeordsynonymer. Optimaliserte tekster har blitt mer mangfoldige, noe som utvilsomt forbedrer søkeresultatene. Oppmerksomheten til tematisk innhold i ankertekst har økt. Søkeordanalyse har endret seg.

Tid for forandring

  • februar 2005 - Allegra. Endringene som Allegra brakte er et mysterium i historien. Foreslåtte endringer: egen straff for kjøpte lenker. SEO fortsetter å gå i svart.
  • Mai 2005 - Bourbon. Bourbon begynte å innføre sanksjoner mot nettsteder med duplisert innhold, og senket rangeringene deres.
  • september 2005 -Gilligan. Gilligan gjorde ingen store endringer, i hvert fall ikke merkbare. Men det må nevnes for historisk referanse - jeg nevnte det.
  • oktober 2005 - Google Kart+ lokalt. Oppdateringer, hvis formål er å oppmuntre gründere til å oppdatere sine kontaktinformasjon på kartene.
  • Oktober 2005 - Jagger. Fortsatte kampen mot lenkemanipulasjon. Nå var Googles mål lenkefarmer, nettsteder som utvekslet tilbakekoblinger av hjertens godhet, og nok en gang løp algoritmen gjennom den tvilsomme lenkeprofilen.
  • Desember 2005 - Big Daddy. Google foreslo å bruke kanonisering, det vil si å velge den mest passende siden fra potensielle duplikater. Bruk omdirigeringer 301 og 302. Det er alle de vesentlige endringene.
  • november 2006 - Tilleggsindeks. Utvide Googles muligheter. Søkemotoren begynte å behandle flere dokumenter. Av en eller annen grunn var det i år at det ble lagt merke til alvorlige endringer i plasseringene til nettsteder.
  • Juni 2007 - Buffy. Mindre oppdateringer som ikke er verdt oppmerksomheten din. Og ikke et snev av vampyrer.
  • april 2008 - Dewey. Det virket som et jordskjelv, rystet stedets posisjoner, og det er det. Ingen forsto hvorfor.
  • August 2008 – Google Suggest. Nå har Google begynt å vise rullegardinmenyen søketips når du skriver inn et søk i søkefeltet.
  • februar 2009 - Vince. Ifølge Matt Cuts skjedde det ikke mye. Men nysgjerrige optimerere kom til konklusjonen at ressurser store merker fått en sterk fordel.
  • August 2009 - Forhåndsvisning av koffein. Google varslet optimaliserere om betydelige endringer i søkestrukturen, på grunn av dette vil dokumenter fra nå av bli indeksert mye raskere. Samme år begynte problemet å bli oppdatert i sanntid.
  • Mai 2010 - Min dag. Denne oppdateringen reduserte mengden trafikk fra detaljerte søk.
  • Juni 2010 - Koffein. Den tidligere annonserte koffeinen har blitt utgitt. Algoritmen tillot flere sider å bli indeksert i en raskere hastighet. Nå kommer nye dokumenter raskere inn i indeksen.

Google-oppdateringer: I dag

  • 23. februar 2011 - . På Day of Defenders of the Fatherland ble Panda-algoritmen utgitt, en slags beskytter av søkeresultater fra søppel med vekt på interne faktorer. Panda er en storstilt, kjent og oppsiktsvekkende algoritme som har gjennomgått ulike oppgraderinger mange ganger. Den svekket seg, så ble den sterkere. Hovedoppgaven er å fjerne alle nettsteder av lav kvalitet fra søkeresultatene, for eksempel døråpninger og nettsteder som er opprettet utelukkende for annonsering, mens de mest verdige blir igjen.
  • 3. januar 2012 - Sideoppsett. Et tillegg for Panda som analyserer hvor enkelt det er å se dokumenter. Målet er å bli kvitt påtrengende reklame som tar opp det meste av brukerens skjerm.
  • februar 2012 - Venezia. En oppdatering som nå tar hensyn til brukerens regionale plassering. Målet er å vise nettsteder som er nærmest brukeren.
  • 24. april 2012 - Pingvin. Den andre oppsiktsvekkende algoritmen. Målet er det samme som Pandas, men det er lagt vekt på ytre faktorer. Jeg tok kontroll over alt relatert til ressursens lenkeprofil. Straffer nettsteder ved enten å senke hele nettstedet i søkeresultater eller slette det helt.
  • september 2012 -Exact Match Domain (EMD). Et sjeldent, men nødvendig filter. Tanken er å degradere nettsteder av lav kvalitet som er optimalisert for en enkelt forespørsel, som er domenet. For eksempel er det svært sannsynlig at nettstedet kupi-kartoshku.ru, der hver side er optimalisert for forespørselen "kjøp poteter", faller inn under dette filteret.
  • August 2013 - Hummingbird. Kompleks algoritme. Kolibris oppgave er å gjenkjenne mening i komplekse flerordsspørringer og velge de mest relevante dokumentene. Faktorer kan inkludere: den skjulte betydningen av forespørselen, design, plasseringen din og så videre.
  • august 2014 - Due. For å videreføre temaet fugler, har Dove som mål å presentere selskaper (nettsteder) som ligger nærmest deg i søkeresultater basert på geobaserte søk. For eksempel, hvis du ønsker å bestille kinesiske nudler, vil Dove finne det nærmeste etablissementet som kan tilfredsstille ditt behov. Også i august 2014 ble det kunngjort at Google ga et lite rangeringsløft til nettsteder som bruker en sikker protokoll som https.
  • 21. april 2015 - Mobilvennlig. En algoritme som gir preferanse til individuelle nettsider tilpasset skjermer mobile enheter. Krever ikke skalering eller horisontal rulling. Kort sagt, praktisk å lese fra en telefon/nettbrett. Du kan sjekke det i Google Webmaster.

Fortsettelse følger…

I løpet av de siste 5 årene har Googles algoritmer gjennomgått mange endringer. Vanskelighetsgraden med å manipulere søkeresultater varierer mellom «veldig vanskelig» og «umulig». Derfor er det eneste som gjenstår å være en ansvarlig optimizer. Google har gjentatte ganger nevnt at innhold forblir den viktigste rangeringsfaktoren og alltid vil være det. Det viser seg at den beste veien ut av denne situasjonen er tematisk trafikk og promotering med lenker av meget høy kvalitet. Jeg er glad for at jeg optimaliserer på dette tidspunktet. Jeg er sikker på at mange nye overraskelser venter oss i 2016.