Googlov novi algoritem je KBT. Kako deluje iskanje Google? Zaradi sprememb algoritmov iskanja Google

Tehnologije

Iskanje Google deluje na podlagi algoritma. Računalniki obdelujejo podatke in iščejo signale, da je določeno spletno mesto bolj ali manj zanimivo in relevantno. to zahtevo. PageRank zavzema veliko vlogo v tem procesu, prek katerega Google in izbere zunanje povezave ter z njimi povezana besedila. Toda Google za ugotavljanje uporablja tudi številne druge signale ustreznost strani, sicer bi PageRank iskal neskončno.

Dohodne povezave so ocenjene za različne spletne strani. Če upoštevamo te povezave, daje iskanje dokaj dobre rezultate. Zato je bil Google edinstven in edinstven leta 1999, ko so bili rezultati manj podobni neskončni igri in manj človeški intervenciji.

Toda danes se je vse to spremenilo. Googlov algoritem vedno bolj podvržena motiviranim ljudem in podjetjem, ki se borijo zanjo. Kako je to "oboroževalna tekma", kjer Google izgublja.

Še en dogodek, ki se je zgodil prejšnji dan, ne igra v prid samemu iskalniku - v Googlovem algoritmu so se pojavile spremembe, katerih cilj je boj proti nekaterim najbolj nadležni onesnaževalci interneta – »content farms«, na primer. "Oboroževalna tekma" se nadaljuje.

Google vztraja, da ne uporablja neposredno nedavno predstavljene funkcije Uporabniki blokirajo nepomembne rezultate V Brskalnik Chrome. Ko pa gre za delovanje algoritma, je Googlova nova rešitev podobna prepovedi uporabnika.

»Če vzamete prvih nekaj deset spletnih mest, ki so jih uporabniki Chroma najpogosteje blokirali, jih je 84 odstotkov v novem algoritmu znižanih,« pravi podjetje.

Vendar čudna izjava. Navsezadnje bi to lahko bila velika spodbuda za manipulacijo z blokiranjem. Pozabite na kmetije vsebin, samo zaposlite na tisoče ljudi, ki bodo preprosto blokirajte spletna mesta konkurentov. Druga plat "oboroževalne tekme".

Google se kot čarovnik iz Oza skriva za svojo močjo in skrivnostnostjo iskalni algoritem. če dobro iskanje je tako preprosto kot klik z miško na spletni strani, vsa čarovnija lahko izgine.

In če nekako lahko odstranite čim več neželene pošte, in to na podlagi demografskih ali geografskih kazalcev ali celo uporabnikovih osebnih podatkov, potem so lahko stvari res precej neprijetne. Še posebej, če Google ne bo imel dostopa do teh podatkov. In Facebook ga bo imel.

Eden najzanimivejših eksperimentov se dogaja zdaj, zadeva Možnost iskanja po povezavah, ki jih všečkate na Facebooku. Rezultati iskanja so določeni glede na to, kaj so vaši prijatelji všečkali na Facebooku, in ti podatki so shranjeni res dolgo časa.

Socialno omrežje uporablja več kot petsto milijonov ljudi, od katerih jih polovica vsak dan preveri profil. Ti ljudje na spletnem mestu preživijo 700 milijard minut in delijo trideset milijard kosov vsebine. Delijo povezave in ljudje kliknejo gumb »všeč mi je«, da glasujejo za vsebino. Na splošno je to precej zanimiv iskalni poskus z Blekkom.

Zdaj pa si predstavljajte, kaj lahko Google naredi z vsemi temi podatki, in razumeli boste, zakaj so družbeni mediji zanj zdaj tako pomembni. Ne zato, da bi "ubili" Facebook, ampak da bi poskušali "nevtralizirati" grožnjo, da se naslednji veliki preskok v evoluciji iskalnikov ne zgodi brez njih. Kjer Google ponavadi zaostane, sta trgovina in turizem, zato je predlog prijatelja za hotel v Parizu, na primer, lahko dobra stvar v rezultatih iskanja.

Prej lahko traja več kot eno leto Facebook bo dejansko zanimalo iskanje v celoti. Toliko je v tem poslu prihodek od oglaševanja, da ga tudi ne bo mogoče v nedogled ignorirati. To je pravzaprav tisto, kar bi moralo Google najbolj prestrašiti.

Vsi vemo iz prve roke o obstoječih algoritmih iskalnikov Yandex in Google. Vsi optimizatorji si zaradi izpolnjevanja svojih "nenehno posodobljenih" pravil nabijajo glavo z vedno več novimi načini, kako priti na TOP iskalnih rezultatov. Med zadnjimi novostmi, ki so jih lastniki strani občutili s strani PS, so zahteve po mobilnosti internetnih virov in zmanjšanje iskanja teh strani. ki ne znajo kupovati povezav. Kateri algoritmi, ki so bili doslej uvedeni v iskanje, so pomembno vplivali na rangiranje spletnih mest? Pravzaprav vsi optimizatorji ne vedo, katere tehnologije, kdaj in zakaj so bile ustvarjene, da bi vsakemu spletnemu mestu v iskanju dali najbolj pošten položaj in rezultate iskanja očistili "smeti". V tem članku si bomo ogledali zgodovino nastanka in razvoja iskalnih algoritmov.

Yandex: vrste algoritmov od zasnove do danes

Vsi algoritmi niso bili ustvarjeni v enem dnevu in vsak od njih je šel skozi številne stopnje izpopolnjevanja in transformacije. Večino imen algoritmov Yandex sestavljajo imena mest. Vsak od njih ima svoje principe delovanja, točke interakcije in edinstvene funkcionalne značilnosti, ki se harmonično dopolnjujejo. Nadalje bomo razmislili, katere algoritme ima Yandex in kako vplivajo na spletna mesta.

Poleg informacij o iskalnih algoritmih, članek o . Predlagam, da preberete nasvete o ustvarjanju kakovostne SEO vsebine, primerne za iskalnike Google in Yandex.

Magadan

Algoritem Magadan prepozna okrajšave in identificira samostalnike z glagoli. Prvič je bil predstavljen v testnem načinu aprila 2008, druga stalna različica pa je bila izdana maja istega leta.

Posebnosti

"Magadan" uporabniku, ki je napisal okrajšavo, ponuja spletne strani in prepise. Na primer, če v iskalna vrstica vnesel zahtevo Ministrstva za notranje zadeve, potem bo seznam poleg spletnih mest s takšno ključno besedo vseboval tudi tiste, ki nimajo okrajšave, imajo pa dekodiranje "Ministrstvo za notranje zadeve". Prepoznavanje transkripcije je uporabnikom omogočilo, da ne razmišljajo, v katerem jeziku naj pravilno napišejo imena, na primer Mercedes ali Mercedes. Poleg vsega tega je Yandex na seznam indeksiranja vključil skoraj milijardo tujih spletnih mest. Prepoznavanje delov govora in njihovo prepoznavanje kot enakovrednih iskalnih poizvedb je omogočilo vključitev spletnih mest z različnimi ključnimi frazami v eno iskanje. Se pravi, zdaj se za ključno besedo »optimizacija spletne strani« med rezultati iskanja prikažejo tudi strani z besedno zvezo »optimiziraj spletno stran«.

rezultate

Po uvedbi algoritma Magadan je postalo težje, predvsem za mesta z nizko avtoriteto. Na lestvici so se položaji za ustrezne poizvedbe slabo obiskanih in mladih virov zmanjšali, avtoritativni, tudi z nizkokakovostno vsebino, pa so se premaknili na prva mesta, ob upoštevanju morfologije in redčenja ključnih besed. Zaradi vključitve transkripcije so tuji viri vstopili tudi na TOP Runeta. Se pravi, optimizirano besedilo na temo bi se lahko pojavilo na drugi strani, samo zato, ker domnevno obstaja bolj obiskana stran na isto temo ali podobna tuja stran. Zaradi tega se je močno povečala konkurenca za nizkofrekvenčne ključne besede in tuje fraze. Oglaševanje je postalo tudi dražje - stopnje so se povečale, ker so prej spletna mesta tekmovala le na eno posebno zahtevo, zdaj pa tekmujejo tudi s "kolegi" z morfološkimi besednimi zvezami, transkripcijo, besedami, ki se spremenijo v drug del govora.

Nahodka

Algoritem »Nakhodka« je razširjen tezaver in posebna pozornost na zaustavitvene besede. Izpuščen v ring takoj po Magadanu. Uvršča glavne rezultate iskanja od septembra 2008.

Posebnosti

To je inovativen pristop k strojnemu učenju – rangiranje je postalo jasnejše in pravilnejše. Na rezultate iskanja je močno vplival razširjeni slovar povezav in pozornost do stop besed v algoritmu Nakhodka. Na primer, zahteva »SEO optimizacija« je bila zdaj povezana s ključem »SEO optimizacija«, komercialna spletna mesta pa so bila razvodenela. informacijski portali, vključno z razširjenimi delčki z odgovori, so se pojavili na seznamu, Wikipedia pa je bila prikazana na poseben način.

rezultate

Komercialna spletna mesta so dala večji poudarek prodajnim poizvedbam, saj se je konkurenca večkrat povečala za informativne, nespecifične fraze. Po drugi strani pa so lahko informacijske platforme s sodelovanjem razširile svojo monetizacijo s priporočilnimi stranmi pridruženi programi. Najboljša informacijska spletna mesta, ki so jih spodbujala komercialna povpraševanja, so začela prodajati povezave po naročilu. Konkurenca je postala hujša.

Arzamas

Algoritem "Arzamas" - uvedena je bila leksikalna statistika iskalnih poizvedb in ustvarjena je bila geografska referenca spletnega mesta. Prva različica "Arzamas" (april 2009) brez geo-odvisnosti je bila objavljena takoj med glavnimi rezultati iskanja, "Arzamas 2" s klasifikatorjem za povezovanje mesta z regijo pa je bil objavljen avgusta 2009.

Posebnosti

Odstranitev povezave do homonimov je uporabniku olajšala življenje, saj je besedna zveza »ameriška pita« zdaj vrnila le strani s filmsko tematiko, brez kakršnih koli receptov za sladice, kot bi lahko bilo prej. Povezava z regijo je naredila preboj, saj je ključne besede z dodatkom mesta premaknila za več točk navzdol. Zdaj lahko uporabnik preprosto vnese besedo "restavracije" in med vodilnimi vidi samo mesta iz mesta, kjer se nahaja. Če se spomnite, bi prej morali vnesti bolj specifično besedno zvezo, na primer "Restavracije v Sankt Peterburgu", sicer bi Yandex lahko vrnil odgovor "navedite zahtevo - najdenih je bilo preveč možnosti." Geografsko neodvisne ključne besede so vrnile samo spletna mesta, ki ustrezajo zahtevi iz katere koli regije, brez sklicevanja.

rezultate

Hura! Končno so mesta iz majhnih regij prenehala tekmovati z velikimi mesti. Zdaj je veliko lažje doseči TOP v vaši regiji. V tem obdobju je bila na voljo storitev »regionalne promocije«. Algoritem Armazas je malim podjetjem omogočil hitrejši razvoj na svojem območju, a zanka je vseeno ostala. Yandex ni mogel določiti geolokacije vseh spletnih mest. In kot sami razumete, brez priloge so sredstva ostala, milo rečeno, na enem ne zelo prijetnem mestu. Obravnava vloge za geoodvisnost je lahko trajala več mesecev, mlada spletna mesta brez prometa in mase povezav (obstajala je omejitev za TIC) na splošno niso mogla vložiti zahteve za dodelitev regionalnosti. To je dvorezen meč.

Snežinsk

Algoritem Snezhinsk krepi geoodvisnost in pojasnjuje ustreznost poizvedb za rezultate iskanja z uporabo tehnologije strojnega učenja Matrixnet. Objava je potekala novembra 2009, izboljšani model pod imenom "Konakovo" pa je začel delovati decembra istega leta.

Posebnosti

Rezultati iskanja so postali natančnejši glede na vnesena vprašanja. Geolokacijska vezava zdaj igra posebno vlogo - komercialna spletna mesta niso bila povezana z regijami z algoritmom Snezhinsk, zato so izpadla iz rezultatov iskanja. Ključne besede, ki niso vezane na lokacijo, so identificirane z informacijskimi viri. Kompleksna arhitektura za izračun ustreznosti je močno zapletla življenje optimizatorjem, ki so opazili, da se z najmanjšo spremembo enega od indikatorjev položaj spletnega mesta v rezultatih iskanja takoj spremeni.

rezultate

Takrat je bilo ugotovljeno, da nakup Zunanje povezave na mladih straneh je bil vpliv na delovanje novih virov preveč počasen, če podoben nakup primerjamo s spletno stranjo, ki je že dolgo na internetnem trgu. Nove metode za ugotavljanje ustreznosti vsebine glede na iskalne poizvedbe so iz rezultatov iskanja odstranile strani, katerih besedila so bila prenasičena s ključnimi frazami. Začelo se je novo obdobje kakovostnega besedila, kjer je morala biti v vsem mera, brez katere bi lahko stran preprosto padla pod sankcije zaradi spama. Komercialni viri so začeli panikirati, saj je bilo skoraj nemogoče doseči TOP z uporabo geografsko neodvisnih ključnih besed (in so bile najfrekvenčnejše). V zvezi s tem je bil na blogu Yandex objavljen vnos, da bi v idealnem primeru radi videli na prvih straneh komercialne organizacije, ki ne pišejo lepo, ampak dobro opravljajo svoje delo, a za to bomo morali naučiti algoritme za ocenjevanje kakovosti ponujenih storitev. Od naprej ta trenutek to se je izkazalo za nemogočo nalogo; ugled komercialnih internetnih virov je igral ključno vlogo pri rezultatih iskanja, tako na spletu kot zunaj njega.

Obninsk

Algoritem “Obninsk” izboljša uvrstitev in razširi geografsko bazo internetnih strani ter zmanjša vpliv umetnih SEO povezav na delovanje strani. Lansirano septembra 2010.

Posebnosti

Priljubljenost nakupa povezovalnih mas pada in pojavlja se koncept »link eksplozije«, ki so se ga zdaj vsi bali. Konkurenti bi lahko škodovali drug drugemu z zavajanjem algoritma z nakupom ogromnega števila povezav iz "slabih virov" do svojih "kolegov". Po tem je tekmovalec izpadel iz rezultatov iskanja in dolgo ni mogel priti tja. Geoobčutljive besede se pogosteje dodajajo različnim stranem komercialnih spletnih mest, da bi pritegnili pozornost robota k delu s to regijo.

rezultate

Komercialna spletna mesta zdaj bolj skrbijo za svoj ugled, kar je dobra novica, vendar se mnogi še vedno zatekajo k umazanim metodam (umetno napihovanje prometa in kupovanje ocen). Po izdaji algoritma Obninsk je postalo nakupovanje bolj priljubljeno večne povezave in člankov, običajni nakup povezav ni več tako vplival na uvrstitev kot prej in če bi vir povratne povezave padel pod sankcije, bi to lahko povzročilo verižno reakcijo. Visokokakovostna SEO besedila so obvezen atribut katerega koli vira. Mlada stran z edinstveno in pravilno optimizirano vsebino bi lahko prišla na TOP.

Krasnodar

Algoritem "Krasnodar" - implementacija tehnologije "Spectrum" za redčenje rezultatov iskanja, razširitev izrezkov in indeksiranje družbenih omrežij. Predstavitev je potekala decembra 2010.

Posebnosti

Tehnologija "Spectrum" je bila ustvarjena za razvrščanje poizvedb v kategorije in je bila uporabljena v primerih, ko so bile vnesene nespecifične ključne fraze. "Krasnodar" je razredčil rezultate iskanja in uporabniku ponudil več različnih možnosti. Na primer, z besedno zvezo »fotografija Moskve« v iskanju je bilo mogoče videti ne le splošne krajine, ampak tudi fotografije po kategorijah, kot so »znamenitosti«, »zemljevidi«, »restavracije«. Poudarek je bil na unikatnih imenih nečesa (mesta, modeli, izdelki) – začele so izstopati specifike. Obogateni izrezki so omogočili takojšen prikaz stikov uporabnikov in drugih podatkov o organizaciji v rezultatih iskanja.

rezultate

Razvrstitev komercialnih mest se je močno spremenila, posebna pozornost je namenjena podrobnostim (karte izdelkov, ločitev kratkega opisa od splošnega). Socialno omrežje VK se je začelo indeksirati in profili udeležencev so zdaj enako vidni neposredno v rezultatih iskanja. Objave na forumih bi se lahko uvrstile na prvo mesto, če bi imele obširnejši odgovor na vprašanje uporabnika kot druga spletna mesta.

Reykjavik

Algoritem "Reykjavik" - ustvarjena je bila personalizacija rezultatov iskanja in dodane so bile tehnologije "čarovniki" za prikaz predhodnih rezultatov poizvedbe. Izboljšana formula namiga za vnos. Algoritem je bil predstavljen avgusta 2011.

Posebnosti

Moto prilagojenih rezultatov iskanja je "Vsak uporabnik ima svoje rezultate." Sistem za zapomnitev interesov iskalcev je deloval prek piškotkov, tako da, če so bile uporabnikove poizvedbe pogosteje povezane, na primer s tujimi viri, so bile naslednjič prikazane med voditelji rezultatov iskanja. Namigi v iskalni vrstici se posodabljajo vsako uro in s tem razširijo možnosti določenega iskanja. Konkurenca za visokofrekvenčne poizvedbe se neverjetno povečuje.

rezultate

Ugledna spletna mesta z novicami pogosteje dosežejo TOP zaradi svojega razširjenega semantičnega jedra (prisotnost velikega števila različnih nizkofrekvenčnih ključnih poizvedb). Povečanje števila strani za specifične iskalne poizvedbe na informacijskih spletnih mestih je začelo igrati pomembno vlogo po izdaji algoritma Reykvik. Vsako spletno mesto je poskušalo priti med zaznamke uporabnika, da bi postalo del sistema personalizacije; za to so bili uporabljeni načini naročanja na vir RSS in namigi v pojavnih pasicah za dodajanje spletnega mesta med zaznamke. Internetni viri so začeli posvečati več pozornosti individualnemu pristopu, namesto da bi pritiskali na množice.

Kaliningrad

Algoritem »Kaliningrad« je globalna personalizacija iskanja in iskalnega niza, ki se osredotoča na vedenjske dejavnike. Uvedba Kaliningrada decembra 2012 je znatno povečala stroške storitev SEO.

Posebnosti

Interesi uporabnika so celotne rezultate iskanja obrnili na glavo - lastniki spletnih mest, ki prej niso skrbeli za udobje obiskovalčevega bivanja na spletnem mestu, so začeli izgubljati promet z bliskovito hitrostjo. Zdaj je Yandex razdelil svoje interese na kratkoročne in dolgoročne, svoje vohunske baze podatkov pa posodablja enkrat na dan. To je pomenilo, da se lahko danes in jutri za isto zahtevo istemu uporabniku prikaže popolnoma drugačen rezultat. Interesi zdaj igrajo posebno vlogo za uporabnika, ki ga je prej zanimalo potovanje, ko vtipka besedno zvezo taksi - prikazane so taksi storitve, in za nekoga, ki nenehno gleda filme - bo v rezultatih iskanja prejel vse o komediji "Taksi". . V iskalni vrstici vsakega »lačnega iskanja informacij« so zdaj na prvih mestih prikazani nasveti o prejšnjih zanimanjih.

rezultate

Optimizatorji so začeli pokrivati ​​vedno več načinov zadrževanja uporabnika: izboljšala sta se uporabnost in dizajn, vsebine so bile ustvarjene bolj raznolike in kakovostnejše. Ob izhodu se lahko odprejo okna, kot je »Ali ste prepričani, da želite zapustiti stran«, uporabnika pa bi strmel žalosten obraz kakšnega bitja. Premišljeno povezovanje strani in vedno dostopen meni sta izboljšala kazalnike aktivnosti uporabnikov, kar je povečalo položaj strani v rezultatih iskanja. Spletna mesta, ki so bila širokemu krogu uporabnikov interneta nejasna, so bila najprej preprosto degradirana na položajih, nato pa na splošno obešena na koncu seznama predlaganih rezultatov.

Dublin

Dublinski algoritem – izboljšana personalizacija z identifikacijo trenutnih ciljev. Ta posodobljena različica "Kaliningrada" je bila izdana svetu maja 2013.

Posebnosti

Tehnologija vključuje funkcijo za sledenje spreminjajočim se interesom uporabnikov. To pomeni, da če obstajata dva popolnoma različna iskalna pogleda v določenem časovnem obdobju, bo algoritem izbral slednjega in ga vključil v rezultate iskanja.

rezultate

Pri spletnih straneh se ni spremenilo praktično nič. Boj se nadaljuje ne le za promet, ampak tudi za izboljšanje vedenjskih indikatorjev. Stare postavitve spletnih strani se začenjajo opuščati, saj je lažje narediti novo kot poskušati nekaj popraviti na starem. Ponudba storitev predlog spletnih mest se povečuje in začenja se tekmovanje za priročne in lepe postavitve spletnih virov.

otoki

Algoritem "Otoki" - tehnologija je bila uvedena za prikaz interaktivnih blokov v rezultatih iskanja, kar uporabniku omogoča neposredno interakcijo s spletnim mestom na iskalni strani Yandex. Algoritem je bil lansiran julija 2013 s predlogom spletnim skrbnikom, da aktivno podpirajo različico beta in uporabljajo predloge za ustvarjanje interaktivnih »otokov«. Tehnologija se trenutno testira za zaprtimi vrati.

Posebnosti

Zdaj, pri iskanju informacij, ki jih je mogoče najti takoj pri iskanju, so uporabniku na voljo "otoki" - obrazci in drugi elementi, s katerimi je mogoče delati, ne da bi obiskali spletno mesto. Na primer, iščete določen film ali restavracijo. Za film v iskanju in desno od njega se prikažejo bloki z naslovnico filma, njegovim naslovom, igralsko zasedbo, sporedi kinematografov v vašem mestu in obrazec za nakup vstopnic. Restavracija bo prikazala svojo fotografijo, naslov, telefonske številke in obrazec za rezervacijo mize.

rezultate

Pri razvrstitvi spletnih mest se sprva ni nič bistvenega spremenilo. Edina stvar, ki je postala opazna, je pojav spletnih virov z interaktivnimi bloki na prvem mestu in desno od rezultatov iskanja. Če bi bilo število spletnih mest, ki so sodelovala v beta testiranju, precejšnje, bi lahko zaradi privlačnosti in privlačnosti za uporabnike izpodrinila običajna spletna mesta. SEO-ji razmišljajo o izboljšanju vidnosti svoje vsebine v rezultatih iskanja z dodajanjem več fotografij, videoposnetkov, ocen in mnenj. Za spletne trgovine je življenje lepše - pravilno konfigurirane kartice izdelkov so lahko odličen interaktivni »otok«.

Minusinsk

Algoritem "Minusinsk" - pri identifikaciji SEO povezav kot takih, ki so bile kupljene za izkrivljanje rezultatov uvrstitve pri iskanju, je bil na spletno mesto uporabljen filter, ki je znatno pokvaril položaj spletnega mesta. "Minusinsk" je bil objavljen aprila 2015 in je v celoti stopil v veljavo maja istega leta. Prav s tem algoritmom je povezan slavni.

Posebnosti

Pred izdajo Minusinsk leta 2014 je Yandex onemogočil vpliv SEO povezav za številne komercialne ključe v Moskvi za testiranje in analiziral rezultate. Rezultat se je izkazal za predvidljivega - kupljena povezava se še vedno uporablja, vendar je za iskalnik neželena pošta. Izdaja »Minusinsk« je zaznamovala dan, ko so morali lastniki spletnih mest počistiti svoje profile povezav in porabiti proračun, porabljen za promocijo povezav, za izboljšanje kakovosti svojega internetnega vira.

rezultate

"Ugledna" spletna mesta, ki so dosegla TOP zaradi množičnega nakupa povezav, so odletela s prvih strani, nekatera pa so prejela sankcije zaradi kršenja pravil. Kakovostne in mlade strani, ki se ne zanašajo na povratne povezave, so se nenadoma znašle med TOP 10. »Ujete v distribucijo« spletne strani, ki niso želele dolgo čakati, so ustvarile nove strani, prenašale vsebino in zatikale stare oz. zvito šamaniziran s preusmeritvami. Po približno 3 mesecih smo našli luknjo v algoritmu, ki nam omogoča skoraj takojšnjo odstranitev tega filtra.

Uporabnost in vsebina se začneta množično izboljševati. Povezave so kupljene s še večjo skrbnostjo, nadzor nad povratnimi povezavami pa postane ena od funkcionalnih odgovornosti optimizatorja.

Po današnjih podatkih lahko ob neustreznem nakupu povezav dobite filter tudi za 100 povezav. Če pa je povezovalna masa pravilno razredčena, potem lahko varno kupite na tisoče povezav, tako kot v dobrih starih časih. To pomeni, da so proračuni povezav za to redčenje, ki so ga igrali gneča in omembe, močno narasli.

Vladivostok

Algoritem "Vladivostok" je uvod v iskalno tehnologijo preverjanja popolne združljivosti spletnega mesta z mobilnimi napravami. Popolni začetek projekta se je zgodil februarja 2016.

Posebnosti

Yandex je naredil še en korak k mobilnim uporabnikom. Algoritem Vladivostok je bil razvit posebej zanje. Zdaj za boljšo uvrstitev v mobilno iskanje Spletno mesto mora izpolnjevati zahteve mobilne dostopnosti. Če želite prehiteti svoje konkurente v rezultatih iskanja, mora biti internetni vir pravilno prikazan na kateri koli spletni napravi, vključno s tablicami in pametnimi telefoni. "Vladivostok" preveri odsotnost jave in vtičniki flash, prilagodljivost vsebine razširitvi zaslona (zmogljivost besedila po širini zaslona), enostavnost branja besedila in možnost udobnega klikanja na povezave in gumbe.

rezultate

Do uvedbe algoritma Vladivostok se je izkazalo, da je le 18 % spletnih mest prijaznih do mobilnih naprav – ostala so se morala hitro znebiti »težine« na straneh, ki niso bile prikazane ali so onemogočale pravilen prikaz vsebine na pametni telefoni in tablice. Glavni dejavnik, ki vpliva na uvrstitev spletne strani v rezultatih mobilnega iskanja, je vedenje mobilnega uporabnika. Vsaj za zdaj. Navsezadnje ni tako veliko popolnoma mobilnih prijaznih spletnih mest, torej prosta mesta pri iskanju so zasedeni tisti, ki lahko uporabniku zagotovijo najbolj udobne pogoje, četudi ne v celoti. Strani, ki niso prilagojene mobilnim napravam, niso izločene iz mobilnega iskanja, temveč so le uvrščene nižje od tistih, ki so dosegle najboljše rezultate pri izboljšanju kakovosti storitev za pametne uporabnike. Trenutno je najbolj priljubljena vrsta naročanja postavitev spletnih strani prilagodljiva, ne mobilna, kot bi kdo mislil. Spletna mesta, ki izpolnjujejo vse zahteve algoritma, prejmejo največje število mobilni promet v vaši niši.

Google: zgodovina nastanka in razvoja algoritmov

Rusko govoreči optimizatorji še vedno ne razumejo povsem Googlovih algoritmov in filtrov. Za Google je bilo vedno pomembno skrivati ​​podrobnosti o načinih razvrščanja z razlago, da se »spodobnim« spletnim mestom ni treba bati, »nepoštenim« pa je bolje, da ne vedo, kaj jih čaka. Zato se o Googlovih algoritmih še vedno pišejo legende in veliko informacij je bilo pridobljenih šele po vprašanjih za podporo, ko je spletno mesto padlo v rezultatih iskanja. Google je imel toliko manjših izboljšav, da jih ni bilo mogoče prešteti, na vprašanje, kaj točno se je spremenilo, pa je tuji PS preprosto molčal. Razmislimo o glavnih algoritmih, ki so pomembno vplivali na položaje spletnih mest.

Kofein

Algoritem "Kofein" - na prvi strani iskanja je lahko več strani istega mesta po znamki in obstaja možnost predogleda. Predstavitev je potekala junija 2010.

Posebnosti

Označevanje spletnih mest podjetij pri iskanju po znamki. V bližini izhodne vrstice se prikaže »povečevalno steklo« za predogled. Ključne besede blagovnih znamk zagotavljajo pozitiven trend rasti v položajih internetnega vira kot celote. Posodobljen je Page Rank indeks, povečan pa je PR na znanih in obiskanih straneh.

rezultate

SEO-ji so začeli posvečati več pozornosti blagovni znamki spletnega mesta, vključno z barvnimi shemami, logotipi in imeni. Ključne besede za blagovno znamko so poskrbele, da so strani spletnega mesta na poseben način izstopale pri iskanju, in ko je obiskovalec prešel s takšne fraze na glavno stran, se je njegov položaj v rezultatih iskanja povečal (če prej vir ni bil vodilni) . SEO optimizatorji so začeli kupovati več povezav za povečanje citatov. Mladim in malo prepoznavnim znamkam je bilo skoraj nemogoče prodreti med TOP iskalne zadetke.

Panda

Algoritem Panda je tehnologija za preverjanje kakovosti in uporabnosti vsebine na spletnem mestu, vključno s številnimi dejavniki SEO. Spletna mesta s »črnim« SEO so izključena iz iskanja. Panda je bila objavljena januarja 2012.

Posebnosti

"Panda" je šla iskat in jo očistila ostankov. To je točno to, kar lahko trdimo, potem ko so številna spletna mesta, ki niso bila pomembna za ključne poizvedbe, izginila iz Googlovih rezultatov. Algoritem je pozoren na: nezaželeno in neenakomerno uporabo ključnih besed, edinstvenost vsebine, doslednost objav in posodobitev, aktivnost uporabnikov in interakcijo s spletnim mestom. Pomikanje obiskovalca na dno strani s hitrostjo branja je veljalo za pozitiven dejavnik.

rezultate

Po vklopu Pande je ogromno strani podleglo sankcijam iskalnika. Googlovi sistemi in najprej so vsi mislili, da je to posledica sodelovanja v povezovalnih piramidah in nakupa povezovalnih mas. Posledično so SEO optimizatorji izvedli postopek testiranja algoritma in analizirali učinek. Zaključek poskusov je bil, da Panda še vedno preverja kakovost spletnega mesta glede vrednosti za obiskovalce. Internetni viri so prenehali kopirati in aktivno začeli pisati. Vedenjski dejavniki so bili izboljšani s preoblikovanjem strukture spletnega mesta v bolj priročne možnosti, povezovanje znotraj člankov z uporabo posebnih poudarkov pa je postalo pomemben del optimizacije. Priljubljenost SEO kot storitve je skokovito narasla. Opaziti je bilo, da so strani, ki niso bile v skladu s pravili Pande, zelo hitro izginile iz iskanja.

Postavitev strani (Paige Lyot)

Algoritem Page Lyot je tehnologija za boj proti iskalni neželeni vsebini, ki izračuna razmerje med uporabno in vsiljeno vsebino na spletnih straneh. Predstavljeno januarja 2012 in posodobljeno do vključno leta 2014.

Posebnosti

»Page Layout« je nastal po številnih pritožbah uporabnikov nad brezvestnimi lastniki strani, katerih strani so imele zelo malo relevantne vsebine ali pa so bili zahtevani podatki težko dostopni, včasih pa jih sploh ni bilo. Algoritem je izračunal odstotek ustrezne vsebine in neželene pošte na strani za dohodno zahtevo. Strani, ki niso izpolnjevale zahtev, so bile sankcionirane in stran je bila odstranjena iz iskanja. Neskladnost s pravili za objavo dokumentov je vključevala tudi glavo spletnega mesta, napolnjeno z oglaševanjem, pri ogledu besedila pa je bilo potrebno iti na drugi zaslon.

rezultate

Spletna mesta, ki so bila preveč nezaželena z oglaševanjem, so padla s svojih položajev, čeprav je bila vsebina na straneh zmerno optimizirana za ključne besede. Strani, ki niso bile ustrezne za poizvedbe, so bile znižane v rezultatih iskanja. Vendar ni bilo toliko spletnih mest, ki očitno niso upoštevala pravil in niso skrbela za udobje obiskovalcev. Po treh posodobitvah algoritma se je izkazalo, da približno število virov, ki so padli pod filter, ni večje od 3%.

(Benetke)

Algoritem »Benetke« georeferencira spletno mesto na določeno regijo, pri čemer upošteva prisotnost imen mest na straneh spletnega mesta. Lansirano februarja 2012.

Posebnosti

»Benetke« so od spletnih skrbnikov zahtevale, da imajo na svojih spletnih mestih stran »O nas« z navedbo naslova lokacije, ne da bi bili pozorni na dejstvo, da podjetje morda nima dejanske lokacije. V kontekstu je algoritem iskal imena mest, da bi prikazal ločeno stran za regijo, ki je v njej navedena. Oznaka schema-creator.org se je začela uporabljati za razlago iskalnemu robotu njegove geografske lokacije.

rezultate

Spletna mesta so se pojavila v rezultatih iskanja za tiste regije, ki jih niso omenili na svojih straneh, ne da bi upoštevali geografsko neodvisne poizvedbe. Optimizatorji aktivno vključujejo geografsko občutljive ključne besede in poskušajo ustvariti mikropodatke. Vsebina na vsaki strani je prilagojena za vsako posamezno mesto ali regijo kot celoto. Lokalizirana izgradnja povezav se je začela aktivno uporabljati za povečanje pozicij v izbrani regiji.

(Pingvin)

Algoritem Penguin je pametna tehnologija za določanje teže spletnih mest in kakovosti povratnih povezav. Sistem za urejanje napihnjenih indikatorjev avtoritete internetnih virov. Začetek iskanja aprila 2012.

Posebnosti

»Pingvin« je namenjen boju proti nakupu povratnih povezav, nenaravnega, torej umetnega, niza avtoritete spletnega mesta. Algoritem oblikuje svojo bazo pomembnih virov na podlagi kakovosti povratnih povezav. Motivacija za lansiranje Penguina je bil pojav optimizatorjev povezav, ko je imela vsaka povezava do spletnega vira enako težo in je takšno spletno stran dvignila med rezultati iskanja. Poleg tega so se običajni profili uporabnikov družbenih omrežij začeli uvrščati v iskanju enako kot standardni internetni viri, kar je še bolj populariziralo promocijo običajnih spletnih mest z uporabo socialnih signalov. Hkrati s temi zmožnostmi algoritma se je sistem začel boriti proti nepomembnim vstavljanjem iskalnih poizvedb v ključne besede in imena domen.

rezultate

Penguin je »spustil« številna spletna mesta v rezultatih iskanja zaradi nenaravne rasti povratnih povezav in nepomembnosti vsebine glede na zahteve uporabnikov. Pomen katalogov in spletnih mest za prodajo povezav se je hitro zmanjšal na minimum, medtem ko so avtoritativni viri (novice, tematska in skoraj tematska mesta) rasli pred našimi očmi. Zaradi uvedbe algoritma Penguin je bil PR za skoraj vsa javna mesta preračunan. Priljubljenost množičnega nakupovanja povratnih povezav je močno padla. Spletna mesta so začela ključne besedne zveze čim bolj prilagajati vsebini na straneh spletnega mesta. Začela se je »relevantna manija«. Namestitev socialnih gumbov na straneh v obliki modulov je bila zelo razširjena zaradi hitrega indeksiranja računov socialnih omrežij pri iskanju.

Pirat

Algoritem “Pirate” je tehnologija za odzivanje na pritožbe uporabnikov in prepoznavanje primerov kršitev avtorskih pravic. Sistem je bil uveden avgusta 2012.

Posebnosti

Pirat je sprejel pritožbe avtorjev o kršitvi njihovih avtorskih pravic s strani lastnikov spletnih mest. Poleg besedil in slik so največje breme napadov prevzele strani z video vsebinami, ki so gostile piratske posnetke filmov iz kinematografov. Opisi in ocene videoposnetkov so bili tudi predmet filtriranja - zdaj ni bilo dovoljeno kopirati in prilepiti pod strahom sankcij. Zaradi velikega števila pritožb zoper spletno stran zaradi kršitev je bila taka stran izločena iz rezultatov iskanja.

rezultate

Na podlagi rezultatov prvega meseca delovanja Googlovega Pirata je bilo več milijonov video datotek, ki so kršile pravice imetnikov avtorskih pravic, blokiranih za ogled na skoraj vseh spletnih mestih, vključno s spletnimi mesti za gostovanje videa in spletnimi kinematografi. Spletne strani s samo piratsko vsebino so bile sankcionirane in izločene iz iskanj. Množično čiščenje "ukradene" vsebine še vedno poteka.

Kolibri

Algoritem "Hummingbird" je uvedba tehnologije za razumevanje uporabnika, ko se poizvedbe ne ujemajo z natančnimi vnosi. Septembra 2013 je bil uveden sistem za »prepoznavanje natančnih želja«.

Posebnosti

Zdaj uporabnik ni spremenil fraze, da bi natančneje našel informacije, ki jih potrebuje. Algoritem "Hummingbird" je omogočil, da ni bilo iskanja po neposrednih natančnih pojavitvah, ampak je vrnil rezultate iz baze "dešifriranja želja". Na primer, uporabnik je v iskalno vrstico vnesel besedno zvezo »mesta za sprostitev« in »Kolibri« je v iskanju uvrstil mesta s podatki o sanatorijih, hotelih, spa centrih, bazenih in klubih. To pomeni, da je algoritem združil standardno bazo podatkov s človeškimi stavki o njihovem opisu. Sistem razumevanja je bistveno spremenil rezultate iskanja.

rezultate

S pomočjo tehnologije Hummingbird je SEO optimizatorjem uspelo razširiti svoje semantično jedro in zaradi morfoloških ključev na spletno stran pridobiti več uporabnikov. Pojasnjeno je bilo razvrščanje spletnih mest, saj se zdaj ne upoštevajo samo pojavnosti neposrednih ključnih fraz in besedilno relevantnih poizvedb, temveč tudi aktualne želje uporabnikov. Pojavil se je koncept pisanja besedil LSI - pisanje besedila, ki upošteva latentno semantično indeksiranje. To pomeni, da so bili zdaj članki napisani ne samo z vstavkom ključne besede, pa tudi čim več vključevanja sinonimov in bližnjih tematskih fraz.

(Golob)

Algoritem “Dove” je sistem za lokalizacijo uporabnikov in povezovanje rezultatov iskanja z njihovo lokacijo. Tehnologija je bila predstavljena julija 2014.

Posebnosti

Lokacija uporabnika je zdaj igrala ključno vlogo pri zagotavljanju rezultatov. Organsko iskanje je postalo vse o geolokaciji. Posebno vlogo je imelo povezovanje spletnih mest z Google zemljevidi. Zdaj, ko uporabnik zahteva, algoritem najprej poišče spletna mesta, ki so najbližje lokaciji ali ciljni vsebini, nato pa se odmakne od obiskovalca. Organski rezultati iskanja so se bistveno spremenili.

rezultate

Lokalna spletna mesta so se hitro dvignila na lestvici iskanja in prejela lokalni promet. Internetne platforme brez geoodvisnosti so nazadovale. Ponovno se je začel boj za posamezno mesto in število situacij se je povečalo, ko so se začela pojavljati enaka spletna mesta z redigirano vsebino in povezavami na različna področja. Preden so prejeli točne informacije o izvajanju algoritma »Dove« pri iskanju po internetu v ruskem jeziku, so številni spletni skrbniki mislili, da so pod sankcijami Penguin.

(prijazen do mobilnih naprav)

Mobile-Friendly algoritem je implementacija tehnologije za preverjanje prilagodljivosti spletnih mest mobilnim napravam. Sistem je bil predstavljen aprila 2015 in se je na spletu uspel "poimenovati" kot: "Mobilni armagedon" (mobilegeddon), "Mobilna apokalipsa" (mobilepocalyse, mobocalypse, mopocalypse).

Posebnosti

Prijazno do mobilnih naprav je začelo novo dobo za mobilne uporabnike in priporočilo, da SEO-ji nujno zagotovijo udobno izkušnjo za mobilne obiskovalce na svojih spletnih mestih. Prilagodljivost spletnih mest mobilnim napravam je postala eden najpomembnejših pokazateljev, koliko lastnikom spletnih strani ni vseeno za njihove obiskovalce. Neodzivne spletne platforme so morale hitro odpraviti pomanjkljivosti: znebiti se vtičnikov, ki niso podprti na tablicah in pametnih telefonih, prilagoditi velikost besedila glede na širitev različnih zaslonov, odstraniti module, ki obiskovalcem z majhnim zaslonom preprečujejo premikanje po spletnem mestu. . Nekdo je pravkar ustvaril ločeno mobilna različica vaš internetni vir.

rezultate

Sredstva, ki so bila vnaprej pripravljena na tak obrat, so med drugimi spletnimi stranmi v rezultatih iskanja prejela poseben poudarek, promet z različnih nenamiznih naprav na takšna spletna mesta pa se je povečal za več kot 25 %. Povsem neodzivna spletna mesta so bila znižana v mobilnem iskanju. Poudarek na mobilnosti je igral vlogo - prisotnost težkih skriptov v virih je bila zmanjšana, oglaševanje in strani so se seveda začeli nalagati hitreje, glede na to, da večina uporabnikov s tablicami/pametnimi telefoni uporablja Mobilni internet, ki je nekajkrat počasnejša od standardne.

Povzetek

To je vse

Zdaj veste, kako se je iskanje razvijalo v preteklih letih, tako za običajne uporabnike kot za spletna mesta, ki so zadela in zgrešila. Vsak od zgornjih iskalnih algoritmov se redno posodablja. A to ne pomeni, da bi se morali optimizatorji in spletni skrbniki česa bati (razen seveda, če uporabljate black hat SEO), vendar je vseeno vredno biti pozoren, da ne bi nepričakovano padli v iskanju zaradi naslednjega nov filter.

Skupaj

Uvod

Googlovi algoritmi, osnova iskalnika Google. Google, ki sta ga ustvarila Larry Page in Sergey Brin, zdaj lahko išče dokumente v dvesto jezikih in obdeluje podatke v osnovnih formatih ( Microsoft Word, PDF, Excel itd.). V tem članku se bomo spomnili glavnih stopenj razvoja Googlovih algoritmov, ustvarjenih za uvrščanje spletnih strani v rezultatih iskanja Google.

Google algoritmi: zgodovina razvoja

1998. Letos je bil ustanovljen iskalnik Google. Hkrati je nastal PR, katerega algoritem je temeljil na prenosu referenčne mase in je imel dva glavna parametra.

  1. kako večja količina povezave, ki vodijo do določene strani, višja je stopnja Page Rank in mesto v rezultatih iskanja.
  2. Višji kot je Page Rank povezovalnih spletnih strani, večja je masa, ki jo prenesejo povezave.

Uradni ustvarjalec PR je Larry Page, lastnik patenta za ta izum pa Univerza Stanford.

Zanimivo dejstvo je, da veliko ljudi verjame, da se Page Rank prevaja kot »razvrstitev strani«. Pravzaprav se ta besedna zveza prevede kot »Page rank«; ustvarjalec izuma ji je dal svoje ime. Kasneje so številni iskalniki sprejeli idejo Page Rank kot osnovo in razvili lastne analoge orodja.

Začetek stoletja

letnik 2000. Podjetje Googleširši javnosti predstavlja novost - algoritem imenovan Hilltop, ki vam omogoča najbolj natančen izračun stopnje PR. Ta algoritem bere geografijo in stopnjo novosti dokumenta. Po tem začne Google obveščati spletne skrbnike, naj ne puščajo povezav na sumljivih spletnih mestih in »odlagališčih povezav«.

letnik 2001. Google letos registrira patent za Algoritem na vrhu hriba. Na tej točki iskalnik loči rezultate iskanja za nekomercialne in komercialne poizvedbe.

2003. 15. 11. 2013 se lansira nov algoritem Florida, ki strani, katerih vsebina je prenasičena s ključnimi frazami in besedami, odstrani iz rezultatov iskanja ali zniža uvrstitev. Tega dne so strokovnjaki za SEO ugotovili, da novi algoritem iskalnika znižuje uvrstitev strani iz naslednjih razlogov:

  • needinstvena ali malo edinstvena vsebina;
  • visoka vsebnost ključnih besed v naslovih in besedilih;
  • nenaravne povezave (kupljene).

2005 letnik. Googlovi strokovnjaki prvič poskušajo prilagoditi rezultate iskanja tako, da kot osnovo postavijo prejšnje poizvedbe določenega uporabnika.

2006. Podjetje lansira izboljšan algoritem, ki temelji na algoritmu, imenovanem Orion- zamisel študenta iz Izraela. Iskalnik lahko zdaj najde spletne strani, ki se ujemajo s temo poizvedbe, ki ne vsebuje ključnih besed.

Od te točke naprej začne Google »razjasnjevati« uporabnikove poizvedbe in ponuja možnosti, ki se najpogosteje iščejo z določeno besedo. Na primer, uporabnik v iskalno vrstico vnese besedo "krog". Sistem mu ponuja možnosti poizvedbe, kot so "krog pesmi", "krog za kopanje novorojenčkov" itd.

2007. Letošnje leto je v znamenju lansiranja novega Austinov algoritem. Novi izdelek lahko upošteva stopnjo zaupanja določenega spletnega vira in nižje vire z nižjo oceno zaupanja v rezultatih iskanja. Tako spletna mesta, ki si niso imela časa pridobiti zaupanja.

Novo za 2009

letnik 2009. Googlovi razvijalci uvajajo novo funkcijo v iskalnik. Kofeinski algoritem. Googlovi pretekli algoritmi ne ustrezajo več povečani proizvodni zmogljivosti. Zahvaljujoč temu začne iskalnik veliko pogosteje indeksirati spletna mesta.

Oblikovanje strani z rezultati iskanja se večkrat pospeši. Kofein ni močno vplival na formulo za izračun relevantnosti, vendar so bile opazne naslednje spremembe:

Neprekinjeno indeksiranje celotnega prostora svetovni splet omogočilo, da so rezultati iskanja v Googlu postali veliko bolj dinamični in se čez dan spreminjali.

Drugo desetletje našega stoletja

2011. Strokovnjaki Googlovim algoritmom dodajajo svoje "smeti". to lansiranje algoritma, imenovanega Panda– prvi resen čistilec iskalnikov. Novi algoritem »očisti« rezultate iskanja s »slabih« spletnih mest:

  • sateliti,
  • vrata,
  • strani, katerih vsebina je sestavljena samo iz oglasov in povezav,
  • strani z nizko edinstvenostjo vsebine.

Ustvarjalca izboljšanega algoritma, Matt Kats in Amit Singal, ugotavljata, da njihova nova stvaritev upošteva naslednje točke:

  • Odstotni indikator edinstvenosti vsebine določene strani in na viru kot celoti;
  • Raven vsebine predloge, to je podobnost besedil, napisanih za različne ključne besede;
  • Prisotnost slogovnih, slovničnih in črkovalnih napak;
  • Ustreznost oglaševanja, predstavljenega na viru, glede na temo objavljenih besedil
  • Skladnost vsebine oznak in meta oznak spletne strani z njeno vsebino;
  • Stopnja nasičenosti objavljenih besedil s ključnimi besedami;
  • Raven kakovosti odhodnih in dohodnih povezav;
  • Dejanja uporabnikov interneta (trajanje obiska spletnega mesta, število ogledanih spletnih strani, število zavrnitev in vrnitev na vir).

Danes lahko z gotovostjo ugotovimo, da skoraj vsi sodobni iskalniki upoštevajo te dejavnike, še posebej vedenjske. Bolj ko je vsebina spletnega mesta zanimiva za uporabnika interneta, več časa bo porabil za ta vir. Višje bo spletno mesto uvrščeno na strani z rezultati iskanja.

Calibri

leto 2013. Oktobra so bili Googlovi algoritmi dopolnjeni z najnovejšimi Algoritem Hummingbird – Kolibri. Inovacija tega algoritma je, da je sposoben razumeti tudi skriti pomen poizvedb. Če na primer vnesete »kupi nekaj v bližini doma« Hummingbird on met, to pomeni trgovine brez povezave.

In med spletnimi trgovinami bo izbral samo tiste, katerih spletne strani ponujajo najbolj podrobne informacije o pogojih dostave in njihovih prednostih. Poleg tega ima algoritem Hummingbird raje dolge, podrobne poizvedbe. Toda hkrati se rezultati za tiste poizvedbe, za katere Google ne more "fantazirati", niso spremenili.

In še ena pomembna točka– neunikatna, nizko unikatna in generirana vsebina ne deluje več.

Na koncu je treba omeniti, da je ruski Google ena najprimernejših možnosti za delovanje iskalnika.

V Rusiji Google ne uporablja večine svojih "kaznovalnih" sankcij. Zahvaljujoč temu je promocija spletne strani za ta sistem v Rusiji veliko lažja kot za druge iskalnike.

Pingvin in Panda, kaj je naslednje?

4.10. 2013 je bil izdan algoritem Penguin 2.1

Iskalnik Google je tako kot doslej pozoren na sumljiva spletna mesta in sidrne sezname. Ta posodobitev algoritma je vplivala na spletna mesta, ki jih je algoritem predhodno sankcioniral. Prizadeti 1 % zahtevkov.

19.05. Izdana je bila posodobitev Panda 4.0 iz leta 2014

Najresnejša posodobitev tega iskalnega algoritma. Prizadeti 7,5 % iskalnih poizvedb.

24.08. 2014, algoritem Dove

Algoritem je bil pozoren na geografsko odvisne poizvedbe. Zdaj, ko prejme geografsko odvisno zahtevo, iskalnik Google uporabniku ponudi najbolj informativne lokalne rezultate iskanja.

Ste se kdaj vprašali, kako deluje Googlova tehnologija? Seveda proces SERP vključuje kompleksen algoritem, ki temelji na številnih spremenljivkah. Ampak še vedno lahko s preprostimi besedami pojasni princip delovanja najbolj priljubljenega iskalnika na svetu?

Če želite razumeti globino najbolj zapletenega algoritma iskalnika, si oglejte to izjemno uporabno infografiko Quicksprouta.

Googlovi vseprisotni iskalni pajki lezejo na določene spletne strani in nato sledijo povezavam s teh strani. Ta pristop pajkanja po omrežju omogoča Googlu indeksiranje več kot 100 milijonov gigabajtov informacij.

Da bi uporabniki prejeli boljše rezultate iskanja, Google nenehno ustvarja in izboljšuje programe. Tukaj je kratek seznam glavnih področij, na katerih poteka delo:

  • preverjanje črkovanja;
  • samodokončanje;
  • iskanje po sinonimih;
  • splošno razumevanje poizvedb;
  • živ Google iskanje;
  • iskalni vzorci.

  • Kolikokrat se ključni izraz pojavi na strani?
  • pojav ključne besede v naslovu ali URL-ju?
  • ali stran vsebuje sinonime za ključni izraz?
  • Kaj je Google PageRank strani?

Vse to se zgodi v ⅛ sekund.

Tako imenovani Mreža znanja(knowledge graph) je tehnologija, ki daje rezultate na podlagi globalne podatkovne baze resničnih ljudi, krajev in povezav med njimi. Na primer: poleg suhih dejstev o biografiji Leva Tolstoja boste prejeli največ zanimive vsebine (besedilo/fotografija/video), povezane s to osebnostjo.

Delčki prav tako dodajajo udobje rezultatom iskanja – majhni delčki informacij, ki vam omogočajo, da hitro in brez sledenja povezavi razumete, ali se stran ujema z vašo zahtevo.

Druga Googlova orodja za lažje iskanje:

Tukaj ni komentarjev. Preprosto kliknite ikono mikrofona in povejte iskalniku, kaj želite najti. Vendar bodite previdni - lahko odgovori. :)

2. Slike

Prikaže sličice na podlagi rezultatov iskanja.

Iskanje Google vam omogoča, da postavite specifična vprašanja in dobite hitre odgovore.

Google ima v lasti tudi drugi najbolj priljubljen iskalnik na svetu, ki ga vsi zelo dobro poznate:

Zaključek

Kaj je naredilo Google tako uspešen? iskalnik? Kljub številnim zapletenim procesom, ki se zgodijo neopazno za uporabnika, je Google preprost in priročen iskalnik z vidika uporabnosti. Ne glede na vprašanje, ki ga postavite, bo zagotovilo ustrezne rezultate iskanja v 1/8 sekunde.

Izdali smo novo knjigo Vsebinski marketing v v socialnih omrežjih: Kako vstopiti v glave vaših naročnikov in jih vzljubiti v vašo blagovno znamko.«

IN Zadnja leta rezultati iskanja so se dramatično spremenili v primerjavi z zgodnjimi in sredino 2000-ih. Lepo je videti nove spremembe, namenjene povečanju udobja uporabnika. In da bi v celoti ocenili, koliko dela je bilo opravljenega na iskalniku, smo se odločili zbrati 34 ključnih dogodkov v zgodovini razvoja Googla.

Daljna preteklost

marec 1998. Google je uspešno začel z Larryjem Pageom in Sergeyem Brinom. Istočasno je bil izdan prvi algoritem za razvrščanje spletnih strani, imenovan PageRank.
PageRank je vrednost, ki ustreza pomembnosti strani. Izračuni so precej preprosti: več povezav vodi do strani, višji je njen PageRank. Pomembno je vedeti, da je teža, ki jo prenese donatorska stran, neposredno odvisna od povezav do samega donatorja. Mimogrede, PageRank je algoritem, ki deluje že skoraj 20 let, čeprav v zelo spremenjeni obliki.

  • letnik 2000. Zagon Google Toolbar, aplikacije, ki je orodna vrstica za delo z iskalnikom. Približno v tem času so se začeli prvi pogovori o SEO.
  • december 2000 - Vrh hriba. To je neke vrste dodatek PageRank-u. Bistvo je, da so povezave s spletnih mest, ki so pomembna za to temo, znatno povečale težo.
  • letnik 2001. Google je začel ločevati rezultate iskanja na komercialne in nekomercialne poizvedbe.
  • februar 2003 - Boston. Posodobitev je poimenovana po mestu, v katerem je potekala konferenca. Glavna sprememba: uvedene so bile mesečne posodobitve iskalne baze.
  • April 2003 - Cassandra. Algoritem, ki je prvi pretresel optimizatorje, ker so začeli kaznovati za uporabo skrita besedila in povezave. Od tega trenutka naprej je SEO z Googlovega vidika začel postajati črn.
  • Maj 2003 - Dominik. Od tistega trenutka dalje je Google začel drugače ocenjevati povratne povezave do strani. Po Dominicu sta se prvič pojavila robota Freshbot in Deepcrawler.
  • junij 2003 - Esmeralda. Samo zadnja mesečna posodobitev SERP. Ob izidu Esmeralde ni bilo opaziti večjih sprememb.
  • julij 2003 - Fritz. Glavna sprememba: od izdaje Fritza se je Google začel dnevno posodabljati!
  • november 2003 - Florida. Ena izmed zelo pomembnih posodobitev, saj je bil po Floridi precejšen del "brutalno" optimiziranih strani pesimističnih. Florida je zadala udarec virom, ki so prenasičeni s ključnimi besedami, ukradeno vsebino in kupljenimi profili povezav. Od konca leta 2003 se je SEO spremenil in postal zahtevnejši.
  • Januar 2004 - Austin. Austin Update prihaja na pomoč Floridi. Bistvo posodobitve je zaostrovanje boja proti nezaželeni in nevidnim besedilom. Zahteva po ustreznosti besedila se povečuje.
  • februar 2004 - Žganje. Google se je začel odzivati ​​na sinonime ključnih besed. Optimizirana besedila so postala bolj raznolika, kar nedvomno izboljša rezultate iskanja. Povečala se je pozornost tematskim vsebinam sidrnega besedila. Analiza ključnih besed se je spremenila.

Čas je za spremembo

  • februar 2005 - Allegra. Spremembe, ki jih prinaša Allegra, so skrivnost zgodovine. Predlagane spremembe: ločena kazen za kupljene povezave. SEO še naprej postaja črn.
  • Maj 2005 - Bourbon. Bourbon je začel uvajati sankcije za spletna mesta s podvojeno vsebino, kar jim je znižalo uvrstitev.
  • september 2005 -Gilligan. Gilligan večjih sprememb, vsaj opaznih ne, ni naredil. Vendar ga je treba omeniti zaradi zgodovinske reference - omenil sem ga.
  • oktober 2005 - Google zemljevidi+ lokalno. Posodobitve, katerih namen je spodbuditi podjetnike k posodobitvi svojih Kontaktni podatki na zemljevidih.
  • oktober 2005 - Jagger. Nadaljeval boj proti manipulaciji povezav. Zdaj so bile Googlove tarče farme povezav, spletna mesta, ki so si izmenjevala povratne povezave iz dobrega srca, in spet je algoritem tekel skozi dvomljiv profil povezav.
  • december 2005 - Big Daddy. Google je predlagal uporabo kanonikalizacije, to je izbiro najprimernejše strani izmed možnih dvojnikov. Uporabite preusmeritve 301 in 302. To so vse pomembne spremembe.
  • november 2006 - Dodatno kazalo. Razširitev Googlovih zmogljivosti. Iskalnik je začel obdelovati več dokumentov. Iz nekega razloga so bile letos opaziti resne spremembe na položajih spletnih mest.
  • junij 2007 - Buffy. Manjše posodobitve, ki niso vredne vaše pozornosti. In niti kančka vampirjev.
  • april 2008 - Dewey. Videti je bilo kot potres, zamajalo položaje in to je to. Nihče ni razumel zakaj.
  • Avgust 2008 - Google Suggest. Zdaj je Google začel prikazovati spustni meni nasveti za iskanje pri vnosu poizvedbe v iskalno vrstico.
  • februar 2009 - Vince. Po besedah ​​Matta Cutsa se ni zgodilo nič posebnega. Toda radovedni optimizatorji so prišli do zaključka, da viri glavne blagovne znamke pridobil močno prednost.
  • Avgust 2009 - Predogled kofeina. Google je optimizatorje prijazno obvestil o pomembnih spremembah v strukturi iskanja, zaradi česar se bodo dokumenti odslej veliko hitreje indeksirali. Istega leta se je izdaja začela posodabljati v realnem času.
  • Maj 2010 - Moj dan. Ta posodobitev je zmanjšala količino prometa zaradi podrobnih poizvedb.
  • Junij 2010 - Kofein. Prej napovedani kofein je bil izdan. Algoritem je omogočil hitrejše indeksiranje več strani. Zdaj novi dokumenti hitreje pridejo v indeks.

Google Posodobitve: danes

  • 23. februar 2011 - . Na dan branilcev domovine je bil izdan algoritem Panda, nekakšen zaščitnik rezultatov iskanja pred smeti s poudarkom na notranjih dejavnikih. Panda je obsežen, znan in senzacionalen algoritem, ki je bil večkrat deležen različnih nadgradenj. Oslabel je, nato pa se okrepil. Glavna naloga je odstraniti iz rezultatov iskanja vsa "nizkokakovostna spletna mesta", kot so vrata in spletna mesta, ustvarjena izključno za oglaševanje, in pustiti najbolj vredna.
  • 3. januar 2012 - Postavitev strani. Dodatek za Pando, ki analizira enostavnost pregledovanja dokumentov. Cilj je znebiti se vsiljivega oglaševanja, ki zaseda večino uporabnikovega zaslona.
  • februar 2012 - Benetke. Posodobitev, ki zdaj upošteva regionalno lokacijo uporabnika. Cilj je prikazati strani, ki so uporabniku najbližje.
  • 24. april 2012 - Pingvin. Drugi senzacionalni algoritem. Cilj je enak kot pri Pandi, le da je poudarek na zunanjih dejavnikih. Prevzel sem nadzor nad vsem, kar je povezano s profilom povezav vira. Kaznuje spletna mesta tako, da zniža celotno spletno mesto v rezultatih iskanja ali ga v celoti izbriše.
  • september 2012 -Domena natančnega ujemanja (EMD). Redek, a potreben filter. Ideja je znižati nizkokakovostna spletna mesta, ki so optimizirana za eno samo zahtevo, ki je domena. Na primer, spletno mesto kupi-kartoshku.ru, kjer je vsaka stran optimizirana za zahtevo "kupi krompir", je zelo verjetno, da spada pod ta filter.
  • avgust 2013 - Kolibri. Kompleksni algoritem. Naloga Kolibrija je prepoznati pomen v zapletenih večbesednih poizvedbah in izbrati najbolj relevantne dokumente. Dejavniki lahko vključujejo: skriti pomen zahteve, dizajn, vašo lokacijo itd.
  • Avgust 2014 - Golob. Nadaljevanje teme ptic, Dove želi predstaviti podjetja (mesta), ki se nahajajo najbližje vam v rezultatih iskanja na podlagi geografskih poizvedb. Na primer, če želite naročiti kitajske rezance, vam bo Dove našel najbližjo restavracijo, ki lahko zadovolji vaše potrebe. Tudi avgusta 2014 je bilo objavljeno, da je Google rahlo izboljšal uvrstitev spletnih mest, ki uporabljajo varen protokol, kot je https.
  • 21. april 2015 - Prijazno do mobilnih naprav. Algoritem, ki daje prednost posameznim zaslonom prilagojenim spletnim stranem mobilne naprave. Ne zahteva skaliranja ali vodoravnega drsenja. Z eno besedo, priročno za branje iz telefona/tablice. Lahko preverite v Google Webmaster.

Se nadaljuje…

V zadnjih 5 letih so Googlovi algoritmi doživeli veliko sprememb. Stopnja težavnosti pri ravnanju z rezultati iskanja se giblje med »zelo težko« in »nemogoče«. Zato ostane samo odgovoren optimizer. Google je večkrat omenil, da vsebina ostaja najpomembnejši dejavnik razvrščanja in vedno bo. Izkazalo se je, da je najboljši izhod iz te situacije tematski promet in promocija z zelo kakovostnimi povezavami. Veseli me, da v tem času optimiziram. Prepričan sem, da nas v letu 2016 čaka veliko novih presenečenj.