Kibernetski (abecedni) pristop k merjenju informacij. Kibernetski (abecedni) pristop k merjenju informacij 2 loteriji potekata 4 od 32

povzetek drugih predstavitev

“Abecedni pristop k merjenju informacij” - Merske enote informacij. Informacijski obseg sporočila. Oblikovanje rešitve problema št. 3. Informacijski obseg besedila. Število možnih informativnih sporočil. Količina informacij v sporočilu. Enote. Prevesti. N abecede ruskih črk je enako 32. Formulacija rešitve problema št. 2. Oblikovanje rešitve problema. Abeceda. Količina informacij. 32-mestna abeceda. Besedilni simbol. Število znakov v abecedi znakovnega sistema.

"Formule Hartley in Shannon" - Formula Hartley. številka. Dogodek. Hartleyjeve in Shannonove formule. Žaljivo. Hartley. Količina informacij. Naloga. Ameriški inženir Hartley. Ameriški znanstvenik Claude Shannon. Hartleyjeva formula: I=log2N, kjer je I količina informacije, N je število. Shannonova formula. Primeri enako verjetnih sporočil. Pisanje Shannonove formule. rešitev.

“Vsebinski pristop k merjenju informacij” - Vsebinski pristop. Primer. Merilne informacije. Kako meriti informacije. Pikov kralj je bil vzet iz kompleta kart. Informativna vsebina sporočila. Merska enota informacije. Koliko informacij vsebuje sporočilo? Formula za izračun količine informacij. Ena od celic je prebarvana. Sporočilo o manjkajočem robu s številko 3. Na knjižni polici je osem polic.

"Količina informacij v računalništvu" - Naloge. Kontrolna vprašanja. Šolska knjižnica ima 16 knjižnih polic. Sporočilo o rezultatu žrebanja. Vsak znak je kodiran kot en bajt. Določanje količine informacij. Vsebinski pristop. Pretvarjanje merskih enot. Informacije za ljudi. Reši naloge v zvezku. Abecedni pristop. Šahovnica je sestavljena iz 64 polj. Samostojno delo.

“Pristopi k merjenju informacij” - Zanesljivi in ​​nemogoči dogodki. Vsebina. Drug način za merjenje količine informacij. Sporočilo obsega 3 strani po 25 vrstic. Naredimo tabelo iz prejšnjih primerov. Abeceda. Enako verjetni dogodki. Negotovost znanja. Med trimesečjem je dijak prejel 100 točk. Strategija ugibanja številk. Kaj preučuje koloidna kemija? Število možnosti za prikaz ene od 6 strani. Kako izmeriti količino informacij.

"Količinska enota informacije" - Merilo za zmanjšanje negotovosti znanja. Informacijska zmogljivost znaka. Primeri informativnih sporočil. Informacijska zmogljivost znaka binarnega znakovnega sistema. Količina informacij. Abecedni pristop. Formula. Izpeljane enote. bit. Število možnih informativnih sporočil. Informacije so kodirane. Vrsta enačbe. Prejeto sporočilo. Število znakov. Obvestilo. Določanje količine informacij.

Preučevana vprašanja:

ª Kaj je abeceda, moč abecede.

ª Kakšna je informacijska teža simbola v abecedi.

ª Kako izmeriti količino informacij v besedilu z abecednega vidika.

ª Kaj je bajt, kilobajt, megabajt, gigabajt.

ª Hitrost pretoka informacij in zmogljivost kanala.

Pristop k merjenju informacij, obravnavan v tej temi, je alternativa vsebinskemu pristopu, o katerem smo govorili prej. Tu govorimo o merjenju količine informacij v besedilu (simboličnem sporočilu), sestavljenem iz znakov neke abecede. Ta mera informacij nima nobene zveze z vsebino besedila. Zato lahko ta pristop imenujemo objektiven, tj. neodvisno od subjekta, ki ga zaznava.

Abecedni pristop je edina pot meritve informacij, ki jih je mogoče uporabiti za informacije, ki krožijo v informacijski tehnologiji, v računalnikih.

Ključni koncept v tej temi je abeceda. Abeceda je končen niz simbolov, ki se uporabljajo za predstavitev informacij.Število znakov v abecedi se imenuje moč abecede(izraz je vzet iz matematične teorije množic). V glavni vsebini osnovni tečaj abecedni pristop obravnavamo samo z vidika enako verjeten približek. To pomeni, da se lahko domneva, da je verjetnost pojavljanja vseh znakov abecede na katerem koli mestu v besedilu enaka. Seveda to ne ustreza realnosti in je poenostavljena predpostavka.

V obravnavanem približku se količina informacije, ki jo nosi vsak znak (i) v besedilu, izračuna iz Hartleyjeve enačbe: 2 i = N, kjer je N potenca abecede. Vrednost i lahko imenujemo informacijska teža simbola. Iz tega sledi, da je količina informacij v celotnem besedilu (i), sestavljena iz TO simbolov je enak zmnožku informacijske teže simbola s K: Jaz= i´ TO. To vrednost lahko imenujemo informacijski obseg besedila. Ta pristop k merjenju informacij se imenuje tudi volumetrični pristop.

Koristno je, da se z učenci pogovorite o naslednjem vprašanju: kakšna je najmanjša moč abecede, s katero je mogoče zapisati (kodirati) informacije? To vprašanje je neposredno povezano z nalogo št. 3 k § 3 učbenika, ki se glasi takole: "Dokažite, da na podlagi abecednega pristopa sporočilo katere koli dolžine, ki uporablja enomestno abecedo, vsebuje nič informacij."

Predpostavimo, da je uporabljena abeceda sestavljena iz samo enega znaka, na primer "1". Intuitivno je nemogoče karkoli sporočiti z uporabo enega samega simbola. Toda to je dokazano strogo z vidika abecednega pristopa. Informacijsko težo simbola v taki abecedi dobimo iz enačbe: 2 i = 1. Ker pa je 1 = 2°, sledi, da je i = 0 bitov. Nastali sklep je mogoče ponazoriti z naslednjim slikovitim primerom. Predstavljajte si debelo knjigo s 1000 stranmi, katere vse strani so napisane z enakimi enotami (edini uporabljeni simbol abecede). Koliko informacij vsebuje? Odgovor: sploh ne, nič. Poleg tega je takšen odgovor mogoče dobiti s katerega koli položaja, tako vsebinskega kot abecednega.

Najmanjša moč abecede, primerne za prenos informacij, je 2. Ta abeceda se imenuje dvojiška abeceda. Informacijsko težo znaka v binarni abecedi je enostavno določiti. Ker je 2 i = 2, potem je i = 1 bit. Torej, En znak binarne abecede nosi 1 bit informacije. S to okoliščino se bodo učenci ponovno srečali, ko se bodo seznanili z abecedo notranjega jezika računalnika - binarnega kodirnega jezika.

Bit je osnovna enota informacije. Poleg tega se uporabljajo tudi druge enote. Učenci naj bodo pozorni na dejstvo, da v vsakem metričnem sistemu obstajajo osnovne (standardne) enote in izpeljanke iz njih. Na primer, osnovna fizična enota za dolžino je meter. Ampak obstaja milimeter, centimeter, kilometer. Primerno je izraziti razdalje različnih velikosti v smislu različne enote. Enako velja za merjenje informacij. 1 bit je originalna enota. Naslednja največja enota je bajt. Bajt se vnese kot informacijska teža znaka iz abecede s potenco 256. Ker je 256 = 2 8, potem je 1 bajt = 8 bitov. Spet se srečamo s temo, ki je nekakšna propedevtika za prihodnji študij računalništva.

Že v okviru te teme lahko študentom poveste, da računalnik uporablja abecedo z zmogljivostjo 256 za zunanjo predstavitev besedil in drugih simbolnih informacij(v notranji predstavitvi so vse informacije v računalniku kodirane v dvojiški abecedi). Pravzaprav za izražanje volumna računalniške informacije Kot osnovna enota se uporablja bajt.

Ko študentom predstavljate večje enote: kilobajt, megabajt, gigabajt, jih morate opozoriti na dejstvo, da smo navajeni, da predpono "kilo" dojemamo kot 1000-kratno povečanje. V računalništvu tega ni. Kilobajt je 1024-krat večji od bajta in število 1024 = 2 10. Enako velja za "mega" v povezavi s "kilo" itd. Vendar se za približne izračune pogosto uporablja faktor 1000.

V okviru poglobljenega tečaja lahko učitelj predstavi abecedni pristop v ustreznejši različici, ne da bi predpostavljal enako verjetnost simbolov. Teoretično in praktično gradivo na to temo najdete v priročniku v pododdelku 1.4.

Primeri reševanja problemov

Naloge na temo "Merjenje informacij. Vsebinski pristop« so povezani z uporabo enačbe 2 i = n. Obstajata dve možni možnosti za pogoj problema: 1) dano N, najdi me; 2) glede na i, poiščite n.

V primerih, ko n je enak celi potenci dvojke, je priporočljivo, da učenci računajo »v glavi«. Kot je navedeno zgoraj, si je koristno zapomniti niz celih potenc števila 2, vsaj do 2 10. V nasprotnem primeru uporabite tabelo rešitev enačbe 2 i = N, podan v in , ki upošteva vrednosti n od 1 do 64.

Za osnovno stopnjo študija osnovnega predmeta so predlagane naloge, povezane s poročanjem o enako verjetnih dogodkih. Študenti morajo to razumeti in se prepričati, da to kvalitativno utemeljijo z uporabo izraza »enako verjetni dogodki«.

Primer 1. Koliko bitov informacij nosi sporočilo, da je bila pikova dama izvlečena iz kompleta 32 kart?

rešitev. Ko so karte naključno izvlečene iz premešanega kompleta, nobena karta nima prednosti pred drugimi. Posledično je naključna izbira katere koli karte, vključno s pikovo damo, enako verjeten dogodek. Iz tega sledi, da je negotovost znanja o rezultatu izvleka karte enaka 32 - številu kart v krovu. Če je i količina informacij v sporočilu o rezultatu izvleka ene karte (pikova dama), potem imamo enačbo:

Ker je 32 = 2 5, je torej i = 5 bitov.

Učitelj lahko ponudi več nalog na temo te naloge. Na primer: koliko informacij posreduje sporočilo, da je bil rdeči karton vzet iz kompleta kart? (1 bit, ker je število rdečih in črnih kart enako).

Koliko informacij posreduje sporočilo, da je bila karta z diamanti vzeta iz kompleta kart? (2 bita, saj so v kompletu 4 barve in je število kart v njih enako).

Primer 2. Obstajata dve loteriji: "4 od 32" in "5 od 64". Sporočilo o rezultatih katere loterije vsebuje več informacij?

rešitev. Ta naloga ima »past«, na katero lahko naleti učitelj. Prva rešitev je trivialna: poteg poljubne številke iz loterijskega bobna je enako verjeten dogodek. Zato je v prvi loteriji količina informacij v sporočilu o eni številki 5 bitov (2 5 = 32), v drugi pa 6 bitov (2 b = 64). Sporočilo o štirih številkah v prvi loteriji nosi 5´4 = 20 bitov. Sporočilo o petih številkah druge loterije nosi 6´5 = 30 bitov. Posledično sporočilo o rezultatih druge loterije nosi več informacij kot rezultati prve.

Možna pa je tudi drugačna razlaga. Predstavljajte si, da gledate žrebanje loterije. Prva krogla je izbrana izmed 32 kroglic v bobnu. Rezultat vsebuje 5 bitov informacije. Toda 2. kroglica bo izbrana med 31 številkami, 3. med 30 številkami, 4. med 29. To pomeni, da količino informacij, ki jih nosi 2. številka, dobimo iz enačbe: 2 i = 31. Z uporabo tabele, ki rešuje to enačbe, najdemo: i = 4,95420 bitov. Za 3. številko: 2 i = 30; i = 4,90689 bitov. Za 4. številko: 2 i " = 29; i = 4,85798 bitov. Skupno dobimo: 5 + 4,95420 + 4,90689 + 4,85798 = = 19,71907 bitov. Enako za drugo loterijo. Seveda se takšni izračuni ne bodo odražali v končni zaključek.Možno je bilo, ne da bi karkoli izračunali, takoj odgovoriti, da drugo sporočilo nosi več informacij kot prvo.A tu je zanimiv že sam način izračuna ob upoštevanju "osipa udeležencev".

Zaporedje dogodkov v tem primeru ni neodvisno drug od drugega(razen prvega). To se, kot smo videli, odraža v razliki v informacijski vsebini sporočil o vsakem od njih. Prva (trivialna) rešitev problema je bila pridobljena ob predpostavki neodvisnosti dogodkov in je v tem primeru netočna.

V okviru nalog na temo »Merjenje informacij. Abecedni pristop" so med seboj povezane naslednje količine: moč simbolne abecede - N; informacijska teža simbola - /; število znakov v besedilu (obseg besedila) - TO; količina informacij, ki jih vsebuje besedilo (informacijski obseg besedila) - I. Poleg tega je pri reševanju problemov potrebno poznati razmerje med različnimi enotami informacij: bit, bajt, kilobajt, megabajt, gigabajt.

Problemi, ki ustrezajo nivoju minimalne vsebine osnovnega predmeta, obravnavajo le aproksimacijo enako verjetne abecede, to je predpostavko, da je pojav katerega koli znaka na katerem koli mestu besedila enako verjeten. Težave na višji ravni uporabljajo bolj realistično predpostavko o neenaki verjetnosti simbolov. V tem primeru se prikaže še en parameter - verjetnost simbola (R).

Primer 3. Obe besedili vsebujeta enako število znakov. Prvo besedilo je sestavljeno v abecedi z zmogljivostjo 32 znakov, drugo - z zmogljivostjo 64 znakov. Kolikokrat se količina informacij v teh besedilih razlikuje?

rešitev. V enakoverjetnem približku je informacijski obseg besedila enak zmnožku števila znakov in informacijske teže enega znaka:

Ker imata obe besedili enako število znakov (ZA), potem je razlika v obsegu informacij določena le z razliko v vsebini informacij abecede (i). Poiščimo i 1 za prvo abecedo in i 2 za drugo abecedo:

2 i1 = 32, torej i 1 = 5 bitov;

2 i2 = 64, torej i 2 = 6 bitov.

Posledično bo obseg informacij prvega in drugega besedila enak:

jaz 1 = K× 5 bitov, 1 2 =K×6 bit.

Iz tega sledi, da je količina informacij v drugem besedilu 6/5 oziroma 1,2-krat večja kot v prvem.

Primer 4. Velikost sporočila, ki je vsebovalo 2048 znakov, je bila 1/512 MB. Kakšna je velikost abecede, v kateri je napisano sporočilo?

rešitev. Pretvorimo količino informacij v sporočilu iz megabajtov v bite. Če želite to narediti, to vrednost dvakrat pomnožite s 1024 (dobimo bajte) in enkrat z 8:

I = 1/512 1024 1024 8 = 16384 bitov.

Ker 1024 znakov nosi tako količino informacij (ZA), potem je za en znak:

jaz = I/K = 16384/1024 = 16 bitov.

Iz tega sledi, da je velikost (moč) uporabljene abecede 2 16 = 65.536 znakov.

Upoštevajte, da bo ravno ta abeceda čez nekaj časa postala mednarodni standard za predstavitev simbolnih informacij v računalniku (kodiranje Unicode).

Bit je osnovna enota informacije. Poleg tega se uporabljajo tudi druge enote. Naslednja največja enota je bajt. Bajt se vnese kot informacijska teža znaka iz abecede s potenco 256. Ker je 256 = 28, potem je 1 bajt = 8 bitov.

Ko študentom predstavljate večje enote: kilobajt, megabajt, gigabajt, morate biti pozorni na dejstvo, da smo navajeni, da predpono "kilo" dojemamo kot 1000-kratno povečanje. V računalništvu tega ni. Kilobajt je 1024-krat večji od bajta in število 1024 = 210. Enako velja za »mega« glede na »kilo« itd. Kljub temu se za približne vrednosti pogosto uporablja faktor 1000.

V okviru poglobljenega tečaja lahko učitelj predstavi abecedni pristop v ustreznejši različici, ne da bi predpostavljal enako verjetnost simbolov.

Številni učbeniki vsebujejo vsebino »Informacije in informacijskih procesov začnemo na enak način, z dejstvom, da je pojem "Informacija" postal eden temeljnih konceptov v moderna znanost. Skupaj s pojmi "materija", "energija", "prostor" in "čas". Je osnova znanstvene slike sveta.

2.3. Metodologija reševanja problemov na teme v razdelku »Informacije«.

Naloge na temo "Merjenje informacij. Vsebinski pristop« so povezani z uporabo enačbe 2i = N. Možni sta dve rešitvi problema:

Glede na N poiščite i;

Glede na i poiščite N.

V primerih, ko je N enako celi številski potenci dvojke, je priporočljivo, da učenci računajo »v svojih glavah«. Kot je navedeno zgoraj, si je koristno zapomniti vrsto celih potenc 2, vsaj do 210. V nasprotnem primeru uporabite tabelo rešitev za enačbo 2i = N, ki zajema vrednosti N od 1 do 64.

Za osnovno stopnjo študija osnovnega predmeta so predlagane naloge, povezane s poročanjem o enako verjetnih dogodkih. Študenti morajo to razumeti in se prepričati, da to kvalitativno utemeljijo z uporabo izraza »enako verjetni dogodki«.

Koliko bitov informacij nosi sporočilo, da je bila pikova dama izvlečena iz kompleta 32 kart?

Rešitev: Pri naključnem vlečenju kart iz premešanega kompleta nobena karta nima prednosti, da je izbrana pred drugimi. Posledično je naključna izbira katere koli karte, vključno s pikovo damo, enako verjeten dogodek. Iz tega sledi, da je negotovost znanja o rezultatu žrebanja karte enaka 32 - številu kart v krovu. Če je i količina informacij v sporočilu o rezultatu izvleka ene karte (pikova dama), potem imamo enačbo:

Ker je 32 = 25, je i = 5 bitov.

Učitelj lahko ponudi več nalog na temo te naloge. Na primer: koliko informacij posreduje sporočilo, da je bil rdeči karton vzet iz kompleta kart? (1 bit, ker je število rdečih in črnih kart enako).

Koliko informacij posreduje sporočilo, da je bila karta z diamanti vzeta iz kompleta kart? (2 bita, ker so v kompletu štiri barve in je število kart v njih enako).

Obstajata dve loteriji: "4 od 32" in "5 od 64". Sporočilo o rezultatih katere loterije vsebuje več informacij?

Rešitev: Ta naloga ima »past«, na katero lahko naleti učitelj. Prva rešitev je trivialna: poteg poljubne številke iz loterijskega bobna je enako verjeten dogodek. Zato je v prvi loteriji količina informacij v sporočilu o eni številki 5 bitov (25 = 32), v drugi pa 6 bitov (26 = 64). Sporočilo o štirih številkah v prvi loteriji nosi 5 * 4 = 20 bitov. Posledično sporočilo o rezultatih druge loterije nosi več informacij kot rezultati prve.

Možna pa je tudi drugačna razlaga. Predstavljajte si, da gledate žrebanje loterije. Prva krogla je izbrana izmed 32 kroglic v bobnu. Rezultat vsebuje 5 bitov informacije. Toda druga kroglica bo izbrana med 31 številkami, tretja med 30 številkami, četrta med 29. To pomeni, da količino informacij, ki jih nosi druga številka, dobimo iz enačbe: 2i = 31. Uporaba tabele za rešitev tega enačbo, najdemo: i = 4 ,95420 bitov, za tretje število: 2 i = 30; i = 4,90689 bitov, za četrto število: 2 i = 29; i = 4,85798 bitov. Skupaj dobimo: 5 + 4,95420 + 4,85798 + 4,90689 = 19,71907 bitov. Enako za drugo loterijo. Takšni izračuni seveda ne bodo vplivali na končni zaključek. Možno je bilo, ne da bi kar koli izračunali, takoj odgovoriti, da drugo sporočilo nosi več informacij kot prvo. Zanimiv pa je način izračuna ob upoštevanju »osipa udeležencev«.

Zaporedje dogodkov v tem primeru ni neodvisno drug od drugega (razen prvega). To se, kot smo videli, odraža v razliki v informacijski vsebini sporočila o vsakem od njih. Prva (trivialna) rešitev problema je bila pridobljena ob predpostavki neodvisnosti dogodkov in je v tem primeru netočna.

V okviru nalog na temo »Merjenje informacij. Abecedni pristop« so med seboj povezane naslednje količine: moč simbolne abecede – N; informacijska teža simbola – i; število znakov v besedilu (obseg besedila) – K; količina informacij, ki jih vsebuje besedilo (informacijski obseg besedila) – I. Poleg tega je pri reševanju nalog potrebno poznati razmerje med različnimi enotami informacij: bit, bajt, KB, MB, GB.

Problemi, ki ustrezajo nivoju minimalne vsebine osnovnega predmeta, obravnavajo le približek enako verjetne abecede, tj. predpostavka, da je pojav katerega koli znaka na kateremkoli mestu v besedilu enako verjeten. Problem napredne ravni uporablja bolj realistično predpostavko o neenaki verjetnosti simbolov. V tem primeru se pojavi še en parameter - verjetnost simbola (p).

Rešitev: V enakoverjetnem približku je informacijski obseg besedila enak zmnožku števila znakov in informacijske teže enega znaka:

Ker imata obe besedili enako število znakov (K), so razlike v obsegu informacij določene le z razliko v informacijski vsebini znakov abecede (i). Poiščimo i1 za prvo abecedo in i2 za drugo abecedo:

2i1 = 32, torej i1 = 5 bitov;

2i2 = 64, torej i2 = 6 bitov.

Posledično bo obseg informacij prvega in drugega besedila enak:

I1 = K*5 bitov, I2 = K*6 bitov.

Iz tega sledi, da je količina informacij v drugem besedilu 6/5 oziroma 1,2-krat večja kot v prvem.

Naloge na temo "Informacije"

1. Predstavitev informacij.

1. Predpostavimo, da v »marsovskem« jeziku izraz lot do lahko pomeni mačka je pojedla miško; may si – siva miška; ro do - jedel je. Kako napisati "siva mačka" v "marsovskem" jeziku?

Odgovor: veliko si.

2. Fraza v nekaterih jezikih "Kalya malya", prevedena v ruščino, pomeni "Rdeče sonce", "Falya malya bala" - "Velika rdeča hruška", "Tsalya bala" - "Veliko jabolko". Kako zapisati besede: hruška, jabolko, sonce v tem jeziku?

Odgovor: "Tsalya" - "Jabolko", "Balya" - "Hruška", "Kalya" - "Sonce".

Laboratorijsko delo št. 1

Merjenje informacij (vsebinski pristop)

1 bit– količino informacij, ki zmanjša negotovost znanja za polovico. Težave na temo so povezane z uporabo formule R. Hartley:

i = log 2 N ali 2 i = N,

kjer je i količina informacij, N je število enako verjetnih izidov dogodka.

Obstajata dve možni možnosti za pogoje naloge:

1) glede na N poiščite i;

glede na i, poišči N.

Enako verjetni dogodki

Na tekmovanju sodelujejo 1.4 ekipe. Koliko informacij je v sporočilu, da je zmagala 3. ekipa?

– Sporočilo zmanjša prvotno negotovost za točno štirikrat (dvakrat po dva) in nosi dva bita informacije.

2. Žoga je v eni od 64 škatel. Koliko informacij bo vsebovalo sporočilo o tem, kje je žoga?

6 bitov (64 = 2 6)

3. Pri ugibanju celega števila v določenem območju je bilo prejetih 8 bitov informacije. Koliko števil je vsebovalo to območje?

5. Koliko bitov informacij sporoča sporočilo, da je bila pikova dama vzeta iz kompleta 32 kart?

Rešitev tega problema je treba opisati takole: ko so karte naključno izvlečene iz premešanega kompleta, nobena karta nima prednosti pred drugimi, ki jih je treba izbrati. Posledično je naključna izbira katere koli karte, vključno s pikovo damo, enako verjeten dogodek. Iz tega sledi, da je negotovost znanja o rezultatu izvleka karte enaka 32 - številu kart v krovu. Če je i količina informacij v sporočilu o rezultatu žrebanja ene karte (pikova dama), potem imamo enačbo

Ker je 32= 2 5, je torej i = 5 bitov.

6. Žoga je v eni od treh žar: A, B ali C. Ugotovite, koliko bitov informacij vsebuje sporočilo, ki je v žari B.

Tako sporočilo vsebuje I = log 2 3 = 1,585 bitov informacij.

7. Vržete dve kocki, na katerih so na straneh natisnjene številke od 1 do 6. Ugotovite, koliko bitov informacije nosi sporočilo, da je ena kocka prišla s trojko, druga pa s petico.

log 2 6 + log 2 6 = 2,585 + 2,585 = 5,17 (biti)

8. Obstajata dve loteriji: "4 od 32" in "5 od 64". Sporočilo o rezultatih katere loterije vsebuje več informacij?

Prva rešitev je trivialna: poteg poljubne številke iz loterijskega bobna je enako verjeten dogodek. Zato je v prvi loteriji količina informacij v sporočilu o eni številki 5 bitov (2 5 = 32), v drugi pa 6 bitov (2 6 = 64). Sporočilo o štirih številkah v prvi loteriji nosi 5x4 = 20 bitov. Sporočilo o petih številkah druge loterije nosi 6x5 = 30 bitov. Posledično sporočilo o rezultatih druge loterije nosi več informacij kot o prvi.

A tudi ta način sklepanja je možen. Predstavljajte si, da gledate žrebanje loterije. Prva krogla je izbrana izmed 32 kroglic v bobnu. Rezultat vsebuje 5 bitov informacije. Toda 2. kroglica bo izbrana med 31 številkami, 3. med 30 številkami, 4. med 29. To pomeni, da količino informacij, ki jih nosi 2. številka, dobimo iz enačbe:

2 i = 31, od tod i = 4,95420 netopir.

Za številko 3: 2"= 30 ;i = 4,90689 netopir.

Za številko 4: 2"= 29 ; i= 4,85798 netopir.

Skupaj dobimo: 5 + 4,95420 + 4,90689 + 4,85798 = 19,71907 netopir.

in postavitev transparenta je OBVEZNA!!!

Razvoj lekcije na temo: "Kako meriti informacije"

Oddelki učbenika: § 2. Dodatno gradivo: 2. del, oddelek 1.1.

Osnovni cilji. Razširite pojem informativnosti sporočila s subjektivnega (vsebinskega) vidika informacije. Vnesite mersko enoto informacije - bit. Naučite se izračunati količino informacij v konkretnem primeru poročanja o dogodku z znano verjetnostjo (iz dane končne množice).

Preučevana vprašanja:

o Kaj določa informacijsko vsebino sporočila, ki ga oseba prejme?

o merska enota informacije.

o Količina informacij v sporočilu o enem od N enako verjetnih dogodkov.

1. Ta tema uporablja koncept »sporočila«, ki je študentom intuitiven. Vendar pa bo morda treba razvozlati ta koncept. Sporočilo je informacijski tok, ki v procesu prenosa informacije doseže prejemnika. Sporočilo je tako govor, ki ga poslušamo (radijsko sporočilo, učiteljeva razlaga) kot stvari, ki jih zaznavamo. vizualne podobe(film na televiziji, semafor) in besedilo knjige, ki jo beremo itd.

2. O vprašanju informativnosti sporočila je treba razpravljati na primerih, ki jih ponudijo učitelj in učenci. Pravilo: informativno je sporočilo, ki dopolnjuje človekovo znanje, tj. zanj nosi informacije. Za različne ljudi se lahko isto sporočilo glede na vsebino informacij razlikuje. Če so informacije "stare", tj. oseba to že ve ali pa ji vsebina sporočila ni jasna, potem je zanjo to sporočilo neinformativno. Informativno sporočilo je tisto, ki vsebuje nove in razumljive informacije.

Še enkrat bi rad poudaril vso spoznavno (za učence) in metodološko (za učitelje) kompleksnost. tega materiala. Pojma »informacija« in »informativna vsebina sporočila« ne gre enačiti. Naslednji primer ponazarja razliko v pojmih. vprašanje:

"Ali univerzitetni učbenik za višjo matematiko vsebuje informacije z vidika prvošolca?" Odgovor: "Da, s katerega koli vidika! Ker učbenik vsebuje znanje ljudi: avtorjev učbenika, ustvarjalcev matematičnega aparata (Newton, Leibniz itd.), sodobnih matematikov." Ta resnica je absolutna. Drugo vprašanje: "Ali bo besedilo tega učbenika poučno za prvošolca, če ga bo poskušal prebrati? Z drugimi besedami, ali lahko prvošolec razširi svoje znanje s pomočjo tega učbenika?" Očitno je odgovor ne. Branje učbenika, tj. ob prejemu sporočil prvošolček ne bo ničesar razumel in zato tega ne bo pretvoril v svoje znanje. Uvedba koncepta »informativnosti sporočila« je prvi pristop k preučevanju problematike merjenja informacij. Če je sporočilo za osebo neinformativno, potem je količina informacij v njem z vidika te osebe enaka nič. Količina informacij v informativnem sporočilu je večja od nič.

Pri razlagi te teme lahko učence povabite k igranju neke vrste kviza. Na primer, učitelj otrokom ponudi seznam vprašanj, odgovore na katere tiho zapišejo na papir. Če učenec ne pozna odgovora, postavi vprašaj. Po tem učitelj poda pravilne odgovore na svoja vprašanja, učenci pa po zapisu učiteljevih odgovorov zabeležijo, kateri od odgovorov se jim je izkazal za informativnega (+) in kateri ne (-). Hkrati morate za sporočila, označena z minusom, navesti razlog za pomanjkanje informacij: ni novo (to vem), nerazumljivo. Seznam vprašanj in odgovorov enega od učencev je lahko na primer tak kot v tabeli na str. 6. 3. Definicija bita – merske enote informacije – je lahko težko razumljiva. Ta definicija vsebuje koncept »negotovosti znanja«, ki ga otroci ne poznajo. Najprej ga morate odpreti. Učitelj se mora dobro zavedati, da govorimo o zelo posebnem primeru: sporočilu, ki vsebuje informacijo, da se je zgodil "eden od končnega niza (N) možnih dogodkov. Na primer rezultat metanja kovanca, kocka za igro; izvlečenje izpitne karte ipd..p Negotovost znanja o rezultatu nekega dogodka je število možne možnosti rezultat. Za kovanec - 2, za kocko - b, za vstopnice - 30 (če je bilo na mizi 30 vstopnic).

Vprašanje učitelja

Odgovor študenta

Sporočilo učitelja

Informativnost sporočila

Razlog za pomanjkanje informacij

1. Katero mesto je glavno mesto Francije?

Glavno mesto Francije je Pariz

Glavno mesto Francije je Pariz

2. Kaj preučuje koloidna kemija?

Koloidna kemija preučuje disperzijska stanja sistemov z visoko stopnjo fragmentacije

Nerazumljivo

3. Kakšna je višina in teža Eifflovega stolpa?

Eifflov stolp je visok 300 metrov in tehta 9000 ton

4. Druga težava je koncept enake verjetnosti. Pri tem bi morali izhajati iz intuitivne zamisli otrok in jo podpreti s primeri. Dogodki so enako verjetni, če noben od njih nima prednosti pred drugimi. S tega vidika so glave in repi enako verjetni; enako verjetna je tudi izguba ene od šestih stranic kocke. Koristno je navesti primere neenako verjetnih dogodkov. Na primer, v poročilu o vremenu ima lahko glede na letni čas podatek o tem, ali bo dež ali sneg, različno verjetnost. Dež je najverjetneje poleti, sneg pozimi, v prehodnem obdobju (marec ali november) pa so lahko enako verjetni. Koncept »bolj verjetnega dogodka« je mogoče razložiti s sorodnimi pojmi: bolj pričakovan, pogostejši v danih pogojih. Kot del osnovnega predmeta študenti nimajo nalog razumevanja stroge definicije verjetnosti ali sposobnosti izračuna verjetnosti. Pridobiti pa morajo predstavo o enako verjetnih in neenako verjetnih dogodkih. Učenci naj se naučijo navesti primere enako verjetnih in neenako verjetnih dogodkov.

Če imate čas za pouk, je koristno, da se s svojimi študenti pogovorite o pojmih "določen dogodek" - dogodek, ki se bo zagotovo zgodil, in "nemogoč dogodek". Lahko začnete s temi koncepti, da uvedete intuitivno idejo o meri verjetnosti. Dovolj je reči, da je verjetnost zanesljivega dogodka 1, nemogočega pa 0. To so ekstremne vrednosti. To pomeni, da je v vseh drugih "vmesnih" primerih vrednost verjetnosti med nič in ena. Zlasti je verjetnost vsakega od dveh enako verjetnih dogodkov 1/2. Za poglobljeno študijo osnovnega tečaja se obrnite na razdelek 1.1 "Verjetnost in informacije" drugega dela učbenika.

5. Učbenik podaja naslednjo definicijo enote informacije: "Sporočilo, ki zmanjša negotovost znanja za 2-krat, nosi 1 bit informacije." Malo naprej je definicija za poseben primer: "Sporočilo, da se je zgodil eden od dveh enako verjetnih dogodkov, nosi 1 bit informacije." Učitelj, ki ima raje induktivno metodo razlage, lahko začne z drugo definicijo. Če govorimo o tradicionalnem primeru s kovancem (heads-tails), je treba opozoriti, da je prejem sporočila o rezultatu meta kovanca zmanjšal negotovost znanja za polovico: pred metom kovanca sta bili dve enako verjetni možnosti, po prejemu sporočilo o rezultatu ostal je samo še en. Nadalje je treba povedati, da se za vse druge primere sporočil o enako verjetnih dogodkih, ko se negotovost znanja zmanjša za polovico, prenaša 1 bit informacije. Učitelj lahko primere, navedene v učbeniku, dopolnjuje z drugimi, učence pa tudi povabi, da si izmislijo svoje primere. Induktivno iz posameznih primerov prideta učitelj in razred do posplošene formule: 2i= N. Tu je N število možnosti za enako verjetne dogodke (negotovost znanja), i pa količina informacij v sporočilu, ki ga od N dogodkov. Če je N znan in je i neznana količina, se ta formula spremeni v eksponentno enačbo. Kot veste, je eksponentno enačbo mogoče rešiti s funkcijo logaritma: i=log2N. Tu ima učitelj dve možnosti:

ali razložite, kaj je logaritem pred lekcijami matematike, ali pa se "ne zapletajte" z logaritmi. Pri drugi možnosti naj učenci razmislijo o reševanju enačbe za posebne primere, ko je N cela potenca dvojke: 2, 4, 8, 16, 32 itd. Razlaga poteka po naslednji shemi:

ČE je N= 2= 21, ima enačba obliko: 2i= 21, torej i = 1.

Če je N = 4 = 22, ima enačba obliko: 2 i = 22, torej i == 2.

Če je N = 8 == 23, ima enačba obliko: 2 i = 23, torej i = 3 itd.

Na splošno, če je N = 2k, kjer je k celo število, postane enačba 2i = 2k in zato i = k. Koristno je, da si učenci zapomnijo število celih potenc dvojke, vsaj do 210 = 1024. S temi količinami se bodo še srečali v drugih razdelkih.

Za tiste vrednosti N, ki niso cele potence dveh, lahko rešitev enačbe 2i = N dobimo iz tabele, podane v učbeniku v § 2. Učencem sploh ni treba povedati, da je to tabelo logaritmov na osnovo 2. Na primer, če želite ugotoviti, koliko bitov informacije vsebuje sporočilo o rezultatu metanja šeststrane kocke, morate rešiti enačbo: 2i = 6, Ker je 22< 6 < 23, то следует пояснить ученикам, что 2 < i < 3. Заглянув а таблицу, узнаем (с точностью до пяти знаков после запятой), что i= 2,58496 бита.

Težave na temo § 2 so povezane z uporabo enačbe 2i= N. Za pogoje nalog sta možni dve možnosti:

1) glede na N poiščite i;

2) glede na i poiščite N.

V primerih, ko je N enako celi številski potenci dvojke, je priporočljivo, da učenci računajo »v svojih glavah«. Kot je navedeno zgoraj, si je koristno zapomniti vrsto celih potenc 2 vsaj do 210. V nasprotnem primeru uporabite tabelo 1.1, ki zajema vrednosti N od 1 do 64,

Za osnovno stopnjo študija osnovnega predmeta so predlagane naloge, povezane s poročanjem o enako verjetnih dogodkih. Študenti morajo to razumeti in se prepričati, da to kvalitativno utemeljijo z uporabo izraza »enako verjetni dogodki«.

Primer 1. [I] Naloga št. 7 k § 2. Koliko bitov informacije nosi sporočilo, da je bila pikova dama vzeta iz kompleta 32 kart?

Rešitev te težave je treba opisati takole: ko so karte izžrebane naključno in je komplet premešan, nobena karta nima prednosti pred drugimi, ki jih je treba izbrati. Posledično je naključna izbira katere koli karte, vključno s pikovo damo, enako verjeten dogodek. Iz tega sledi, da je negotovost znanja o rezultatu izvleka karte enaka 32 - številu kart v krovu. Če je i količina informacij v sporočilu o rezultatu izvlečenja ene karte (pikova dama), potem imamo enačbo;

Ker je 32= 25, je torej i = 5 bitov.

Učitelj lahko ponudi več nalog na temo te naloge. Na primer:

Koliko informacij posreduje sporočilo, da je bil iz kompleta kart izvlečen rdeči karton? (1 bit, ker je število rdečih in črnih kart enako.)

Koliko informacij posreduje sporočilo, da je bila karta z diamanti vzeta iz kompleta kart? (2 bita, ker so v kompletu 4 barve in je število kart v njih enako.)

Primer 2. [ 1 ] Naloga št. 8 k § 2. Izvajata se dva žrebanja: »4 od 32« in »5 od 64«. Sporočilo o rezultatih katere loterije vsebuje več informacij?

Ta naloga ima »past«, na katero lahko naleti učitelj. Prva rešitev je trivialna: poteg poljubne številke iz loterijskega bobna je enako verjeten dogodek. Zato je v prvi loteriji količina informacij v sporočilu o eni številki 5 bitov (25 = 32), v drugi pa 6 bitov (26 = 64). Sporočilo o štirih številkah v prvi loteriji nosi 5x4 = 20 bitov. Sporočilo o petih številkah druge loterije nosi 6x5 = 30 bitov. Posledično sporočilo o rezultatih druge loterije nosi več informacij kot o prvi.

A tudi ta način sklepanja je možen. Predstavljajte si, da gledate žrebanje loterije. Prva krogla je izbrana izmed 32 kroglic v bobnu. Rezultat vsebuje 5 bitov informacije. Toda 2. kroglica bo izbrana med 31 številkami, 3. med 30 številkami, 4. med 29. To pomeni, da količino informacij, ki jih nosi 2. številka, dobimo iz enačbe: 2i = 31.

Če pogledamo tabelo 1.1, ugotovimo: i= 4,95420 bitov. Za 3. številko: 2"= 30; r = 4,90689 bitov. Za 4. številko: 2"= 29; g= 4,85798 bitov. Skupaj dobimo: 5 + 4,95420 + 4,90689 + 4,85798 = 19,71907 bitov.