Zpět na seznam článků     Číst komentáře (13)     Verze pro tisk

Šifry a kódy moderní doby 1.díl

Autor: .cCuMiNn.   
10.8.2006

Úvodní díl seriálu o kryptologii. Tentokrát stručně o informacích...


Abychom správně pochopili principy moderního šifrování, neobejdeme se bez znalosti historie a několika definic. No a kde začít jinde než u definice informace, u které všechno začíná a také končí…

Informace

Informace – slovo, které každý z nás používá denně při mnoha příležitostech. Informace jsou běžnou součástí našeho života, ovlivňují v něm každý okamžik a dá se říci, že bez informací by v dnešní informační společnosti nemohl člověk existovat. Ne nadarmo se říká, že informace mají cenu zlata. I když dokážeme toto slovo všichni bez problémů používat, jen málokdo zná přesný význam tohoto slova, přičemž dostupných výkladů a definic můžeme najít hned několik. Jelikož se k informacím přistupuje v různých vědních oborech odlišně, jsou i definice v každém z nich různé, přesto se dá ale říci, že základ mají všechny tyto definice stejný.

Informace – sdělitelný poznatek, který má smysl a snižuje nejistotu.


Na příkladech si rozvineme předchozí definici, tak aby byla všem srozumitelná:

Do losovacího bubnu vložíme jeden los. Pokud od někoho dostaneme zprávu, že bude vylosován právě tento los, bude to pro nás informace s nulovou informační hodnotou, protože jde o jev jistý. Pokud bychom do bubnu vložili losů sto a někdo by nás předem informoval, který los bude tažen, bude pro to pro nás informace s vysokou informační hodnotou, jelikož jde o jev velmi málo pravděpodobný.

Podobným příkladem může být i tato úvaha: Je normální, že každý den jezdím do práce autobusem, který vždy přijíždí přesně. Informace typu „zítra přijede autobus přesně“ pro mě tedy nemá téměř žádnou hodnotu, vzhledem k tomu, že to předpokládám. Ovšem informace „autobus má poruchu a zítra nepojede“ má pro mě informační hodnotu velikou, protože to nemohu předpokládat a musím si tím pádem zajistit jiný způsob přepravy.


Z uvedených příkladů vyplývá, že každá zpráva nese určité množství informace. Velikost tohoto množství záleží na předpokládatelnosti jevu, o kterém informuje. Pravděpodobnost výskytu určitého jevu se označuje mírou neurčitosti (entropie). Čím je entropie větší, je výskyt jevu pravděpodobnější a množství informace je menší. Stejně platí i opak, čím je entropie menší, je méně pravděpodobný výskyt jevu a množství informace je proto větší. Aby se dala velikost informace porovnávat, byla zavedena veličina informace a jednotkou této veličiny byl zvolen Sh [shannon]. Název byl zvolen podle matematika C.E.Shannona, který jako první vytvořil definici informace a dokázal její měřitelnost.

Claude Elwood Shannon (30. 4. 1916 – 24.2.2001) Claude Elwood Shannon (30. 4. 1916 – 24.2.2001)

Americký matematik a inženýr, jeden ze zakladatelů teorie informace. Zaměstnanec Bellových laboratoří, v roce 1948 publikoval v časopise Bell System Technical Journal článek "The Mathematical Theory of Communication". Spolu s Warrenem Weaverem autor obecného modelu komunikace (1947).


V souvislosti s informacemi, se používají také termíny data a znalosti, která mají s informacemi velmi příbuzný vztah. Informace, které nemají samy o sobě smysl nazýváme data a informace, které jsme si již osvojili a které tedy víme, označujeme jako znalosti.

.cCuMiNn.

Líbil se Vám článek?
Budeme potěšeni, pokud vás zaujme také reklamní nabídka

Social Bookmarking

     





Hodnocení/Hlasovalo: 1.91/22

1  2  3  4  5    
(známkování jako ve škole)