Smazaný obsah Přidaný obsah
m překlep
m typo
Řádek 58:
Tento odstavec ukazuje cestu od prvních myšlenek (Hartley), jak kvantifikovat informaci, po Shannonovo epochální stanovení množství informace jako míry odstranění neurčitosti. Tato cesta byla otevřena tak, že místo nástrojově neuchopitelné informace se používají její nástrojově uchopitelní nositelé – znaky (jazykové konstrukty). Od jejich úlohy nositelů „vtištěné“ informace je však zcela odhlédnuto, a sleduje se pouze ''řád'', ve kterém se znaky objevují jejich příjemci. V tomto ''řádu'' je obsažena (je jím určena) předmětná informace, která je nadále ústředním pojmem (formální) informatiky, a tak předmětem zkoumání.<ref>Abramson, Norman: Information Theory and Coding. McGraw-Hill Education, 1963. ISBN 0-070-00145-6. ISBN 0-070-00145-6. https://dokumen.tips/documents/information-theory-and-coding-by-norman-abramson.html?page=32</ref> Podstatné je, že při této záměně je zachován princip, že příchody znaků příjemci snižují neurčitost toho, jaký znak by mohl přijít, podobně jako získání informace příjemci snižuje neurčitost jeho znalosti o dění v jisté části reálného světa.
 
Z oboru techniky sdělování (přenosu) informace vyšel první pokus ([[Ralph Hartley]] 1928) nalézt metodu měření množství přenesené informace,<ref> Hartley, R.V.L., "Transmission of Information", Bell System Technical Journal, Volume 7, Number 3, pps. 535–563, (July 1928).</ref> tak i rychlost, jako množství informace přenesené za jednotku času. Hartley přišel s myšlenkou, kdy měření množství informace je založeno na předpokladu (modelu), že odesílatel zprávy má k dispozici (konečnou) množinu znaků např. anglickou abecedu, ze kterých vytváří posloupnosti, a ty odesílá. Shannon za podpory matematika Warrena Weavera rozšířil Hartleho model myšlenkou, že pro účely kvantifikace informace mohou být sekvence místo operátora (odesílatele) generovány náhodným jevem, aniž by se tím porušil princip snižování neurčitosti při jejich příjmu. ''Řád'', jímž je informace určena, je pak [[rozdělení pravděpodobnosti]] onoho náhodného jevu. V takovém pojetí je zároveň k dispozici nástroj umožňující vyjádřit (Shannonovu) ideu, že získání informace znamená snížení neurčitosti: Informace je údaj o tom, že nastal jev z množiny možných náhodných jevů, což příjemci sníží neurčitost znalosti o tom, který z jevů mohl nastat.
 
Rozhodnutí, že místo nástrojově neuchopitelné informace se budou používat nástrojově uchopitelné jazykové konstrukty, tak zachovává princip, že se jedná o snižování neurčitosti znalostí příjemce:
Řádek 109:
Pokud se ze všech ''I(xi)'' jichž je ''n'', vytvoří vážený průměr, kde váhami jsou příslušné pravděpodobnosti ''pi'', vznikne výše uvedený vztah pro Shannonovu entropii ''H''. Entropie ''H'' je tak ''váženou střední hodnotou vlastních informací'' všech ''n'' jevů ''xi'', a hodnota entropie ''H'' tak vyjadřuje ''průměrné množství vlastní informace'' na jeden výskyt pravděpodobnostního jevu ''xi''.
 
== Informace - odstranění neurčitosti ==
 
Jestliže jistá zpráva obsahuje ''K'' výskytů (např. znaků) pravděpodobnostního jevu ''X'', a průměrné množství informace na jeden výskyt ve zprávě je dáno hodnotou entropie ''H'' (kdy se vážený průměr provede pro oněch ''K'' výskytů), pak ona zpráva přináší množství informace ''I = K * H''. Tak neurčitost, která byla zprávou příjemci odstraněna, je rovna onomu množství informace ''I''. To je případ, kdy se zachovává výše uvedené shannonovské odhlédnutí od reality, kdy výskyty jevů se považují za na sobě nezávislé, neboť se jedná o obecný případ, kdy nelze jejich závislost specifikovat. V konkrétních případech, např. kdy znaky náleží jistému přirozenému jazyku, se může navíc uvažovat, jak pravděpodobnost výskytu jistého znaku závisí (je podmíněna) na výskytu předchozího znaku (případně více předchozích znaků), jak je to onomu jazyku vlastní, což je pro řadu přirozených jazyků statisticky vypočítáno a publikováno <ref> Mareš M. Zdroje informací a jejich měření. Ústav aplikované informatiky. Přírodovědecká fakulta, Jihočeské univerzity v Českých Budějovicích, 2018, str. 51, 54. </ref>. Závislostí mezi znaky je pak ovlivněna i hodnota entropie ''H'' a tak i hodnota odstraněné neurčitosti, neboť závislost mezi výskytem znaků „napovídá“ (nese informaci), který znak by mohl následovat, což snižuje nepředvídatelnost těch jevů, a tak hodnotu entropie.Tuto situaci matematicky reprezentuje vztah
Řádek 137:
[[Vzájemná informace]] má v teorii informace řadu aplikací, např. v informačním kanálu (Shannonově schématu) se požaduje maximální možná vzájemná informace mezi výstupem a vstupem kanálu s ohledem na přítomnost šumu a s ohledem na šíři pásma kanálu.
 
Vzájemná informace (někdy též transinformace) ''I(X;Y)'' je množství informace, které je společné náhodným proměnným ''X'' a ''Y''. Je měřítkem vzájemné statistické závislosti mezi dvěma náhodnými proměnnými ''X'' a ''Y''. Obvykle se udává v bitech. Tuto veličinu definoval a analyzoval ''Claude Shannon'' ve své klíčové práci ''Matematická teorie komunikace''<ref>Shannon, Claude Elwood (1948): A Mathematical Theory of Communication. Bell System Technical Journal . 27 (3), pps. 379–423.[http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html] {{Wayback|url=http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html|date=19980131083455}}</ref>, avšak nenazval ji „vzájemnou informací“. Tento termín později vytvořil [[Robert Fano]] <ref>Kreer, J. G. (1957). "A question of terminology". IRE Transactions on Information Theory. 3 (3): 208. </ref>
 
Vzájemná (průměrná) informace ''I(X; Y)'' vypovídá o tom, kolik informace o ''X'' lze získat při znalosti ''Y'', to znamená, jakou měrou znalost jedné z těchto proměnných snižuje nejistotu znalosti o té druhé. Vzájemná informace měří průměrné množství informace poskytnuté výskytem náhodných jevů ''xi ϵ X'' při statistické závislosti na pravděpodobnosti výskytu náhodných jevů ''yj ϵ Y''.
Řádek 187:
 
== Mezi reálným světem a informací ==
Prostředníkem mezi reálným světem a informací o něm je poznání viz [[Věda]]. Při umělém exaktním poznání je možno zřetelně vidět krok poznání od materiálního světa k informaci o něm. Slouží k tomu vědou rozpoznaný, v různých oborech patřičně formulovaný zákon akce a reakce, někdy poněkud skrytý v použitém matematickém nástroji. Umožňuje z materiálního světa interakcí, vytvořit model, v němž jsou interakce rozpleteny a tak osamostatněny na jednostranně působících akce a reakce. V okamžiku osamostatnění (je to přelom z reálného světa do znalostního modelu – získané informace) se otevírá přístup k informaci. V popisu reálného světa exaktní vědou, je získaná informace v podobě veličin (fyzikální, chemické, biologické ...) svázaných matematickými vztahy, popisujícími přírodní zákony, tedy v podobě matematického či počítačového modelu daného objektu nebo jevu. K zobrazení rozpletených interakcí názorně slouží často používané orientované grafy, nazývané bloková schémata,<ref>Zítek P.: Simulace dynamických systémů. SNTL Praha 1990</ref> či grafy signálových toků.<ref>Mason, S.J.: Feedback Theory: Further Properties of Signal Flow Graphs. Proc. IRE, Vol. 44, No. 7, pps. 920-926920–926, 1956.</ref><ref>Biolek D.: Grafy signálových toků pro analýzu obvodů (nejen) v proudovém módu. http://www.elektrorevue.cz/clanky/02031/index.html#1 {{Wayback|url=http://www.elektrorevue.cz/clanky/02031/index.html#1 |date=20200124094147 }}</ref> Rozpletené interakce se v grafové reprezentaci zobrazují jako jednosměrné akce a reakce tvořící [[Zpětná vazba|zpětnovazební smyčky]].
 
V přirozeném poznání neodstranitelné mlhy vágnosti, tento zvrat v poznání (od reality k informaci) již tak názorný není.
Řádek 200:
Je nutno pečlivě rozlišovat, kdy mluvíme o reálném světě interakcí, a kdy o jeho kognitivním modelu, a kdy máme na mysli jakou interpretaci. Jinak vznikají myšlenkové mišmaše (vedoucí k nedorozuměním), občas doprovázené grafickými mišmaši.
 
Jednou z podivných myšlenek je [[Capurrovo trilema]] <ref> CAPURRO, Rafael, Peter FLEISSNER a HOFKIRCHNER, Wolfgang. Is a Unified Theory of Information Feasible? A Trialogue. In The quest for a unified theory of information: proceedings of the Second International Conference on the Foundations of Information Science. Amsterdam: Gordon and Breach Publishers, 1999, s. 9 –309–30. ISBN 905700531X. http://www.capurro.de/trialog.htm</ref>, kdy se autor pídí po podstatě informace, ale rozděluje informaci na tři typy podle materiální realizace jazyka, a podle vztahu k člověku. Zda ji člověk používá ke komunikaci nebo zda je to informace mimo lidskou komunikaci, která zajišťuje běh reálného světa, např. informace z genetického kódu řídící vývoj buňky. Pokud by si všiml možných interpretací, ve výše zmíněných oborech, snadno by se zorientoval.
 
==Informace a uspořádanost==
Řádek 214:
 
== Zpracování informace ==
Z jistého množství poznáním získané informace, lze za jistých podmínek, získat další informaci, která je v té prvotně získané, člověku skryta. Postupu se říká usuzování, a má svoji přirozenou formu (informace zpracovávaná lidskou psýchou je inherentně vágní), známou z usuzování pověstného Sherlocka Holmese, a svoji formu exaktní (formální, možnou pouze pro informaci s nulovou vnitřní vágností) používanou v matematice, a známou jako '''inference'''. Inference<ref name="#1">Havel, I. M., Hájek, P. Filozofické aspekty strojového myšlení. In Sborník SOFSEM'82, 1982, str. 171–211</ref><ref>Křemen, J.: „Nový pohled na možnosti automatizovaného (počítačového) odvozování“. Slaboproudý obzor. Roč. 68 (2013), č. 1., str. 7 – 117–11., https://docplayer.cz/4300687-Novy-pohled-na-moznosti-automatizovaneho-pocitacoveho-odvozovani.html</ref> znamená z výchozích jazykových konstruktů (axiomů) získání (podle daných pravidel, např. dovolených úprav rovnic) nových jazykových konstruktů, které v jisté interpretaci mohou přinášet novou informaci. Daná soustava informace může poskytnout jen určité množství usuzováním získané informace, pro další informaci je nutno vrátit se k reálnému světu, uskutečnit další poznání, a soustavu znalostí tak rozšířit.<ref>Mareš M.: Zdroje informací a jejich měření. Ústav aplikované informatiky. Přírodovědecká fakulta, Jihočeské univerzity v Českých Budějovicích, 2018. https://docplayer.cz/161264417-Zdroje-informace-a-jeji-mereni.html</ref> Buď tak získáme hledanou informaci, či v rozšířené soustavě znalostí ji opět hledáme na základě inference.
 
Zpracováním informace lze získávat i informaci nad danou soustavou informace, třeba nalezení jistého řádu v soustavě. Takto získané informaci se říká metainformace.
Řádek 227:
=== Technické prostředky komunikace ===
 
S rozvojem elektrických a elektronických komunikací se informace stává i technickým pojmem. Zájem se soustřeďuje na formální jazykovou stránku, a nezabývá se jejím smyslem či obsahem. Základním modelem pro přenos informace je soustava vysílač (kodér) – kanál – přijímač (dekodér). Roku [[1948]] publikoval [[Claude Shannon]], který pracoval pro [[Bellovy laboratoře]], průkopnickou publikaci ''A Mathematical Theory of Communication'',<ref>Shannon, Claude Elwood (1948): A Mathematical Theory of Communication. Bell System Technical Journal . 27 (3), pps. 379–423.[http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html] {{Wayback|url=http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html|date=19980131083455}} </ref> v níž se soustřeďuje na přenos zpráv, kódovaných v nějaké [[abeceda|abecedě]] o konečném nebo [[Spočetná množina|spočetném]] množství znaků. Tak se stal jedním ze zakladatelů [[teorie informace]].
 
== Výklad pojmu informace ==